O uso generalizado da IA (Inteligência Artificial), desde modelos de aprendizagem supervisionada até à descoberta de padrões em dados e ChatGPT, infiltrou-se na empresa — o frenesim resultante culminou num apelo direto à Tecnologias de IA a serem regulamentadas. Reconhecendo a tecnologia cada vez mais assertiva, transformadora e potencialmente arriscada, a Ordem Executiva do Presidente Joe Biden sobre o Desenvolvimento e Uso Seguro, Confiável e Confiável da Inteligência Artificial se tornou um novo marco na estratégia de IA dos Estados Unidos.
O que é a Ordem Executiva da IA: Um Vislumbre
O decreto do presidente Biden, emitido em 30 de outubro, marca vários anos de esforços da Casa Branca para fornecer proteções à IA e garantir sua adoção e desenvolvimento seguros. Ainda assim, Biden deixou claro que este é o primeiro passo no desenvolvimento, implementação e regulamentação da IA nos EUA, visando proteger os consumidores, reduzir os riscos da IA e acompanhar o ritmo atual de inovação.
Aqui estão alguns aspectos notáveis da ordem executiva da IA:
Protegendo os direitos de privacidade e as liberdades civis
Um componente significativo da ordem executiva é o proteção dos direitos de privacidade e liberdades civis dos cidadãos americanos. O EO visa mitigar preocupações e riscos de privacidade, garantindo que a coleta e o processamento de dados sejam seguros, protegidos e apenas para fins legais.
A EO foi criada para proteger os cidadãos americanos, incentivando a aplicação contínua das leis de proteção ao consumidor e fornecendo segurança contra preconceito, discriminação, atividades fraudulentas e outros danos potenciais decorrentes do uso, interação e compra de produtos de IA.
O Procurador-Geral também enfatizou a importância de implementar políticas de IA alinhadas com a equidade e os direitos civis. O Procurador-Geral trabalhará com agências e departamentos federais para abordar potenciais violações de direitos civis e discriminação na IA.
Padrões de Governança e Proteção de IA
A Seção 4.1(a) do EO estabelece que o Instituto Nacional de Padrões e Tecnologia (NIST) e o Secretário de Comércio definirá o padrão da indústria para sistemas de IA seguros e protegidos e permitirá que os desenvolvedores de IA testem esses sistemas para encontrar vulnerabilidades.
A ordem executiva insta diversas agências e departamentos federais, da educação à saúde e à segurança nacional, a aderirem aos padrões e regulamentos técnicos globais para o uso e a supervisão adequados das tecnologias de IA. A ordem inclui orientações adicionais sobre o uso responsável da IA para proteger o público americano.
Privacidade e segurança de dados
De acordo com a Seção 9(b), o Secretário de Comércio deve desenvolver diretrizes para que as agências avaliem a eficácia das proteções de "garantia diferencial de privacidade". Garantias diferenciais de privacidade significam proteções que reduzem o uso, o acesso e o compartilhamento incorretos de informações pessoais. Isso exigirá que os responsáveis pela privacidade e segurança de dados em uma organização considerem a revisão das diretrizes do Secretário de Comércio. As diretrizes específicas serão disponibilizadas em breve e serão finalizadas dentro de um ano após a EO.
A Lei de Proteção à Defesa
Devido à sua natureza específica, a ordem invoca a Lei de Proteção à Defesa, que exige que as organizações notifiquem o governo sobre qualquer modelo de IA que possa ameaçar gravemente a saúde pública, a segurança ou a segurança nacional. As organizações devem fornecer avaliações de risco ao governo para garantir que os modelos de IA atendam aos limites e padrões técnicos para atingir a conformidade.
Departamento de Energia e Segurança Interna avaliará a variedade de riscos que os modelos de IA podem representar, incluindo ameaças específicas como terrorismo e a fabricação de armas de destruição em massa (nucleares e biológicas). O DHS também precisará estabelecer um Conselho de Segurança e Proteção de IA para aconselhar sobre o uso responsável da IA em infraestruturas críticas.
Deep Fakes
Outra área central de preocupação para a IA é a proliferação da capacidade da IA de produzir deepfakes, como textos, imagens, sons e vídeos difíceis de distinguir de conteúdo criado por humanos. O motivo de preocupação só aumentou nos últimos anos, à medida que as "deep fakes" passaram a ser vistas como tendo o potencial de influenciar eleições e fraudar consumidores.
A Seção 4.5(c) do decreto executivo insta o Departamento de Comércio a reduzir os perigos das "deep fakes" (fakeações profundas), desenvolvendo e fornecendo as melhores práticas para a detecção de conteúdo gerado por IA. O decreto recomenda fortemente a aplicação de marcas d'água em conteúdo gerado por IA, como fotos e vídeos.
Apoio à Força de Trabalho
A Seção 6(b) da Lei Orgânica do Trabalho concentra-se principalmente em apoiar o trabalho nos Estados Unidos e garantir que a IA melhore a vida dos trabalhadores e não infrinja seus direitos ou reduza a satisfação geral no trabalho. O Secretário do Trabalho fornecerá aos empregadores diretrizes para mitigar os efeitos nocivos da IA sobre os funcionários.
Mercado Justo e Crescimento
A Ordem Executiva (EO) concentra-se em mandatos de segurança e proteção, com ênfase também no futuro, na inovação e no crescimento tecnológico. A ordem executiva visa reforçar a posição dos Estados Unidos em IA no cenário global, fomentando a inovação e a colaboração. Os EUA manterão sua vantagem competitiva com disposições para facilitar o desenvolvimento da IA, incluindo políticas que atraiam talentos estrangeiros.
O EO pode precisar de refinamento
Parece haver um otimismo cauteloso depois que muitos legisladores, organizações de direitos civis, grupos industriais e outros se aprofundaram na ordem executiva de 111 páginas. Há um consenso de que a ordem tem limitações: é um passo positivo, mas é apenas o começo.
Aqui estão algumas áreas que precisam de melhorias:
Justiça e preconceito da IA
Há um debate em andamento sobre a imparcialidade e a parcialidade da IA. Muitas organizações de direitos civis consideram que a ordem não aborda suficientemente os problemas reais resultantes de modelos de IA – especialmente no que diz respeito às penalidades quando os sistemas de IA impactam ou prejudicam grupos vulneráveis e marginalizados.
Treinando IA para limitar danos
Muitos concordam com os valores do decreto executivo em relação à privacidade, segurança, confiança e proteção. No entanto, é preciso haver mais atenção à forma como os modelos de IA são treinados e desenvolvidos, o que deve minimizar danos futuros antes que qualquer IA seja distribuída. Muitos pedem ao Congresso que aprove leis que integrem proteções, priorizando a justiça em vez de abordar os potenciais danos após o desenvolvimento. É uma oportunidade para o Congresso se mobilizar e criar padrões sólidos para viés, risco e proteção ao consumidor.
Inovação
Por outro lado, muitos líderes do setor temem que a Lei Orgânica de Inteligência (EO) possa sufocar a inovação em muitos setores em crescimento. Os requisitos de relatórios para grandes modelos de IA estão no centro das questões, pois muitos consideram que se trata de um policiamento excessivo dos sistemas abertos de IA, o que limitará a entrada de empresas de tecnologia no mercado. Isso destaca a expansão significativa do poder do governo federal sobre a inovação e o futuro do desenvolvimento da IA.
Escopo limitado
A ordem executiva apresenta algumas limitações na preservação da privacidade dos dados dos consumidores, principalmente devido à necessidade de uma lei federal de privacidade de dados. Além disso, com o foco em aprimorar a administração governamental para a governança da IA, a Ordem Executiva não se aplica necessariamente ao setor privado.
Como o BigID pode ajudar organizações a cumprir com regulamentações de IA novas e emergentes
A Ordem Executiva da IA é um passo significativo para aproveitar o potencial da IA e, ao mesmo tempo, abordar seus desafios específicos. Ela reflete o compromisso do governo dos EUA em impulsionar a inovação, o crescimento econômico e a segurança nacional, garantindo, ao mesmo tempo, o desenvolvimento e a implantação de IA responsáveis e éticos.
O futuro da IA na América, moldado por esta ordem executiva, é muito promissor para a sociedade. Aqui na BigID, entendemos que a IA visa impulsionar a eficiência, aumentar a inovação e permitir a automação, mas isso começa com adoção responsável, padrões éticos e adequados Governança de IA.
IA generativa e LLMs trouxeram novos riscos relacionados a grandes volumes de dados não estruturados, levando a vazamentos de dados, violações e não conformidade. Organizações que buscam inovar e acelerar a adoção da IA precisam saber se os dados treinados pela IA são seguros para uso e estão alinhados às políticas e regulamentações da empresa.
O BigID pode encontrar, catalogar e governar dados não estruturados para LLM e IA conversacional, que é a base para a adoção segura e responsável da IA. Com o BigID, as organizações podem gerenciar, proteger e governar melhor a IA com protocolos de segurança que reduzem os riscos. permitindo confiança zero, mitigar a ameaça do risco internoe protegendo dados não estruturados em todo o cenário de dados.
Agende uma demonstração com nossos especialistas para ver como o BigID pode ajudar sua organização a governar a IA e reduzir riscos.