O uso generalizado de IA (Inteligência Artificial), desde modelos de aprendizado supervisionado até a identificação de padrões em dados e o ChatGPT, infiltrou-se no mundo corporativo — o frenesi resultante culminou em um apelo direto por Tecnologias de IA serão regulamentadasReconhecendo a tecnologia cada vez mais assertiva, transformadora e potencialmente arriscada, a Ordem Executiva do Presidente Joe Biden sobre o Desenvolvimento e Uso Seguro, Protegido e Confiável da Inteligência Artificial tornou-se um novo marco na estratégia de IA dos Estados Unidos.
O que é a Ordem Executiva sobre IA: Uma Visão Geral
A ordem executiva do presidente Biden, emitida em 30 de outubro, marca anos de esforços da Casa Branca para estabelecer diretrizes para a IA, garantindo sua adoção e desenvolvimento seguros. Biden deixou claro que este é apenas o primeiro passo no desenvolvimento, implementação e regulamentação da IA nos EUA, buscando proteger os consumidores, reduzir os riscos associados à IA e acompanhar o ritmo atual da inovação.
Seguem alguns aspectos notáveis da ordem executiva sobre IA:
Proteção dos direitos à privacidade e das liberdades civis
Um componente significativo da ordem executiva é o proteção dos direitos de privacidade e liberdades civis dos cidadãos americanosA Ordem Executiva visa mitigar preocupações e riscos relacionados à privacidade, garantindo que a coleta e o processamento de dados sejam seguros, protegidos e utilizados apenas para fins lícitos.
A Ordem Executiva visa proteger os cidadãos americanos, incentivando a aplicação contínua das leis de proteção ao consumidor e oferecendo segurança contra preconceito, discriminação, atividades fraudulentas e outros danos potenciais decorrentes do uso, da interação e da compra de produtos de IA.
A Ordem Executiva também enfatizou a importância da implementação de políticas de IA que estejam alinhadas com o progresso da equidade e dos direitos civis. O Procurador-Geral trabalhará com agências e departamentos federais para lidar com possíveis violações de direitos civis e discriminação na área de IA.

Padrões de Governança e Proteção de IA
A Seção 4.1(a) da EO estabelece que o Instituto Nacional de Padrões e Tecnologia (NIST) O Secretário de Comércio definirá o padrão da indústria para sistemas de IA seguros e protegidos, permitindo que os desenvolvedores de IA testem esses sistemas para encontrar vulnerabilidades.
A ordem executiva exige que várias agências e departamentos federais, da educação à saúde e à segurança nacional, sigam os padrões e regulamentos técnicos globais para o uso e a supervisão adequados das tecnologias de IA. A ordem inclui orientações adicionais sobre o uso responsável da IA para proteger o público americano.
Privacidade e segurança de dados
De acordo com a Seção 9(b), o Secretário de Comércio deve desenvolver diretrizes para que as agências avaliem a eficácia das proteções de “garantia de privacidade diferencial”. Garantias de privacidade diferencial referem-se a proteções que reduzem o uso, o acesso e o compartilhamento incorretos de informações pessoais. Isso exigirá que os responsáveis pela privacidade e segurança de dados dentro de uma organização considerem a revisão das diretrizes do Secretário de Comércio. As orientações específicas serão divulgadas em breve e finalizadas dentro de um ano após a entrada em vigor da Ordem Executiva.
Lei de Proteção da Defesa
Devido à sua natureza específica, a ordem invoca a Lei de Proteção da Defesa, que exige que as organizações notifiquem o governo sobre qualquer modelo de IA que possa representar uma grave ameaça à saúde pública, à segurança ou à segurança nacional. As organizações devem fornecer avaliações de risco ao governo para garantir que os modelos de IA atendam aos limites e padrões técnicos necessários para a conformidade.
O Departamento de Energia e Segurança Interna Será avaliada a variedade de riscos que os modelos de IA podem representar, incluindo ameaças específicas como terrorismo e a produção de armas de destruição em massa (nucleares e biológicas). O Departamento de Segurança Interna (DHS) também precisará estabelecer um Conselho de Segurança e Proteção de IA para assessorar sobre o uso responsável da IA em infraestruturas críticas.
Deep Fakes
Outra área central de preocupação para a IA é a proliferação da capacidade da IA de produzir deepfakescomo textos, imagens, sons e vídeos que são difíceis de distinguir de conteúdo criado por humanos. A preocupação só aumentou nos últimos anos, à medida que os "deep fakes" passaram a ser vistos como capazes de influenciar eleições e fraudar consumidores.
A Seção 4.5(c) da ordem executiva solicita ao Departamento de Comércio que reduza os perigos das "falsificações profundas" (deep fakes) desenvolvendo e fornecendo as melhores práticas para detectar conteúdo gerado por IA. A ordem executiva recomenda fortemente a aplicação de marcas d'água em conteúdo gerado por IA, como fotos e vídeos.
Apoio à força de trabalho
A Seção 6(b) da Ordem Executiva concentra-se principalmente em apoiar os trabalhadores americanos e garantir que a IA melhore a vida dos trabalhadores e não infrinja seus direitos nem reduza a satisfação geral no trabalho. O Secretário do Trabalho fornecerá aos empregadores diretrizes para mitigar os efeitos nocivos da IA sobre os funcionários.
Mercado justo e crescimento
A Ordem Executiva concentra-se em mandatos de segurança e proteção, com ênfase também no futuro, na inovação e no crescimento tecnológico. O objetivo da ordem executiva é fortalecer a posição dos Estados Unidos em inteligência artificial no cenário global, fomentando a inovação e a colaboração. Os EUA manterão sua vantagem competitiva com medidas que facilitem o desenvolvimento da IA, incluindo políticas que atraiam talentos estrangeiros.
A Ordem Executiva Pode Precisar de Ajustes
Há um otimismo cauteloso após muitos legisladores, organizações de direitos civis, grupos empresariais e outros analisarem a fundo a ordem executiva de 111 páginas. Existe um consenso de que a ordem tem limitações: é um passo positivo, mas é apenas o começo.
Aqui estão algumas áreas que precisam de melhorias:
Imparcialidade e Viés da IA
Há um debate em curso sobre a imparcialidade e o viés da IA. Muitas organizações de direitos civis consideram que a ordem judicial não é suficiente para abordar os problemas reais decorrentes dos modelos de IA – especialmente no que diz respeito às penalidades quando os sistemas de IA impactam ou prejudicam grupos vulneráveis e marginalizados.
Treinando IA para Limitar Danos
Muitos concordam com os valores da ordem executiva referentes à privacidade, segurança, confiança e proteção. No entanto, é preciso haver mais preocupação com a forma como os modelos de IA são treinados e desenvolvidos, o que deve minimizar danos futuros antes que qualquer IA seja distribuída. Muitos pedem ao Congresso que aprove leis que integrem proteções, priorizando a equidade em vez de abordar os potenciais danos após o desenvolvimento. É uma oportunidade para o Congresso se empenhar e criar padrões sólidos para viés, risco e proteção do consumidor.
Inovação
Por outro lado, muitos líderes do setor temem que a Ordem Executiva possa sufocar a inovação em diversos setores em crescimento. Os requisitos de relatórios para grandes modelos de IA são o cerne das questões, pois muitos consideram que se trata de uma fiscalização excessiva dos sistemas abertos de IA, o que limitará a entrada de empresas de tecnologia no mercado. Isso evidencia a significativa expansão do poder do governo federal sobre a inovação e o futuro do desenvolvimento da IA.
Escopo limitado
A ordem executiva apresenta algumas limitações na preservação da privacidade dos dados dos consumidores, principalmente devido à necessidade de uma lei federal de privacidade de dados. Além disso, com o foco na melhoria da administração governamental para a governança da IA, a ordem executiva não se aplica necessariamente ao setor privado.
Como a BigID pode ajudar as organizações a cumprir as novas e emergentes regulamentações de IA
A Ordem Executiva sobre IA representa um passo significativo para aproveitar o potencial da IA, ao mesmo tempo que aborda seus desafios específicos. Ela reflete o compromisso do governo dos EUA em impulsionar a inovação, o crescimento econômico e a segurança nacional, garantindo, simultaneamente, o desenvolvimento e a implementação responsáveis e éticos da IA.
O futuro da IA na América, moldado por esta ordem executiva, reserva grandes promessas para a sociedade. Aqui na BigIDEntendemos que a IA visa impulsionar a eficiência, aumentar a inovação e viabilizar a automação, mas isso começa com adoção responsável, padrões éticos e adequados Governança de IA.
IA generativa e LLMs trouxeram novos riscos relacionados a grandes volumes de dados não estruturadosIsso leva a vazamentos de dados, violações de segurança e não conformidade. Organizações que buscam inovar e acelerar a adoção de IA precisam saber se os dados utilizados no treinamento por IA são seguros e estão em conformidade com as políticas e regulamentações da empresa.
A BigID consegue encontrar, catalogar e governar dados não estruturados para aprendizado de máquina e IA conversacional, que é a base para a adoção segura e responsável da IA. Com a BigID, as organizações podem gerenciar, proteger e governar melhor a IA com protocolos de segurança que reduzem os riscos. permitindo confiança zero, mitigar a ameaça do risco interno, e proteger dados não estruturados em todo o panorama de dados.
Agende uma demonstração com nossos especialistas. Descubra como a BigID pode ajudar sua organização a governar a IA e reduzir riscos.
