À medida que a poeira assenta sobre o Presidente Biden Ordem Executiva sobre Inteligência Artificial (IA) Com relação ao desenvolvimento e uso seguros, protegidos e confiáveis da Inteligência Artificial, muitas empresas questionam se isso se aplica apenas a agências federais ou se também tem implicações reais para elas. E, em caso afirmativo, o que podem esperar nos próximos meses e como isso afeta sua adoção atual e planejada de IA?
Entendendo a Ordem Executiva sobre IA
A recente Ordem Executiva sobre IA representa um passo significativo rumo à implementação ética da IA. Esta diretiva visa estabelecer diretrizes e padrões para o desenvolvimento, implantação e governança de tecnologias de IA. Complementando a Ordem Executiva sobre IA, a Memorando de IA do Escritório de Administração e Orçamento (OMB) O Memorando sobre IA fornece às agências federais orientações detalhadas sobre a implementação de IA. O Memorando, ainda aberto a comentários públicos, deve ser lido em conjunto com a Ordem Executiva. O Memorando estabelece diretrizes rigorosas para as agências federais na adoção de tecnologias de IA.
Essas outras diretrizes do Memorando de IA incluem:
- Governança da IA: Exigir a designação de Diretores de IA (Chief AI Officers), Conselhos de Governança de IA e relatórios mais abrangentes sobre riscos e medidas de mitigação para o uso de tecnologias de IA.
- Promovendo a inovação responsável em IA: Promover o investimento no uso de IA pelas agências, desde a melhoria da infraestrutura de IA até o desenvolvimento da força de trabalho.
- Gerenciando os riscos decorrentes do uso da IA: Exigir a implementação de salvaguardas de IA para proteger contra preconceito e discriminação, definir usos de IA que presumivelmente impactam direitos e segurança e fornecer recomendações para o gerenciamento de riscos na aquisição federal de IA.

Implicações para as empresas
As empresas poderão ser afetadas de diversas maneiras, incluindo:
- Empresas de tecnologia desenvolvem tecnologia de IA de "dupla utilização". Será necessário notificar o governo federal ao treinar esses modelos e compartilhar os resultados de todos os testes de segurança. A autoridade presidencial aqui deriva da Lei de Produção de Defesa, visto que "uso duplo" se refere a tecnologias que têm aplicações tanto civis quanto militares.
- Empresas contratadas pelo governo federal que desenvolvem ou utilizam tecnologias de IA Poderá ser necessário cumprir novas normas e regulamentos estabelecidos pela Ordem Executiva. Isso pode incluir a adesão a diretrizes para o uso ético da IA, privacidade de dados, segurança cibernética e mitigação de vieses. Os contratados poderão ser obrigados a realizar avaliações de impacto de seus sistemas de IA, especialmente no que diz respeito aos impactos sobre a segurança e os direitos.
- O Instituto Nacional de Padrões e Tecnologia (NIST) Ao NIST foram atribuídas funções e responsabilidades específicas relacionadas ao desenvolvimento e implementação de padrões para tecnologias de IA. Além de desenvolver padrões, o NIST também pode fornecer orientações e melhores práticas para segurança e proteção de IA a diversas partes interessadas, incluindo agências federais, empresas do setor privado e instituições acadêmicas.
- Técnicas de preservação da privacidade São destacadas no apelo do Presidente ao Congresso por legislação que abranja todos os americanos, com foco particular na proteção das informações pessoais usadas para treinar sistemas de IA.
O que as empresas devem fazer?
Embora proteções abrangentes de privacidade em nível federal pareçam improváveis em um futuro próximo, a Ordem cria uma estrutura que começa a afetar de forma prescritiva empresas que desenvolvem certas tecnologias de IA ou prestam serviços ao governo federal. Os padrões do NIST têm um histórico sólido de adoção pelo setor privado e provavelmente o impactarão de forma mais ampla. E fica claro, tanto pela Ordem quanto pelo Memorando do OMB, que a proteção dos americanos contra preconceito e o potencial uso indevido de informações pessoais são temas cruciais.
Ao adotar tecnologias de IA, as empresas devem:
- Entenda o quê informações sensíveis e pessoais está sendo usado para treinar tecnologias de IA.
- Sempre que possível, utilize dados sintéticos ou anonimizados em vez de informações pessoais.
- Utilize uma análise mais rigorosa ao usar categorias "sensíveis" de informações pessoais que possam sugerir viés, como origem racial ou étnica, crenças religiosas ou filosóficas, filiação sindical, saúde e vida sexual ou orientação sexual para treinar modelos de IA.
- Forneça métodos claros para permitir que os usuários optem por não ter seus dados usados em modelos de IA e estabeleça mecanismos para fazer cumprir as regras de consentimento em relação às informações pessoais utilizadas.
Como o BigID pode ajudar
Inteligência Artificial e Grandes Modelos de Linguagem (LLMs) como o ChatGPT em particular, dependem muito de dados não estruturados Para fins de treinamento. O BigID tem a capacidade de identificar informações pessoais e sensíveis em diversos lugares. fontes de dados estruturados e não estruturadosA tecnologia de correlação da BigID não apenas encontra informações pessoais, mas também os indivíduos que essas informações descrevem. Com a BigID, as organizações podem:
- Descubra informações pessoais e sensíveis em conjuntos de treinamento de IA.
- Identificar e etiquetar categorias específicas de informações, incluindo Informações Pessoais Sensíveis (IPS).
- Permitir que os indivíduos optem por não participar e gerenciar o consentimento por meio de um portal de autoatendimento.
- Compreenda os indivíduos específicos cujos dados estão sendo usados para o treinamento de IA.
Agende uma demonstração com nossos especialistas. Descubra como a BigID pode ajudar sua organização a governar a IA e reduzir riscos.
