À medida que a poeira assenta no cargo de Presidente Biden Ordem Executiva de Inteligência Artificial (IA) Sobre o desenvolvimento e uso seguro, protegido e confiável da Inteligência Artificial, muitas empresas questionam se ela se aplica apenas a agências federais ou se tem implicações reais para elas também. Em caso afirmativo, o que podem esperar nos próximos meses e como isso afeta a adoção atual e planejada da IA?
Compreendendo a Ordem Executiva da IA
A recente Ordem Executiva da IA marca um passo significativo em direção à implementação ética da IA. Esta diretiva visa estabelecer diretrizes e padrões para o desenvolvimento, a implantação e a governança de tecnologias de IA. Complementando a Ordem Executiva da IA, a Memorando de IA do Escritório de Gestão e Orçamento (OMB) fornece às agências federais orientações detalhadas sobre a implantação de IA. O Memorando sobre IA, ainda aberto para consulta pública, deve ser lido em conjunto com a Ordem Executiva. O Memorando estabelece mandatos rigorosos para as Agências Federais na adoção de tecnologias de IA.
Esses mandatos adicionais no Memorando da IA incluem:
- Governança de IA: Exigindo a designação de Diretores de IA, Conselhos de Governança de IA e relatórios expandidos sobre riscos e mitigações para o uso de tecnologias de IA.
- Promovendo a inovação responsável em IA: Promover o investimento no uso de IA pelas agências, desde melhorias na infraestrutura de IA até o desenvolvimento da força de trabalho.
- Gerenciando riscos do uso de IA: Exigir a implementação de salvaguardas de IA para proteger contra preconceitos e discriminação, definir usos de IA que presumivelmente impactam direitos e segurança e fornecer recomendações para gerenciar riscos na aquisição federal de IA.

Implicações para as empresas
As empresas podem ser afetadas de diversas maneiras, incluindo:
- Empresas de tecnologia desenvolvendo tecnologia de IA de “uso duplo” precisará notificar o governo federal ao treinar esses modelos e compartilhar os resultados de todos os testes de segurança. A autoridade presidencial aqui deriva da Lei de Produção de Defesa, já que "uso duplo" se refere a tecnologias com aplicações civis e militares.
- Contratados federais desenvolvendo ou usando tecnologias de IA podem precisar cumprir novos padrões e regulamentações estabelecidos pela Ordem Executiva. Isso pode incluir a adesão a diretrizes para uso ético de IA, privacidade de dados, segurança cibernética e mitigação de vieses. Os contratados podem ser obrigados a realizar avaliações de impacto de seus sistemas de IA, especialmente no que diz respeito aos impactos em termos de segurança e direitos.
- Instituto Nacional de Padrões e Tecnologia (NIST) recebeu funções e responsabilidades específicas relacionadas ao desenvolvimento e implementação de padrões para tecnologias de IA. Além de desenvolver padrões, o NIST também pode fornecer orientação e melhores práticas para segurança e proteção de IA a diversas partes interessadas, incluindo agências federais, empresas do setor privado e instituições acadêmicas.
- Técnicas de preservação de privacidade são destacados no apelo do Presidente ao Congresso por uma legislação que se estenda a todos os americanos, com foco particular na proteção de informações pessoais usadas para treinar sistemas de IA.
O que as empresas devem fazer?
Embora proteções abrangentes de privacidade em nível federal pareçam improváveis em um futuro próximo, a Ordem cria uma estrutura que começa a afetar prescritivamente empresas que desenvolvem determinadas tecnologias de IA ou prestam serviços ao governo federal. Os padrões do NIST têm um forte histórico de adoção pelo setor privado e provavelmente impactarão o setor privado de forma mais ampla. E fica claro na Ordem e no Memorando da OMB que proteger os americanos contra preconceitos e o potencial uso indevido de informações pessoais são temas cruciais.
Ao adotar tecnologias de IA, as empresas devem:
- Entenda o que informações pessoais e sensíveis está sendo usado para treinar tecnologias de IA.
- Sempre que possível, use dados sintéticos ou não identificados em vez de informações pessoais.
- Use maior escrutínio ao usar categorias “sensíveis” de informações pessoais que possam inferir preconceito, como origem racial ou étnica, crenças religiosas ou filosóficas, filiação sindical, saúde e vida sexual ou orientação sexual para treinar modelos de IA.
- Forneça métodos claros para permitir que os usuários optem por não ter seus dados usados em modelos de IA e estabeleça mecanismos para impor regras de consentimento contra o uso de informações pessoais.
Como o BigID pode ajudar
IA e Grandes Modelos de Linguagem (LLMs) como o ChatGPT em particular, dependem fortemente de dados não estruturados para fins de treinamento. O BigID tem a capacidade de identificar informações pessoais e sensíveis entre fontes de dados estruturados e não estruturados. Tecnologia de correlação da BigID não apenas encontra informações pessoais, mas também os indivíduos que elas descrevem. Com o BigID, as organizações podem:
- Descubra informações pessoais e confidenciais em conjuntos de treinamento de IA.
- Identifique e marque categorias específicas de informações, incluindo Informações Pessoais Sensíveis (SPI).
- Permita que indivíduos optem por não participar e gerenciem o consentimento por meio de um portal de autoatendimento.
- Entenda os indivíduos específicos cujos dados estão sendo usados para treinamento de IA.
Agende uma demonstração com nossos especialistas para ver como o BigID pode ajudar sua organização a governar a IA e reduzir riscos.