Pular para o conteúdo

A Lei de Inteligência Artificial da UE: Tudo o que você precisa saber em 2024

O Parlamento Europeu aprovou a primeira Lei de Inteligência Artificial (AIA) do mundo, uma estrutura abrangente para combater os riscos representados pela inteligência artificial (IA). Após dois anos e meio de debates e negociações políticas, essa decisão tornou a Europa a referência global em regulamentação da IA. Então, o que isso significa para nós e para a comunidade de IA em geral em 2024?

Veja o BigID em ação.

O que significa a Lei de IA da UE?

A UE reconheceu a necessidade fundamental de garantir o desenvolvimento seguro e protegido de sistemas de IA. A Lei de IA da UE foi introduzida para mitigar danos em áreas onde o uso de IA representa riscos significativos para direitos fundamentais, como assistência médica, educação, serviços públicos, e vigilância de fronteirasEsta lei estabelece regulamentos para Modelos de IA de propósito geral (GPAI) Enfatizando a transparência, a rastreabilidade, a não discriminação e o respeito ao meio ambiente.

Além disso, a legislação exige que as empresas de tecnologia que desenvolvem tecnologias de IA produzam um resumo dos dados utilizados para modelos de treinamento, fornecer relatórios sobre os dados que estão sendo utilizados no treinamento e implementar avaliações de risco regulares para Mitigar riscos e cumprir os requisitos da Lei de IA da UE. Essas camadas adicionais garantem a supervisão humana em vez de processos automatizados para evitar preconceito, criação de perfis ou resultados perigosos e prejudiciais.

Além disso, o Parlamento Europeu propôs uma definição de IA tecnologicamente neutra para ser aplicada a futuros sistemas de IA.

Por que a Lei de Inteligência Artificial da União Europeia (UE) é importante

Como este é o primeiro país de grande porte a aprovar legislação sobre IA, poderemos observar o que eventualmente se tornará padrão regulatório mundial. Além disso, isso pode ter um efeito cascata, com organizações específicas começando a introduzir regulamentações específicas para cada setor nos próximos anos. Curiosamente, o projeto de lei foi apresentado antes mesmo de... ChatGPT's introdução em novembro de 2022 e a explosão de ferramentas de IA generativa em 2023.

A Lei de Inteligência Artificial da UE não entrará em vigor até 2025., permitindo que as empresas se ajustem e se preparem. Até lá, as empresas serão incentivadas a seguir as regras em 2024 voluntariamente, mas não haverá penalidades caso não o façam. No entanto, quando a lei for implementada, as empresas que violarem as regras da Lei de IA poderão enfrentar multas de até 35 milhões de euros ou entre 1,5% a 7% das suas vendas globais no exercício financeiro anterior (ver abaixo para mais detalhes).

Baixe o guia.

O que restringe a Lei de IA da UE?

A lei sobre inteligência artificial do Conselho da União Europeia impõe proibições e restrições a diversos usos da IA. A seguir, algumas práticas proibidas pela nova legislação:

  • Extração indiscriminada e em massa não direcionada de dados biométricos É proibido o uso de imagens faciais provenientes de redes sociais ou gravações para criar ou expandir bancos de dados de reconhecimento facial. Isso também inclui sistemas de reconhecimento facial e de emoções em locais públicos, como locais de trabalho, patrulha de fronteira, forças policiais e instituições de ensino. No entanto, existem algumas exceções por motivos de segurança, como o uso de IA para detectar quando um motorista está adormecendo ao volante. O uso da tecnologia de reconhecimento facial pelas forças policiais é restrito a situações como a identificação de vítimas de terrorismo, sequestro e tráfico de pessoas.
  • É proibido o uso de sistemas de pontuação social por autoridades públicas para avaliar a conformidade dos cidadãos. Isso ocorre porque pode levar a resultados discriminatórios, injustiça e exclusão de grupos específicos. Sistemas de IA que manipulam o comportamento das pessoas para influenciar ou orientar suas decisões são proibidos. Por exemplo, a manipulação direcionada de conteúdo em mídias sociais e outras plataformas para atingir objetivos políticos ou comerciais é proibida. Qualquer operador de sistemas que criem mídia manipulada deve informar os usuários.
  • Além disso, qualquer sistema de IA que avalie pessoas físicas ou grupos quanto ao risco e crie perfis de delinquência é proibido. Isso proíbe ferramentas que preveem a ocorrência ou recorrência de uma contravenção ou crime com base na elaboração de perfis de pessoas usando características e dados como localização ou histórico criminal.
  • Os fornecedores de modelos da Fundação também devem enviar resumos detalhados dos dados de treinamento usados na construção de seus modelos de IA..

Essas proibições e muitas outras são categorizadas em diferentes níveis de risco na Lei de IA da UE, que variam de acordo com a gravidade. Vejamos esses níveis de risco:

Regras para diferentes níveis de risco na Lei de IA

A Lei de IA da UE adota uma abordagem de regulamentação baseada em risco, categorizando as aplicações de IA em quatro níveis. Isso significa que quanto maior o risco, mais rigorosa a governança.

  • Risco inaceitável: Um sistema de IA classificado como de "risco inaceitável" representa uma ameaça para nós, humanos. A manipulação cognitiva do comportamento humano, a avaliação social e alguns usos de sistemas biométricos se enquadram nessa categoria. A única exceção é para uso policial, mas mesmo esse uso é limitado e específico.
  • Alto risco: Sistemas de IA que afetam a segurança humana e os nossos direitos fundamentais serão considerados de alto risco. Isso inclui sistemas de avaliação de crédito e processos automatizados de sinistros de seguros. Todos os sistemas de alto risco, como o modelo avançado GPT-4, serão rigorosamente submetidos a avaliações de conformidade antes de serem comercializados e serão monitorados continuamente ao longo de todo o seu ciclo de vida. As empresas também deverão registrar o produto em um banco de dados da UE.
  • Risco limitado: Ferramentas de IA como chatbots, deepfakes e recursos como personalização são consideradas de "risco limitado". As empresas que fornecem esses serviços devem garantir transparência com seus clientes sobre a finalidade de uso de seus modelos de IA e o tipo de dados envolvidos.
  • Risco mínimo: Para ferramentas e processos que se enquadram na categoria de “risco mínimo”, a proposta de Lei de IA da UE incentiva as empresas a terem um código de conduta que garanta o uso ético da IA.

Garantir a conformidade com a IA

Proteções de modelos de IA de propósito geral

Após extensa deliberação sobre a regulamentação de “modelos fundamentais” na Lei de IA da UE, chegou-se a um consenso na forma de uma abordagem escalonada. O consenso centra-se na terminologia relativa a modelos/sistemas de IA de propósito geral (“IAPG”) e define as obrigações em dois níveis:

  • Nível 1: diversas obrigações uniformes para todos os modelos GPAI.
  • Nível 2: um conjunto adicional de obrigações para modelos GPAI com riscos sistêmicos.

Obrigações de Nível 1: Como parte do Nível 1, todos os fornecedores de modelos GPAI devem cumprir os requisitos de transparência, que exigem o desenvolvimento de documentação técnica com resumos detalhados sobre o conteúdo usado para treinamento. Além disso, essas organizações devem cumprir a lei de direitos autorais da UE para garantir o uso ético do conteúdo.

Obrigações de Nível 2: Os modelos GPAI que abrangem risco sistêmico serão considerados de segundo nível. Os modelos GPAI de segundo nível estarão sujeitos a obrigações mais rigorosas, incluindo a avaliação de avaliações de modelos de IA, a avaliação e mitigação de riscos, a utilização de medidas de segurança adequadas, a notificação de incidentes graves, a garantia de medidas de segurança apropriadas e a elaboração de relatórios sobre eficiência energética. Para que os modelos GPAI com alto nível de risco estejam em conformidade com a legislação da UE sobre IA em seu estado atual, recomenda-se que sigam os códigos de prática até que as normas da UE sejam formalizadas e publicadas.

Quadro de Execução e Penalidades

Segundo o Conselho Europeu, a lei da UE sobre IA será aplicada por meio das autoridades nacionais competentes de fiscalização de mercado de cada Estado-membro. Além disso, um gabinete da UE sobre IA, que será um novo órgão de decisão no âmbito da Comissão Europeia, definirá as normas e os mecanismos de aplicação das novas regras relativas aos modelos de IA de uso geral.

Haverá sanções financeiras para violações da Lei de IA da UE, mas diversos fatores, como o tipo de sistema de IA, o porte da empresa e a extensão da violação, determinarão as multas. As sanções variarão de:

  • 7,5 milhões de euros ou 1,51 TP3T da receita bruta de uma empresa (o que for maior), caso as informações fornecidas estejam incorretas.
  • 15 milhões de euros ou 31 TP3T da receita bruta de uma empresa (o que for maior) por violar as obrigações da legislação da UE em matéria de IA.
  • 35 milhões de euros ou 31 TP3T da receita bruta de uma empresa (o que for maior) por violações de aplicações de IA proibidas.

Além disso, com base nas negociações, empresas menores e startups podem se beneficiar, já que a Lei de IA da UE estabelecerá limites máximos para as multas, garantindo que sejam proporcionais a essas organizações.

Baixe o guia.

Lei da UE sobre IA: Prejudicando a inovação ou promovendo a segurança de dados?

Não podemos negar que a Lei de IA da UE é necessária para garantir a segurança dos dados. No entanto, existe uma linha tênue entre atingir esse objetivo e dificultar a inovação. O presidente francês, Emmanuel Macron, fez coro com essa opinião, argumentando que as regras históricas poderiam... Empresas de tecnologia europeias ficam atrás da concorrência Nos Estados Unidos, Reino Unido e China.

No entanto, de acordo com a minuta da política de IA da UE, certas salvaguardas intrínsecas visam proteger e manter os avanços inovadores em IA. A intenção é encontrar um equilíbrio entre a gestão de riscos e a promoção de inovações em IA de uso geral.

Nos próximos meses, esperamos que a UE esclareça as questões legais sobre como os governos podem usar IA na vigilância biométrica e para a segurança nacional. Os governos nacionais da UE, liderados pela França, já obtiveram algumas isenções para certos usos de IA em áreas militares ou de defesa.

Como ainda falta bastante tempo para a entrada em vigor da lei, podemos esperar que alguns detalhes sejam ajustados até lá. Portanto, 2024 promete ser um ano decisivo para a tomada de decisões.

Como a BigID ajuda a proteger o desenvolvimento de IA e a reduzir os riscos da IA

A Lei de IA da UE é um novo quadro legal para o desenvolvimento de IA. IA que o público pode confiar. Reflete o compromisso da UE em impulsionar a inovação, garantir o desenvolvimento da IA, a segurança nacional e os direitos fundamentais das pessoas e das empresas.

À medida que essas organizações alavancam Inteligência Artificial e Grandes Modelos de Linguagem (LLMs) Assim como o ChatGPT (Nível 2), esses modelos dependem muito de dados não estruturados Para fins de treinamento. BigID fornece uma solução completa para Governar e proteger os dados ao longo de todo o ciclo de vida do desenvolvimento de IA., com a capacidade de identificar informações pessoais e sensíveis em todo o sistema. dados estruturados e não estruturados fontes. Com o BigID, as organizações podem:

Agende uma demonstração com nossos especialistas. Descubra como a BigID pode ajudar sua organização a reduzir riscos e a cumprir os requisitos da Lei de IA da UE.

Conteúdo

Governança de dados para IA conversacional e LLMs

Baixar Resumo da Solução