El Parlamento Europeo ha aprobado la primera Ley de Inteligencia Artificial (IA) del mundo, un marco integral para combatir el riesgo que supone la inteligencia artificial (IA). Tras dos años y medio de debates políticos y negociaciones, esta decisión ha convertido a Europa en el referente mundial en regulación de la IA. ¿Qué implicaciones tiene esto para nosotros y para la comunidad de la IA en 2024?
¿Qué significa la Ley de Inteligencia Artificial de la UE?
La UE reconoció la necesidad fundamental de garantizar el desarrollo seguro de los sistemas de IA. La Ley de IA de la UE se introdujo para mitigar los daños en áreas donde el uso de la IA supone riesgos significativos para los derechos fundamentales, como... sanidad, educación, servicios públicosy vigilancia fronteriza. Esta Ley establece normas para modelos de IA de propósito general (GPAI) enfatizando la transparencia, trazabilidad, no discriminación y respeto al medio ambiente.
Además, la legislación exige que las empresas tecnológicas que desarrollan tecnologías de IA elaboren un resumen de los datos utilizados para modelos de entrenamiento, proporcionar informes sobre los datos que se están entrenando e implementar evaluaciones de riesgos periódicas para mitigar el riesgo y cumplir con los requisitos de la Ley de IA de la UE. Estas capas adicionales garantizan la supervisión humana en lugar de procesos automatizados para evitar sesgos, elaboración de perfiles o resultados peligrosos y dañinos.
Además, el Parlamento Europeo propuso una definición tecnológicamente neutral de IA que se aplicaría a los futuros sistemas de IA.
Por qué es importante la Ley de IA de la Unión Europea (UE)
Al ser esta la primera potencia mundial en aprobar una legislación sobre IA, podríamos presenciar lo que eventualmente se convertirá en estándares regulatorios mundiales. Además, podría tener un efecto dominó, ya que organizaciones específicas comenzarán a introducir regulaciones específicas para cada sector en los próximos años. Curiosamente, el proyecto de ley se presentó incluso antes. ChatGPT Introducción en noviembre de 2022 y la explosión de herramientas de IA generativa en 2023.
La Ley de IA de la UE no entrará en vigor hasta 2025, lo que permitirá a las empresas adaptarse y prepararse. Antes de esa fecha, se instará a las empresas a seguir las normas en 2024 de forma voluntaria, pero no habrá sanciones si no lo hacen. Sin embargo, cuando finalmente se implemente, las empresas que infrinjan las normas de la Ley de IA podrían enfrentarse a multas de hasta 35 millones de euros o entre 1.5% a 7% de sus ventas globales en el ejercicio anterior (ver más detalles a continuación).

¿Qué restringe la Ley de IA de la UE?
La ley de inteligencia artificial del Consejo de la Unión Europea prohíbe y restringe varios usos de la IA. A continuación, se enumeran algunas prácticas prohibidas según la nueva legislación:
- Raspado masivo indiscriminado y no dirigido de datos biométricos Se prohíbe el uso de imágenes faciales de redes sociales o grabaciones para crear o ampliar bases de datos de reconocimiento facial. Esto también incluye sistemas de reconocimiento facial y emocional en lugares públicos como lugares de trabajo, patrullas fronterizas, fuerzas del orden y entornos educativos. Sin embargo, existen ciertas excepciones de seguridad, como el uso de IA para detectar si un conductor se está quedando dormido. La tecnología de reconocimiento facial utilizada por las fuerzas del orden se limita a usos como la identificación de víctimas de terrorismo, secuestro y trata de personas.
- También queda prohibido que las autoridades públicas utilicen sistemas de puntuación social para evaluar el cumplimiento de las normas por parte de los ciudadanos. Esto se debe a que puede generar resultados discriminatorios, injusticia y exclusión de grupos específicos. Los sistemas de IA que manipulan el comportamiento de las personas para influir o guiar sus decisiones están prohibidos. Por ejemplo, la manipulación selectiva de contenido en redes sociales y otras plataformas con fines políticos o comerciales está prohibida. Cualquier operador de sistemas que cree contenido manipulado debe informar a los usuarios.
- Además, se prohíbe cualquier sistema de inteligencia artificial que evalúe a personas físicas o grupos en función del riesgo y elabore perfiles de delincuencia. Esto prohíbe las herramientas que predicen la ocurrencia o reincidencia de un delito menor o un delito basándose en el perfil de una persona utilizando rasgos y datos como la ubicación o el comportamiento delictivo pasado.
- Los proveedores de modelos de base también deben enviar resúmenes detallados de los datos de entrenamiento para construir sus modelos de IA..
Estas prohibiciones y muchas otras se clasifican en diferentes niveles de riesgo en la Ley de IA de la UE, según su gravedad. Analicemos estos niveles de riesgo:
Normas para los diferentes niveles de riesgo en la Ley de IA
La Ley de IA de la UE adopta un enfoque regulatorio basado en el riesgo, categorizando las aplicaciones de IA en cuatro niveles. Esto significa que a mayor riesgo, más estricta es la gobernanza.
- Riesgo inaceptable: Un sistema de IA categorizado como "riesgo inaceptable" representa una amenaza para los humanos. La manipulación cognitiva del comportamiento de las personas, la puntuación social y algunos usos de los sistemas biométricos se incluyen en esta categoría. La única excepción es la aplicación de la ley, pero incluso esto está limitado a usos específicos.
- Alto riesgo: Los sistemas de IA que afectan la seguridad de las personas y nuestros derechos fundamentales se considerarán de alto riesgo. Esto incluye los sistemas de calificación crediticia y las reclamaciones de seguros automatizadas. Todos los sistemas de alto riesgo, como el modelo avanzado GPT-4, se someterán a rigurosas evaluaciones de conformidad antes de su comercialización y se supervisarán continuamente durante todo su ciclo de vida. Las empresas también deberán registrar el producto en una base de datos de la UE.
- Riesgo limitado: Las herramientas de IA como chatbots, deepfakes y funciones como la personalización se consideran de "riesgo limitado". Las empresas que ofrecen estos servicios deben garantizar la transparencia con sus clientes sobre el uso que se da a sus modelos de IA y el tipo de datos involucrados.
- Riesgo mínimo: Para las herramientas y procesos que caen dentro de la categoría de “riesgo mínimo”, el proyecto de ley de IA de la UE alienta a las empresas a tener un código de conducta que garantice que la IA se utiliza de forma ética.
Protecciones del modelo de IA de propósito general
Tras una extensa deliberación sobre la regulación de los «modelos fundamentales» en la Ley de IA de la UE, se llegó a un acuerdo con un enfoque escalonado. Este acuerdo se centra en la terminología relativa a los modelos/sistemas de IA de propósito general (IAPG) y divide las obligaciones en dos niveles:
- Nivel 1: varias obligaciones uniformizadas para todos los modelos GPAI.
- Nivel 2: un conjunto adicional de obligaciones para los modelos GPAI con riesgos sistémicos.
Obligaciones de Nivel 1: Como parte del Nivel 1, todos los proveedores de modelos GPAI deben cumplir con los requisitos de transparencia, que exigen la elaboración de documentación técnica con resúmenes detallados del contenido utilizado para la capacitación. Además, estas organizaciones deben cumplir con la legislación de derechos de autor de la UE para garantizar el uso ético del contenido.
Obligaciones de Nivel 2: Los modelos GPAI que abarcan el riesgo sistémico se considerarán de segundo nivel. Los modelos GPA de segundo nivel estarán sujetos a obligaciones más estrictas, como la evaluación de las evaluaciones de los modelos de IA, la evaluación y mitigación de riesgos, el uso de medidas de seguridad adecuadas, la notificación de incidentes graves, la garantía de medidas de seguridad adecuadas y la presentación de informes sobre la eficiencia energética. Para que los modelos GPAI con un alto nivel de riesgo cumplan con la Ley de IA de la UE en su estado actual, se recomienda que se adhieran a los códigos de práctica hasta que se formalicen y publiquen las normas de la UE.
Marco para la aplicación y las sanciones
Según el Consejo Europeo, la Ley de IA de la UE se aplicará a través de las autoridades nacionales competentes de vigilancia del mercado de cada Estado miembro. Además, una oficina de IA de la UE, que será un nuevo órgano rector dentro de la Comisión Europea, establecerá las normas y los mecanismos de aplicación de las nuevas normas sobre los modelos GPAI.
Se impondrán sanciones económicas por infringir la Ley de IA de la UE, pero diversos factores, como el tipo de sistema de IA, el tamaño de la empresa y la magnitud de la infracción, determinarán las multas. Las sanciones oscilarán entre:
- 7,5 millones de euros o 1,51 TP3T de los ingresos brutos de una empresa (el que sea mayor), si la información proporcionada es incorrecta.
- 15 millones de euros o 3% de los ingresos brutos de una empresa (lo que sea mayor) por violar las obligaciones de la ley de inteligencia artificial de la UE.
- 35 millones de euros o 3% de los ingresos brutos de una empresa (lo que sea mayor) por violaciones de aplicaciones de IA prohibidas.
Además, gracias a las negociaciones, las empresas más pequeñas y las empresas emergentes podrían obtener un respiro, ya que la Ley de IA de la UE establecerá límites a las multas para garantizar que sean proporcionales a esas organizaciones.

Ley de IA de la UE: ¿Basta con innovación o fomenta la seguridad de los datos?
No podemos negar que la Ley de IA de la UE es necesaria para garantizar la seguridad de los datos. Sin embargo, existe una delgada línea entre lograr ese objetivo y obstaculizar la innovación. El presidente francés, Emmanuel Macron, se hizo eco de estas opiniones, argumentando que las normas históricas podrían... Las empresas tecnológicas europeas se quedan atrás de sus rivales en Estados Unidos, Reino Unido y China.
Sin embargo, según el borrador de la IA de la UE, ciertas salvaguardias integradas están diseñadas para proteger y mantener los avances innovadores de la IA. El objetivo es lograr un equilibrio entre la gestión de riesgos y el fomento de innovaciones de IA de propósito general.
En los próximos meses, esperamos que la UE aclare la legalidad sobre cómo los gobiernos pueden utilizar la IA en la vigilancia biométrica y para la seguridad nacional. Los gobiernos nacionales de la UE, encabezados por Francia, ya han obtenido ciertas exenciones para algunos usos de la IA en el ámbito militar o de defensa.
Dado que aún queda bastante tiempo para su aplicación, es posible que veamos algunos detalles afinados hasta entonces. Por lo tanto, 2024 se perfila como un año de decisiones importantes.
Cómo BigID ayuda a proteger el desarrollo de IA y a reducir los riesgos de IA
La Ley de IA de la UE es un nuevo marco jurídico para el desarrollo AI en la que el público puede confiar. Refleja el compromiso de la UE con el impulso a la innovación, la garantía del desarrollo de la IA, la seguridad nacional y los derechos fundamentales de las personas y las empresas.
A medida que estas organizaciones aprovechan IA y modelos de lenguaje extenso (LLM) Al igual que ChatGPT (Nivel 2), estos modelos dependen en gran medida de datos no estructurados para fines de formación. BigID Proporciona una solución completa para Gobernar y proteger los datos durante todo el ciclo de vida del desarrollo de la IA, con la capacidad de identificar información personal y confidencial en todo el mundo. datos estructurados y no estructurados Fuentes. Con BigID, las organizaciones pueden:
- Descubra información personal y confidencial en conjuntos de entrenamiento de IA, incluidos secretos y contraseñas, datos de clientes, datos financieros, IP, confidenciales y más.
- Comprender las identidades específicas cuyos datos se están utilizando para el entrenamiento de IA.
- Clasificar, etiquetar y rotular datos por tipo, regulación, sensibilidad e incluso propósito de uso – en datos estructurados, datos no estructurados, locales o en la nube.
- Adopte la IA de forma segura mediante el desarrollo de políticas para el uso de datos en toda la organización.
- Gestionar, proteger y gobernar la IA con sólidos protocolos de privacidad, cumplimiento y seguridad, lo que permite la confianza cero y mitiga el riesgo interno.
- Evaluar el riesgo de los datos y proporcionar rápidamente informes a las autoridades reguladoras de la UE.
Programe una demostración con nuestros expertos para ver cómo BigID puede ayudar a su organización a reducir el riesgo y cumplir con los requisitos de la Ley de IA de la UE.