La Ley de IA de la UE es un reglamento innovador —la primera política global de IA de este tipo— diseñado para supervisar cómo las empresas desarrollan, utilizan e implementan tecnologías de IA. La ley está diseñada para garantizar que el uso de las tecnologías de IA sea seguro y ético, y se basa en un enfoque basado en el riesgo, lo que significa que las normas están diseñadas para gestionar... riesgos asociado con varios casos de uso comerciales asociados con IA.
Las empresas que aprovechen la IA tendrán que cumplir con las obligaciones de cumplimiento en gestión de riesgos, gobernanza de datos, transparencia y seguridad informática.
Resumen: Cuanto mayor sea el riesgo asociado a una aplicación de IA (y a los datos que utiliza), más estrictas serán las reglas que rijan su uso.
Por dónde empezar con la Ley de IA de la UE: seguir los datos
Según Gartner, la clave para gestionar estos riesgos es el seguimiento de los datos. Muchos de los riesgos descritos en la normativa se derivan del procesamiento de categorías especiales de datos personales.
La Ley de IA de la UE define varias categorías de riesgo, y las dos primeras son las que más importan:
- Riesgo inaceptable: Todo lo que se considere de riesgo inaceptable está totalmente prohibido. Esto incluye datos y procesamiento como la identificación biométrica en tiempo real o cualquier dato o actividad que se utilice para manipular el comportamiento y las emociones humanas.
- Alto riesgo: Esta es el área más crítica: datos y procesos como datos financieros y de seguros (precios, solvencia, análisis de riesgos) y datos de empleados y educativos (rendimiento, reclutamiento, características).
- Riesgo limitado: Esto está sujeto a una transparencia más leve: más sobre cómo asegurarse de que los usuarios estén consciente que están interactuando con IA (piense en: chatbots)
- Riesgo mínimo: Actualmente no está regulado: por ejemplo, un filtro de spam activado mediante inteligencia artificial.
Por tanto, las organizaciones deberían:
- Catálogo de casos de uso de IA: Documentar los sistemas de IA, los datos procesados por estos sistemas, los propósitos del procesamiento y los procesos comerciales involucrados.
- Categorizar los sistemas de IA: Haga un inventario de sus sistemas de IA y comprenda qué tiene, a qué datos accede y qué derechos de acceso tiene.
- Clasifique los datos que utiliza la IA: Clasifique sus datos y establecer controles a su alrededor según el riesgo, el contexto, el contenido y el tipo, para que pueda administrar, rastrear e informar fácilmente sobre qué datos ha utilizado la IA para el entrenamiento, a qué datos puede acceder y qué tan sensibles y de alto riesgo son esos datos.
Los datos en el centro del riesgo
La clasificación de estas categorías de riesgo comienza con los datos. El tipo de datos con los que se entrenan los sistemas de IA, a los que pueden acceder y que pueden monitorear, determina el nivel de riesgo. Por lo tanto, comprender y controlar los datos es crucial.
Las organizaciones necesitan:
- Identificar qué datos son seguros para el uso de la IA.
- Determinar qué datos caen bajo políticas de riesgo específicas.
- Clasificar los datos para garantizar el cumplimiento de la confidencialidad y los requisitos reglamentarios.
Garantizar la visibilidad y el control de los datos
Para cumplir con la nueva normativa, las organizaciones deben tener visibilidad y control tanto de los sistemas de IA como de los datos a los que acceden. Esto implica:
- Inventariar tanto los modelos de IA como los datos en toda la organización
- Mantener registros claros de a qué datos pueden acceder y han accedido los sistemas de IA.
- Monitoreando qué datos Los sistemas de IA han accedido para garantizar el cumplimiento y la seguridad: cuál es la sensibilidad, a qué políticas se aplica y qué riesgo representa.
- Implementar controles de seguridad tanto en torno a los datos como a los modelos, incluida la capacidad de:
- Alerta sobre datos de alto riesgo o acceso inusual
- Revocar permisos y accesos
- Remediar datos de alto riesgo
Cómo BigID contribuye a la Ley de IA de la UE
El enfoque centrado en datos de BigID permite a las empresas gestionar proactivamente el cumplimiento normativo, desde el descubrimiento automatizado de datos y sistemas hasta la clasificación exhaustiva (y precisa) de datos y sistemas, y la remediación de datos, sistemas y usuarios. Con BigID, las organizaciones pueden mejorar su seguridad, implementar medidas proactivas de privacidad y mitigación de riesgos, e implementar controles basados en riesgos.
La Ley de IA de la UE es una iniciativa histórica, y probablemente solo la punta del iceberg en términos de regulación de la IA. Adelántese a la Ley de IA y al cumplimiento del cambiante panorama regulatorio de la IA con BigID:Hable con nuestros expertos en IA, hacer un recorridoY vea cómo BigID ayuda a las organizaciones de todo tipo a conocer y controlar sus datos, para la regulación de la IA, la innovación y más allá.