La loi européenne sur l'IA est un règlement révolutionnaire – la première politique mondiale de ce type en matière d'IA – conçu pour encadrer le développement, l'utilisation et la mise en œuvre des technologies d'IA par les entreprises. Cette loi vise à garantir une utilisation sûre et éthique des technologies d'IA, et repose sur une approche fondée sur les risques, ce qui signifie que les règles sont conçues pour gérer les risques. risques associé à divers cas d’utilisation commerciale associés à l’IA.
Les entreprises qui exploitent l’IA devront respecter des obligations de conformité. gestion des risques, gouvernance des données, transparence et sécurité informatique.
TL;DR : Plus le risque associé à une application d’IA (et aux données qu’elle utilise) est élevé, plus les règles régissant son utilisation sont strictes.
Par où commencer pour la loi européenne sur l'IA : suivre les données
Selon Gartner, la clé pour gérer ces risques est de « suivre les données ». Nombre des risques décrits dans la réglementation découlent du traitement de catégories particulières de données personnelles.
La loi européenne sur l'IA définit plusieurs catégories de risques, et ce sont les deux premières qui comptent le plus :
- Risque inacceptable : Tout ce qui présente un risque inacceptable est formellement interdit. Cela inclut les données et traitements tels que l'identification biométrique en temps réel, ainsi que toute donnée ou activité utilisée pour manipuler le comportement et les émotions humaines.
- Risque élevé : Il s’agit du domaine le plus critique : les données et les processus tels que les données financières et d’assurance (tarification, solvabilité, analyse des risques) et les données sur les employés et l’éducation (performance, recrutement, caractéristiques).
- Risque limité : Ceci est soumis à une transparence plus légère – davantage axée sur la garantie que les utilisateurs sont conscient qu'ils interagissent avec l'IA (pensez aux chatbots)
- Risque minimal : Actuellement non réglementé – un filtre anti-spam basé sur l’IA, par exemple.
Par conséquent, les organisations devraient :
- Cas d'utilisation de l'IA du catalogue : Documenter les systèmes d’IA, les données traitées par ces systèmes, les finalités du traitement et les processus commerciaux impliqués.
- Catégoriser les systèmes d’IA : Faites l'inventaire de vos systèmes d'IA et comprenez ce que vous avez, à quelles données ils accèdent et quels droits d'accès ils ont.
- Classer les données utilisées par l'IA: Classez vos données et mettez en place des contrôles en fonction du risque, du contexte, du contenu et du type, afin que vous puissiez facilement gérer, suivre et signaler les données que l'IA a utilisées pour la formation, les données auxquelles elle peut accéder et la sensibilité et le risque élevé de ces données.
Les données au cœur du risque
La classification de ces catégories de risque commence par les données. Le type de données sur lesquelles les systèmes d'IA sont entraînés, auxquelles ils peuvent accéder et qu'ils peuvent surveiller détermine le niveau de risque. Il est donc crucial de comprendre et de contrôler vos données.
Les organisations doivent :
- Identifiez les données qui peuvent être utilisées en toute sécurité par l’IA.
- Déterminer quelles données relèvent de politiques de risque spécifiques.
- Classer les données pour garantir le respect des exigences de confidentialité et réglementaires.
Assurer la visibilité et le contrôle des données
Pour se conformer à la nouvelle réglementation, les organisations doivent avoir une visibilité et un contrôle sur les systèmes d'IA et sur les données auxquelles ils accèdent. Cela implique :
- Inventorier les modèles d'IA et les données dans l'ensemble de l'organisation
- Tenir des registres clairs des données auxquelles les systèmes d’IA peuvent accéder et ont accédé.
- Surveiller quoi données Les systèmes d’IA ont accès à des outils permettant de garantir la conformité et la sécurité : quelle est la sensibilité, à quelles politiques elle s’applique et quel risque elle représente.
- Mettre en œuvre des contrôles de sécurité autour des données et des modèles, y compris la capacité de :
- Alerte sur les données à haut risque ou les accès inhabituels
- Révoquer les autorisations et l'accès
- Corriger les données à haut risque
Comment BigID contribue à la loi européenne sur l'IA
L'approche centrée sur les données de BigID permet aux entreprises de gérer proactivement leur conformité réglementaire : de la découverte automatisée des données et des systèmes à leur classification complète (et précise), en passant par la correction des données, des systèmes et des utilisateurs. Avec BigID, les organisations peuvent améliorer leur sécurité, assurer une protection proactive de la confidentialité et atténuer les risques, et mettre en œuvre des contrôles basés sur les risques.
La loi européenne sur l'IA est une initiative historique, et ne représente probablement que la partie émergée de l'iceberg en matière de réglementation de l'IA. Anticipez la loi sur l'IA et assurez votre conformité avec l'évolution du paysage réglementaire de l'IA grâce à BigID :Parlez à nos experts en IA, faire un tour, et voyez que BigID aide les organisations de tous types à connaître et à contrôler leurs données – pour la réglementation de l'IA, l'innovation et au-delà.