Skip to content

À quel moment la gouvernance s'applique-t-elle dans le cycle de vie d'un agent d'IA ?

Un agent d'IA est un système capable de collecter des données, de prendre des décisions et d'agir de manière autonome au sein de systèmes connectés. La gouvernance s'applique à chaque étape du cycle de vie d'un agent d'IA : données d'entraînement, configuration et autorisations de l'agent, accès aux données en cours d'exécution, exécution des décisions, surveillance et audit.

Chaque étape comporte ses propres risques, obligations réglementaires et contrôles à mettre en place avant le passage à la suivante. Si vous êtes responsable de la gouvernance des données, CDO ou CISO et que vous gérez une IA d'entreprise avec des agents déjà en production, voici le plan étape par étape dont votre programme a besoin.

La plupart des programmes de gouvernance et de gestion du cycle de vie de l'IA traitent les agents d'IA de la même manière que les organisations traitaient autrefois l'infrastructure cloud : déploiement d'abord, gouvernance ensuite. 

Cette approche reste valable jusqu'à ce qu'un auditeur demande quelles données ont servi à entraîner votre modèle, ou qu'un incident de sécurité soit attribué à un agent disposant de permissions non documentées. Les failles n'apparaissent pas au niveau des politiques, mais au niveau des données, là où les agents opèrent réellement.

Planifier une démonstration

Points clés : Gouvernance du cycle de vie des agents d'IA

  • La gouvernance ne commence pas au déploiement, mais au niveau des données ; les organisations qui ajoutent la gouvernance après le déploiement gèrent déjà des risques qu’elles n’avaient pas prévus.
  • Chacune des cinq étapes du cycle de vie requiert des contrôles de gouvernance distincts : les données d’entraînement, la configuration et les autorisations des agents, l’accès aux données d’exécution, l’exécution des décisions, ainsi que la surveillance et l’audit, comportent leurs propres obligations réglementaires.
  • La gouvernance des données d'entraînement est une obligation légale, et non une simple bonne pratique : l'article 10 de la directive européenne sur l'IA impose la documentation des données utilisées pour l'entraînement de chaque modèle, et la collecte illégale de données engage la responsabilité du fabricant, même en production.
  • Les intégrations d'agents non documentées créent des voies d'accès fantômes qui contournent les contrôles existants et rendent l'audit post-incident quasiment impossible.
  • L'accès aux données en temps réel présente le plus fort risque réglementaire : les agents interagissent avec les données de production en direct à la vitesse de la machine, déclenchant les obligations du RGPD et de la loi HIPAA dès lors que des données personnelles ou de santé sont impliquées.
  • La couche de données est la seule surface de gouvernance qui transcende tous les cadres de conformité — chaque réglementation s'intéresse en fin de compte aux données auxquelles l'agent accède et à l'utilisation qu'il en fait.

La gouvernance ne commence pas au déploiement, elle commence au niveau des données.

La couche de données relie chaque étape du cycle de vie d'un agent d'IA. Les données utilisées pour entraîner l'agent, celles auxquelles il accède lors de son exécution et celles produites par ses décisions relèvent de la gouvernance, et non uniquement de l'ingénierie. Les organisations qui ajoutent une gouvernance a posteriori gèrent déjà des risques non prévus initialement.

Concrètement, cela signifie que les décisions de gouvernance sont guidées par les données auxquelles un agent accède, et non pas seulement par le modèle lui-même.

Un guide étape par étape illustrant à quoi ressemble la gouvernance tout au long du cycle de vie :

  1. Formation à la gouvernance des données : Classer, vérifier et nettoyer les données avant le début de la formation. 
  2. Configuration et autorisations de l'agent : Périmètre et accès aux documents avant déploiement.
  3. Accès aux données en cours d'exécution : Appliquer les contrôles pendant le fonctionnement en direct.
  4. Exécution des décisions des agents : Consignez et validez les actions au fur et à mesure que les décisions sont prises.
  5. Suivi et audit : Suivre et analyser les comportements après et pendant toute l'activité.

Étape 1 : Formation à la gouvernance des données

L’article 10 de la loi européenne sur l’IA exige que les données d’entraînement soient vérifiées quant à leur pertinence, leur représentativité et l’absence d’erreurs. Les organismes doivent documenter les données utilisées pour l’entraînement de chaque modèle. Cette obligation de documentation est contraignante : son non-respect constitue non pas une lacune technique, mais une infraction réglementaire.

Le risque est évident. L'intégration de données sensibles, réglementées ou collectées illégalement dans un processus d'entraînement engendre une responsabilité qui persiste même après la mise en production du modèle. 

Un modèle entraîné sur des données personnelles qu'il n'aurait pas dû consulter révélera cette exposition dans ses résultats, ses représentations vectorielles et son comportement. Il est impossible de corriger un problème lié aux données d'entraînement après le déploiement.

À ce stade, la gouvernance consiste à classer les données d'entraînement selon leur sensibilité avant leur intégration dans le processus, à vérifier la légalité de leur collecte et à supprimer les données toxiques. Il s'agit d'un élément fondamental de la gestion du cycle de vie et de la garantie que chaque système d'IA démarre avec des données conformes. 

Pour les professionnels des services financiers et de la santé, cette étape implique également des obligations liées au Règlement général sur la protection des données (RGPD) et des restrictions de la loi HIPAA (Health Insurance Portability and Accountability Act) concernant les données de santé pouvant alimenter un modèle. La question n'est pas seulement “ sur quoi avons-nous effectué l'entraînement ? ” mais aussi “ avions-nous le droit de l'effectuer ? ”

Étape 2 : Configuration et autorisations de l’agent

Avant la mise en service d'un agent, chaque autorisation dont il dispose doit être limitée au strict minimum d'accès aux données nécessaire à sa fonction. Le principe du moindre privilège s'applique aux agents comme aux utilisateurs humains. La gestion des identités et des accès des agents est essentielle à la gouvernance, et chaque agent d'IA requiert des autorisations clairement définies et liées à son rôle.

Les intégrations non documentées entre les agents et les systèmes d'entreprise sont à l'origine des accès non autorisés. Un agent connecté à une base de données vectorielle, à un système de gestion de la relation client (CRM) et à un entrepôt de documents via trois intégrations distinctes jamais répertoriées formellement n'apparaît pas dans vos rapports de gouvernance des accès. Il fonctionne, tout simplement.

À ce stade, la gouvernance consiste à recenser toutes les sources de données auxquelles l'agent aura accès, à les associer à des classifications de sensibilité et à appliquer les politiques d'accès avant la première requête. Ce niveau de contrôle est essentiel à tout cadre de gouvernance évolutif. 

Étape 3 : Accès aux données en cours d’exécution

Lors de l'exécution, les agents interrogent des bases de données en temps réel, extraient le contexte des bases de données vectorielles et transmettent les informations via des flux de travail de génération augmentée par extraction (RAG). Chaque interaction représente un risque potentiel de divulgation de données. En l'absence de contrôles au niveau des données, un agent peut extraire et afficher des données réglementées, notamment des informations personnelles identifiables (IPI), des données de santé protégées (DSP) et des données financières, qui n'étaient absolument pas destinées à faire partie de ses résultats.

Le RGPD et la loi HIPAA s'appliquent dès lors qu'un agent accède à des données personnelles ou de santé. L'accès en temps réel présente le risque réglementaire le plus élevé de toutes les étapes du cycle de vie, précisément parce que c'est à ce moment que les agents interagissent avec des données de production en direct, à la vitesse de la machine.

Étape 4 : Exécution de la décision de l'agent

Lorsqu'un agent prend une décision, envoie un message, modifie un enregistrement et déclenche un flux de travail en aval, cette action doit être traçable jusqu'aux données et aux autorisations qui l'ont permise. C'est là que la gouvernance devient une question de responsabilité, et non plus seulement une question de contrôle.

Les erreurs en cascade dues à des décisions non contrôlées d'agents sont plus difficiles à corriger que les erreurs humaines. Les agents agissent à la vitesse de la machine sur plusieurs systèmes simultanément. Une simple autorisation mal configurée ou une donnée saisie sans contrôle peut se propager à travers des dizaines d'actions en aval avant même que quiconque ne s'en aperçoive.

À ce stade, la gouvernance implique des contrôles humains systématiques pour les actions à haut risque, la consignation de chaque décision avec les données d'entrée, et la définition de limites claires quant aux actions autorisées pour l'agent. Les fonctions « Gouverner » et « Gérer » du cadre de gestion des risques liés à l'IA (AI RMF) du NIST s'appliquent. Les organisations doivent documenter la responsabilité des décisions prises par l'agent et conserver la possibilité de les annuler ou de les interrompre.

Étape 5 : Suivi et audit

Le suivi post-déploiement permet de vérifier l'efficacité de la gouvernance ou d'en révéler les failles. Sans pouvoir reconstituer les actions d'un agent, les données consultées et les raisons de ces consultations, l'audit sera impossible.

La surveillance continue doit couvrir la traçabilité des données, de leur ingestion à leur inférence, les modèles d'accès par rapport au comportement de référence et tout écart par rapport aux politiques d'utilisation approuvées. 

La préparation à un audit ne se limite pas aux journaux d'activité. Elle exige la capacité de relier chaque action d'un agent à la politique spécifique qui l'a autorisée ou aurait dû la bloquer. Les organisations qui découvrent cette lacune lors d'un audit, plutôt qu'avant, doivent faire face à des délais de correction qui se comptent en mois, et non en jours.

Où les cadres de conformité s'intègrent au cycle de vie

L’article 10 de la loi européenne sur l’IA régit la qualité et la documentation des données d’entraînement. 

Il s'agit d'une obligation de phase 1. Les fonctions de gouvernance, de cartographie, de mesure et de gestion du cadre de gestion des risques liés à l'IA du NIST couvrent l'intégralité du cycle de vie, mais se concentrent sur les phases de configuration, d'exécution et de surveillance. Le RGPD et la loi HIPAA s'appliquent dès lors qu'un agent accède à des données personnelles ou de santé, ce qui signifie que l'accès en cours d'exécution et l'exécution des décisions présentent le plus fort risque réglementaire.

Les organisations opérant sous plusieurs cadres de gouvernance ont besoin de mécanismes de contrôle qui satisfassent simultanément à toutes les exigences applicables. La couche de données est la seule surface de gouvernance transversale à l'ensemble de ces cadres, car chaque cadre s'intéresse en fin de compte aux données auxquelles l'agent accède et à l'usage qu'il en fait.

Concrètement, cela signifie que les organisations doivent aligner les contrôles du cycle de vie sur les obligations réglementaires spécifiques déclenchées à chaque étape.

Gérez la couche de données à chaque étape avec BigID

Le point commun aux cinq étapes du cycle de vie est la donnée. Cela inclut les données sur lesquelles l'agent a été entraîné, celles auxquelles il accède et celles produites par ses décisions. C'est au niveau des données que les politiques sont concrètement appliquées, grâce aux contrôles d'accès, à la classification et à la surveillance. Les programmes de gouvernance qui opèrent uniquement au niveau du modèle ou de la politique ne prennent pas en compte les contrôles au niveau des données qui déterminent si ces politiques sont effectivement appliquées.

Le cadre de gestion de la confiance, des risques et de la sécurité en matière d'IA (AI TRiSM) de BigID régit la couche de données tout au long du cycle de vie complet de l'agent d'IA, des données d'entraînement à l'accès en temps réel, en passant par l'exécution des décisions et l'audit, sur une plateforme unique. 

La question n'est pas de savoir si vos agents ont besoin de gouvernance à chaque étape de leur cycle de vie. Ils en ont besoin. La question est de savoir si votre programme de gouvernance atteint la couche de données où les agents opèrent réellement, ou s'il s'arrête au document de politique.

Découvrez comment appliquer la gouvernance de l'IA à chaque étape du cycle de vie des agents. 

Planifier une démonstration

Questions fréquemment posées

Qu’est-ce que la gouvernance des agents IA ?

La gouvernance des agents d'IA désigne l'ensemble des politiques, des contrôles et des structures de responsabilité qui déterminent les données auxquelles un agent d'IA peut accéder, les actions qu'il peut entreprendre et la manière dont son comportement est surveillé et audité. Une gouvernance efficace s'applique à chaque étape du cycle de vie de l'agent, depuis les données d'entraînement jusqu'à l'exécution, et pas seulement au moment du déploiement.

Quelles étapes du cycle de vie d'un agent d'IA nécessitent des contrôles de gouvernance ?

Chacune de ces étapes comporte des risques et des obligations réglementaires spécifiques. Données d'entraînement, configuration et autorisations des agents, accès aux données d'exécution, exécution des décisions, surveillance et audit : la gouvernance appliquée à une seule étape engendre des lacunes qui s'accumulent aux étapes suivantes.

Comment gouverner les agents d'IA en cours d'exécution ?

La gouvernance en temps réel exige l'application de contrôles d'accès aux données sur les requêtes actives, le filtrage des invites sensibles avant leur transmission à l'agent et des résultats avant leur renvoi. Les déclarations de politique seules ne suffisent pas à régir le comportement en temps réel ; seuls les contrôles techniques au niveau des données le permettent.

Quels contrôles de gouvernance des données sont nécessaires pour les données d'entraînement de l'IA ?

La gouvernance des données d'entraînement exige de classer les données selon leur niveau de sensibilité avant leur intégration dans les chaînes de traitement, de vérifier que leur collecte était conforme à la réglementation applicable, de supprimer les données toxiques ou réglementées et de documenter les données utilisées pour l'entraînement de chaque modèle. L'article 10 de la loi européenne sur l'IA rend cette documentation obligatoire pour les systèmes d'IA à haut risque.

Comment les autorisations des agents créent-elles un risque de gouvernance ?

Les agents disposant de privilèges excessifs peuvent accéder à des données sensibles bien au-delà des exigences de leur fonction. Lorsque ces privilèges ne sont pas limités au principe du moindre privilège et ne sont pas liés à des sources de données documentées, ils créent des voies d'accès parallèles qui contournent les contrôles existants et rendent l'audit post-incident quasi impossible.

Contenu

Meilleures pratiques pour la gestion des données d'IA

Découvrez les meilleures pratiques de gestion des données pour l'IA : de la découverte et la classification à la gouvernance. Téléchargez notre livre blanc et préparez vos données à l'IA.

Télécharger le livre blanc