Skip to content
Voir tous les articles

Le décret exécutif sur l’IA : Qu’est-ce que cela signifie réellement pour le secteur privé ?

Alors que la poussière retombe sur le mandat du président Biden Décret exécutif sur l'intelligence artificielle (IA) Concernant le développement et l'utilisation sûrs, sécurisés et fiables de l'intelligence artificielle, de nombreuses entreprises se demandent si cela s'applique uniquement aux agences fédérales ou si cela a également de réelles implications pour elles. Si oui, à quoi peuvent-elles s'attendre dans les mois à venir et quel impact cela aura-t-il sur leur adoption actuelle et prévue de l'IA ?

Voir BigID en action

Comprendre le décret exécutif sur l'IA

Le récent décret sur l'IA marque une étape importante vers une mise en œuvre éthique de l'IA. Cette directive vise à établir des lignes directrices et des normes pour le développement, le déploiement et la gouvernance des technologies d'IA. En complément du décret sur l'IA, la Mémo de l'IA du Bureau de la gestion et du budget (OMB) Fournit aux agences fédérales des orientations détaillées sur le déploiement de l'IA. Le Mémorandum sur l'IA, toujours ouvert aux commentaires du public, doit être lu conjointement avec le décret. Il impose des obligations strictes aux agences fédérales lors de l'adoption des technologies d'IA.

Ces autres mandats contenus dans le mémorandum sur l'IA comprennent :

  • Gouvernance de l'IA : Exiger la désignation de directeurs de l’IA, de conseils de gouvernance de l’IA et des rapports élargis sur les risques et les mesures d’atténuation de leur utilisation des technologies de l’IA.
  • Promouvoir l'innovation responsable en matière d'IA : Promouvoir l’investissement dans l’utilisation de l’IA par les agences, allant de l’amélioration de l’infrastructure de l’IA au développement de la main-d’œuvre.
  • Gestion des risques liés à l’utilisation de l’IA : Exiger la mise en œuvre de mesures de protection de l’IA contre les préjugés et la discrimination, définir les utilisations de l’IA qui sont présumées avoir un impact sur les droits et la sécurité, et fournir des recommandations pour la gestion des risques dans les marchés publics fédéraux de l’IA.
Télécharger la solution en bref.

Implications pour les entreprises

Les entreprises risquent d’être affectées de plusieurs manières, notamment :

  • Les entreprises technologiques développent une technologie d'IA « à double usage » devra informer le gouvernement fédéral de l'entraînement de ces modèles et partager les résultats de tous les tests de sécurité. L'autorité présidentielle en la matière découle de la loi sur la production de défense, car le terme « double usage » désigne les technologies ayant des applications à la fois civiles et militaires.
  • Entrepreneurs fédéraux développant ou utilisant des technologies d'IA Les entreprises pourraient devoir se conformer aux nouvelles normes et réglementations établies par le décret. Cela pourrait inclure le respect des directives relatives à l'utilisation éthique de l'IA, à la confidentialité des données, à la cybersécurité et à la réduction des biais. Les sous-traitants pourraient être tenus de réaliser des analyses d'impact de leurs systèmes d'IA, notamment en ce qui concerne leurs impacts sur la sécurité et les droits.
  • L'Institut national des normes et de la technologie (NIST) Le NIST s'est vu confier des rôles et responsabilités spécifiques liés au développement et à la mise en œuvre de normes pour les technologies d'IA. Au-delà de l'élaboration de normes, le NIST peut également fournir des conseils et des bonnes pratiques en matière de sécurité de l'IA à diverses parties prenantes, notamment les agences fédérales, les entreprises du secteur privé et les établissements universitaires.
  • Techniques de préservation de la vie privée sont mis en évidence dans l'appel du président au Congrès pour une législation qui s'étend à tous les Américains, avec un accent particulier sur la protection des informations personnelles utilisées pour former les systèmes d'IA.
Explorer l'adoption responsable de l'IA

Que devraient faire les entreprises ?

Bien que des protections complètes de la vie privée au niveau fédéral semblent peu probables dans un avenir proche, le décret crée un cadre qui commence à affecter de manière normative les entreprises qui développent certaines technologies d'IA ou fournissent des services au gouvernement fédéral. Les normes du NIST ont une longue tradition d'adoption par le secteur privé et auront probablement un impact plus large sur ce dernier. Il ressort clairement du décret et du mémorandum de l'OMB que la protection des Américains contre les préjugés et les abus potentiels de leurs informations personnelles est un thème essentiel.

Lors de l’adoption des technologies d’IA, les entreprises doivent :

  • Comprendre ce que informations sensibles et personnelles est utilisé pour former les technologies d’IA.
  • Dans la mesure du possible, utilisez des données synthétiques ou anonymisées au lieu d’informations personnelles.
  • Exercez une surveillance accrue lorsque vous utilisez des catégories « sensibles » d’informations personnelles susceptibles d’entraîner des préjugés, telles que l’origine raciale ou ethnique, les croyances religieuses ou philosophiques, l’appartenance syndicale, la santé et la vie sexuelle ou l’orientation sexuelle pour former des modèles d’IA.
  • Fournir des méthodes claires permettant aux utilisateurs de refuser que leurs données soient utilisées dans les modèles d’IA et établir des mécanismes pour faire respecter les règles de consentement contre les informations personnelles utilisées.

Comment BigID peut vous aider

IA et grands modèles linguistiques (LLM) comme ChatGPT en particulier, s'appuient fortement sur données non structurées à des fins de formation. BigID a la capacité de identifier les informations personnelles et sensibles à travers sources de données structurées et non structurées. La technologie de corrélation de BigID BigID permet non seulement de trouver des informations personnelles, mais aussi les personnes qu'elles décrivent. Grâce à BigID, les organisations peuvent :

Planifiez une démo avec nos experts pour voir comment BigID peut aider votre organisation à gérer l'IA et à réduire les risques.

Contenu

Guide du RSSI sur l'IA

Télécharger le résumé de la solution