L'utilisation généralisée de l'IA (intelligence artificielle), des modèles d'apprentissage supervisé à la recherche de modèles dans les données en passant par ChatGPT, a infiltré l'entreprise - la frénésie qui en résulte culminant dans un appel direct à Les technologies de l'IA vont être réglementéesReconnaissant la technologie de plus en plus affirmée, transformatrice et potentiellement risquée, le décret du président Joe Biden sur le développement et l'utilisation sûrs, sécurisés et dignes de confiance de l'intelligence artificielle est devenu une nouvelle étape dans la stratégie américaine en matière d'IA.
Qu'est-ce que le décret exécutif sur l'IA : un aperçu
Le décret du président Biden, publié le 30 octobre, marque plusieurs années d'efforts déployés par la Maison Blanche pour mettre en place des garde-fous en matière d'IA afin de garantir une adoption et un développement sûrs et sécurisés. Néanmoins, Biden a clairement indiqué qu'il s'agissait de la première étape du développement, de la mise en œuvre et de la réglementation de l'IA aux États-Unis, visant à protéger les consommateurs, à réduire les risques liés à l'IA et à suivre le rythme actuel de l'innovation.
Voici quelques aspects notables du décret exécutif sur l’IA :
Protection des droits à la vie privée et des libertés civiles
Un élément important du décret exécutif est la protection des droits à la vie privée et des libertés civiles des citoyens américainsL’EO vise à atténuer les préoccupations et les risques liés à la confidentialité en garantissant que la collecte et le traitement des données sont sûrs, sécurisés et uniquement à des fins légales.
L'EO est conçu pour protéger les citoyens américains en encourageant l'application continue des lois de protection des consommateurs et en offrant une sécurité contre les préjugés, la discrimination, les activités frauduleuses et autres dommages potentiels liés à l'utilisation, à l'interaction et à l'achat de produits d'IA.
Le décret a également souligné l'importance de mettre en œuvre des politiques d'IA qui s'inscrivent dans le cadre de l'avancement de l'équité et des droits civiques. Le procureur général collaborera avec les agences et ministères fédéraux pour lutter contre les violations potentielles des droits civiques et la discrimination dans le domaine de l'IA.
Normes de gouvernance et de protection de l'IA
L'article 4.1(a) de l'EO stipule que Institut national des normes et de la technologie (NIST) et le secrétaire au Commerce établira la norme industrielle pour des systèmes d'IA sûrs et sécurisés et permettra aux développeurs d'IA de tester ces systèmes pour trouver des vulnérabilités.
Le décret appelle les différentes agences et ministères fédéraux, de l'éducation à la santé en passant par la sécurité nationale, à se conformer aux normes et réglementations techniques mondiales pour une utilisation et une surveillance appropriées des technologies d'IA. Il comprend des directives supplémentaires sur l'utilisation responsable de l'IA afin de protéger la population américaine.
Confidentialité et sécurité des données
Conformément à l'article 9(b), le secrétaire au Commerce doit élaborer des lignes directrices permettant aux agences de mesurer l'efficacité des protections différentielles de confidentialité. Ces garanties différentielles de confidentialité visent à réduire l'utilisation, l'accès et le partage abusifs des informations personnelles. Cela obligera les responsables de la confidentialité et de la sécurité des données au sein d'une organisation à envisager de revoir les lignes directrices du secrétaire au Commerce. Ces directives spécifiques seront publiées prochainement et finalisées dans l'année suivant le décret.
La loi sur la protection de la défense
De par sa nature spécifique, le décret invoque la loi sur la protection de la défense, qui oblige les organisations à signaler au gouvernement tout modèle d'IA susceptible de menacer gravement la santé publique, la sécurité ou la sécurité nationale. Les organisations doivent fournir au gouvernement des évaluations des risques afin de garantir que les modèles d'IA respectent les seuils et normes techniques nécessaires à leur conformité.
Le ministère de l'Énergie et de la Sécurité intérieure évaluera la diversité des risques que pourraient présenter les modèles d'IA, notamment des menaces spécifiques telles que le terrorisme et la fabrication d'armes de destruction massive (nucléaires et biologiques). Le DHS devra également créer un Conseil de sûreté et de sécurité de l'IA chargé de conseiller sur l'utilisation responsable de l'IA dans les infrastructures critiques.
Faux profonds
Un autre sujet de préoccupation central pour l’IA est la prolifération de la capacité de l’IA à produire deepfakes, tels que des textes, des images, des sons et des vidéos, difficiles à distinguer des contenus créés par l'homme. Ces inquiétudes se sont accrues ces dernières années, les « super-fakes » étant perçues comme susceptibles de faire basculer les élections et de frauder les consommateurs.
L'article 4.5(c) du décret demande au ministère du Commerce de réduire les dangers des « deep fakes » en élaborant et en diffusant des bonnes pratiques pour détecter les contenus générés par l'IA. Le décret recommande vivement le tatouage numérique des contenus générés par l'IA, tels que les photos et les vidéos.
Soutien de la main-d'œuvre
L'article 6(b) du décret vise principalement à soutenir le travail aux États-Unis et à garantir que l'IA améliore la vie des travailleurs, sans porter atteinte à leurs droits ni réduire leur satisfaction au travail. Le secrétaire au Travail fournira aux employeurs des lignes directrices pour atténuer les effets néfastes de l'IA sur les employés.
Marché équitable et croissance
Le décret exécutif se concentre sur les mandats de sécurité et de sûreté, et met également l'accent sur l'avenir, l'innovation et la croissance technologique. Il vise à renforcer la position des États-Unis dans le domaine de l'IA sur la scène internationale en favorisant l'innovation et la collaboration. Les États-Unis maintiendront leur avantage concurrentiel grâce à des dispositions facilitant le développement de l'IA, notamment des politiques visant à attirer les talents étrangers.
L'EO pourrait nécessiter des améliorations
Un optimisme prudent semble régner après que de nombreux législateurs, organisations de défense des droits civiques, groupes industriels et autres acteurs ont examiné attentivement le décret de 111 pages. Il existe un consensus sur les limites de ce décret : c'est une avancée positive, mais ce n'est qu'un début.
Voici quelques domaines qui nécessitent des améliorations :
Équité et biais de l'IA
Un débat est en cours sur l'équité et les biais de l'IA. De nombreuses organisations de défense des droits civiques estiment que le décret ne va pas assez loin pour répondre aux problèmes concrets liés aux modèles d'IA, notamment en ce qui concerne les sanctions lorsque les systèmes d'IA impactent ou nuisent aux groupes vulnérables et marginalisés.
Former l'IA pour limiter les dommages
Nombreux sont ceux qui approuvent les valeurs du décret en matière de confidentialité, de sécurité, de confiance et de sûreté. Cependant, il convient de se préoccuper davantage de la manière dont les modèles d'IA sont entraînés et développés, afin de minimiser les dommages futurs avant toute diffusion d'IA. Nombreux sont ceux qui appellent le Congrès à adopter des lois intégrant des protections privilégiant l'équité plutôt que de s'attaquer aux dommages potentiels après le développement. C'est l'occasion pour le Congrès d'intensifier ses efforts et d'établir des normes solides en matière de partialité, de risque et de protection des consommateurs.
L'innovation
De l'autre côté de la médaille, de nombreux leaders du secteur craignent que le décret n'entrave l'innovation dans de nombreux secteurs en croissance. Les exigences de déclaration pour les grands modèles d'IA sont au cœur des préoccupations, car beaucoup estiment qu'il s'agit d'une surveillance excessive des systèmes ouverts d'IA, ce qui limitera l'entrée des entreprises technologiques sur le marché. Cela met en évidence l'élargissement significatif du pouvoir du gouvernement fédéral sur l'innovation et l'avenir du développement de l'IA.
Portée limitée
Le décret comporte certaines limites quant à la protection de la confidentialité des données des consommateurs, principalement en raison de la nécessité d'une loi fédérale sur la confidentialité des données. De plus, l'accent étant mis sur l'amélioration de l'administration gouvernementale en matière de gouvernance de l'IA, le décret ne s'applique pas nécessairement au secteur privé.
Comment BigID peut aider les organisations à se conformer aux réglementations nouvelles et émergentes en matière d'IA
Le décret sur l'IA constitue une étape importante vers l'exploitation du potentiel de l'IA tout en relevant ses défis spécifiques. Il reflète l'engagement du gouvernement américain à stimuler l'innovation, la croissance économique et la sécurité nationale, tout en garantissant un développement et un déploiement responsables et éthiques de l'IA.
L'avenir de l'IA aux États-Unis, façonné par ce décret, est très prometteur pour la société. BigID, nous comprenons que l'IA est censée stimuler l'efficacité, accroître l'innovation et permettre l'automatisation, mais cela commence par adoption responsable, des normes éthiques et une conduite appropriée Gouvernance de l'IA.
IA générative et LLM ont apporté de nouveaux risques liés à de grands volumes de données non structurées, ce qui peut entraîner des fuites de données, des violations et des non-conformités. Les organisations qui cherchent à innover et à accélérer l'adoption de l'IA doivent savoir si les données formées par l'IA peuvent être utilisées en toute sécurité et sont conformes aux politiques et réglementations de l'entreprise.
BigID peut trouver, cataloguer et gérer les données non structurées pour le LLM et l'IA conversationnelle, ce qui constitue la pierre angulaire d'une adoption sécurisée et responsable de l'IA. Avec BigID, les organisations peuvent mieux gérer, protéger et gérer l'IA grâce à des protocoles de sécurité qui réduisent les risques. activer la confiance zéro, atténuer la menace du risque interneet sécuriser les données non structurées dans l'ensemble du paysage des données.
Planifiez une démo avec nos experts pour voir comment BigID peut aider votre organisation à gérer l'IA et à réduire les risques.