À une époque où AI gère tout, du support client à la sélection des candidats, un article récent de CÂBLÉ constitue un signal d'alarme opportun mais inquiétant. L'enquête a révélé une faille de sécurité importante liée à Paradox.ai, le fournisseur derrière le chatbot de recrutement basé sur l'IA de McDonald's, « Olivia ». Il est intéressant de noter que McDonald's se trouve désormais dans un paradoxe entre innovation et sécurité. violation des données personnelles exposées provenant potentiellement de plus de 64 millions de candidats à un emploi, tous en raison de failles de sécurité fondamentales, telles que les mots de passe par défaut (« 123456 ») et l’absence d’authentification multifacteur.
Les chercheurs Ian Carroll et Sam Curry ont découvert qu'ils pouvaient accéder aux données sensibles des candidats sur le McHire.com Plateforme — y compris les noms, adresses e-mail, numéros de téléphone et transcriptions de chat — en devinant simplement les identifiants du personnel liés à un compte de test non utilisé. Une fois connecté, ils pouvaient consulter les données de n'importe quel candidat en modifiant les identifiants dans l'URL.
Bien que Paradox.ai ait affirmé avoir résolu la vulnérabilité rapidement et que l'accès aux données était limité, le problème systémique demeure : les entreprises sont de plus en plus exposées aux faibles pratiques de sécurité de leurs fournisseurs d'IA.
Pourquoi c'est important
Cette faille ne se limite pas à une mauvaise hygiène des mots de passe. Elle met en évidence trois risques plus profonds et croissants à l'ère de l'IA :
- Fournisseurs d'IA non contrôlés qui traitent des données personnelles sensibles
- Manque de gouvernance autour du lieu et de la manière dont les systèmes d'IA sont déployés
- Aucune visibilité sur la manière dont les modèles tiers collectent, stockent et sécurisent les données
Qu'il s'agisse de robots de recrutement basés sur l'IA, de moteurs de recommandation ou de processeurs de données en coulisses, les entreprises s'appuient de plus en plus sur des systèmes d'IA tiers pour automatiser les décisions sensibles. Cependant, comme McDonald's le constate, le recours à un fournisseur d'IA ne dispense pas une organisation de ses obligations légales, éthiques ou de conformité.
McDonald's n'a peut-être pas développé le chatbot, mais sa marque et la confiance de ses clients sont désormais en jeu. Alors que les régulateurs, les avocats et le public scrutent les impacts concrets de l'IA, l'argument « on ne savait pas » n'est plus valable.
Comment l'évaluation de l'IA BigID crée une gouvernance de l'IA plus intelligente et responsable
L'IA est souvent adoptée pour optimiser l'efficacité, l'évolutivité et l'innovation. Cependant, lorsque ces systèmes sont développés ou déployés par des fournisseurs tiers, les organisations perdent souvent la visibilité sur le fonctionnement du modèle, les données qu'il utilise et les risques qu'il présente.
BigID fournit aux entreprises les outils pour découvrir les angles morts de l'IA, évaluer les risques liés aux tiers et protéger la confiance de leurs clients et candidats avant une violation, un procès ou une révélation ultérieure.
BigID's Solution d'évaluation de l'IA Cette solution s'attaque directement aux vulnérabilités exposées lors de cette faille. Elle permet aux organisations de :
Inventaire des outils d'IA tiers
Découvrez où l'IA est utilisée dans l'ensemble de l'organisation, y compris les systèmes des fournisseurs comme Paradox.ai et les données auxquelles ils accèdent ou qu'ils traitent.
Évaluer la sécurité et les risques liés aux données
Évaluer les outils d'IA en termes d'hygiène de sécurité, de risque pour la confidentialité, pratiques d'accès aux données, et l'alignement des politiques pour étendre Gouvernance de l'IA et la supervision des fournisseurs externes.
Établir la justification et la documentation de l'utilisation de l'IA
Cartographiez chaque système d'IA en fonction de son objectif commercial, de sa base juridique, de son profil de risque et de ses données de formation pour répondre aux exigences internes et externes de gouvernance de l'IA et vous aligner sur les nouvelles tendances mondiales. Réglementation de l'IA.
Permettre une surveillance continue et un contrôle des fournisseurs
Suivez en permanence la conformité des fournisseurs aux normes de protection des données pour découvrir les risques cachés liés à l'IA dans les systèmes tiers, réduire l'exposition et améliorer la responsabilité tout au long de votre chaîne d'approvisionnement en données.
Découvrez comment BigID peut vous aider à sécuriser votre écosystème d’IA, en commençant par les fournisseurs. Obtenez une démo aujourd'hui !