La discussion
AI remodèle le paysage de la sécurité des entreprises, et ce webinaire a abordé l'un des sujets les plus urgents du secteur aujourd'hui : comment les entreprises peuvent sécuriser le cloud Dans un contexte de croissance exponentielle de l'IA, Adrian Sanabria a animé la session, accompagné de Nimrod Vax, qui a partagé son expertise sur la gestion. Utilisation de l'IA, relever les défis réglementaires et exploiter les outils basés sur l'IA pour renforcer la gouvernance et la sécurité des données.
Conçue pour un public ciblé de RSSI, de responsables de la confidentialité et de professionnels des données, la session a exploré des solutions allant de Découverte de l'IA et la gestion des stocks jusqu'aux stratégies de gouvernance proactives, le tout dans le contexte de l'adoption rapide de l'IA.
Les 3 principaux points à retenir
1. Les pratiques de sécurité des données doivent s'adapter à l'omniprésence de l'IA
Les entreprises ne peuvent plus considérer l'IA comme un simple ajout. Nimrod Vax a souligné que l'adoption de l'IA amplifie les problèmes existants d'hygiène des données, rendant ainsi des outils comme DSPM (Gestion de la posture de sécurité des données) et DLP La prévention des pertes de données (Data Loss Prevention) est essentielle pour comprendre et sécuriser les systèmes de données d'entreprise. Un constat frappant : les outils d'IA comme Microsoft Copilot exposent souvent des données sensibles par inadvertance lors de requêtes utilisateur classiques, ce qui constitue un signal d'alarme urgent pour les RSSI en quête d'une meilleure gouvernance.
2. La gestion des stocks est essentielle pour atténuer les risques
Les programmes de sécurité réussis commencent par découverte de données approfondies et la gestion des stocks à grande échelle. Nimrod a introduit le concept de gestion des stocks non seulement pour les données d'entreprise, mais aussi pour les modèles d'IA eux-mêmes. Savoir « qui utilise quels outils d'IA, où ils se trouvent et quelles données y transitent » pose les bases d'une atténuation efficace des risques liés à l'IA. Comme l'a souligné Adrian, « on ne peut pas protéger ce qu'on ne connaît pas ».
3. Aligner la gestion des risques sur des cadres de confiance
Les organisations qui traitent de Adoption de l'IA devrait cartographier les risques selon des cadres établis tels que NIST ou GDPR Pour piloter des programmes proactifs de conformité et de sécurité. Nimrod a souligné l'importance d'adopter des approches descendantes et ascendantes en exploitant des outils automatisés pour la granularité et la précision, tout en intégrant le contexte métier afin de respecter les obligations réglementaires. Des garde-fous personnalisés et des contrôles contextuels deviennent indispensables pour les entreprises qui déploient des solutions d'IA.
Plongée en profondeur : découverte de l'IA et risques liés à l'IA fantôme
L'un des points forts du webinaire a été l'explication de Nimrod sur l'« intelligence artificielle fantôme » et les défis qu'elle représente pour les organisations : il s'agit essentiellement de l'utilisation non autorisée ou non suivie d'outils d'IA par les employés. Les entreprises doivent prioriser la découverte d'IA, qui leur permet d'identifier qui utilise quels outils et de garantir que les données sensibles ne sont pas exposées à des modèles d'IA génératifs sans contrôles de sécurité appropriés.
Nimrod a également introduit le concept de AI TRiSM (Gestion de la confiance, des risques et de la sécurité), qui relie la découverte de l'IA à des stratégies plus larges de renforcement de la conformité. Il a encouragé les RSSI à commencer modestement en étiquetant les données sensibles afin de les exclure des systèmes d'IA, avant de passer à des solutions plus robustes. « Un étiquetage efficace des données est essentiel », a-t-il souligné, ajoutant que « les outils qui respectent ces étiquettes le sont tout autant pour éviter toute mauvaise manipulation. »
Pour faire face à ces risques, les deux hommes ont souligné l'importance de mettre en œuvre des approches DSPM modernes et de les intégrer harmonieusement aux outils d'inventaire basés sur l'IA. Cette gestion proactive des risques permet aux entreprises de garder une longueur d'avance. vulnérabilités posées par les technologies d’IA générative.
Citations mémorables
- « L'IA générative ne change pas seulement la donne, elle améliore aussi la productivité. Mais elle amplifie également les risques déjà présents dans votre système de sécurité des données. » – Adrian Sanabria
- Les organisations sont confrontées à cette mentalité d'accumulation de données, conservant tout, par crainte de suppression. Or, pour sécuriser les modèles d'IA, une disposition défendable est essentielle. – Nimrod Vax
- « L'objectif du traitement des applications d'IA définit le profil de risque. Des garde-fous personnalisés sont indispensables pour atténuer efficacement ces risques. » – Nimrod Vax
Ressources connexes
- Résumé de la solution : Relier les points entre les données et l'IA grâce à la gouvernance, au contexte et au contrôle
- Livre blanc : La confidentialité des données à l'ère de l'IA
- Livre blanc : Adoptez une IA responsable avec BigID Next
Regardez à la demande ou agissez
Avez-vous manqué la discussion en direct ? Regardez le webinaire complet à la demande ici
Prêt à voir comment BigID peut vous aider à répondre à ces exigences réglementaires ? Demandez une démo personnalisée dès aujourd'hui
Vous souhaitez rester informé ? Abonnez-vous à notre newsletter