Skip to content
Voir tous les webinaires

Sur demande

Comment sécuriser les données sensibles Avant que cela n'affecte les modèles d'IA

Le risque lié à l'IA ne provient pas du modèle lui-même, mais des données qui l'alimentent. Lorsque des données sensibles sont intégrées aux outils d'IA, aux flux d'analyse et aux services tiers, de nombreuses équipes de sécurité perdent en visibilité dès que ces données quittent leur environnement d'origine. Pour les responsables de la sécurité et des données, le défi n'est pas de reconnaître le risque lié à l'IA, mais de savoir où les données sensibles pénètrent dans les flux d'IA, comment elles circulent ensuite et comment mettre en place des contrôles suffisamment tôt pour prévenir toute exposition.

Au cours de cette session, nous aborderons les points suivants :

  • Les manières courantes dont les données sensibles se retrouvent dans les systèmes d'IA, intentionnellement et non intentionnellement
  • Pourquoi les contrôles de sécurité et de données existants peinent à maintenir la visibilité à mesure que l'utilisation de l'IA se développe
  • Comment identifier et classer les données à haut risque avant leur utilisation pour l'entraînement, le réglage fin ou l'inférence
  • Comment BigID aide les équipes à repérer les premiers signaux de risque et à appliquer automatiquement les contrôles appropriés. Vous repartirez avec une approche claire pour protéger les données sensibles avant qu'elles n'atteignent les modèles d'IA, et une stratégie plus solide pour sécuriser l'IA à mesure que son adoption s'accélère en 2026.

Intervenants :

  • Kyle Kurdziolek, vice-président, Sécurité, BigID
  • Nimrod Vax, directeur des produits et cofondateur de BigID