El riesgo de la IA no empieza con el modelo, sino con los datos que lo alimentan. A medida que se incorporan datos confidenciales a herramientas de IA, flujos de trabajo analíticos y servicios de terceros, muchos equipos de seguridad pierden visibilidad en cuanto los datos se mueven más allá de su entorno original. Para los responsables de seguridad y datos, el reto no reside en reconocer el riesgo de la IA, sino en saber dónde entran los datos confidenciales en los flujos de trabajo de IA, cómo se mueven una vez que lo hacen y cómo implementar controles con la suficiente antelación para evitar su exposición.
En esta sesión, cubriremos:
- Formas comunes en que los datos confidenciales terminan en los sistemas de IA, intencionalmente y no intencionalmente
- Por qué los controles de seguridad y datos existentes tienen dificultades para mantener la visibilidad a medida que aumenta el uso de la IA
- Cómo identificar y clasificar datos de alto riesgo antes de utilizarlos para entrenamiento, ajuste o inferencia
- Cómo BigID ayuda a los equipos a detectar señales de riesgo tempranas y aplicar los controles adecuados automáticamente Saldrá con un enfoque claro para proteger los datos confidenciales antes de que lleguen a los modelos de IA y una estrategia más defendible para proteger la IA a medida que la adopción se acelera hacia 2026.
Oradores:
- Kyle Kurdziolek, vicepresidente de seguridad de BigID
- Nimrod Vax, director de producto y cofundador de BigID