KI-Risiken entstehen nicht beim Modell selbst, sondern bei den Daten, die es speisen. Sobald sensible Daten in KI-Tools, Analyse-Workflows und Drittanbieterdienste einfließen, verlieren viele Sicherheitsteams die Kontrolle, sobald die Daten ihre ursprüngliche Umgebung verlassen. Für Sicherheits- und Datenverantwortliche besteht die Herausforderung daher nicht darin, KI-Risiken zu erkennen, sondern zu wissen, wo sensible Daten in KI-Workflows gelangen, wie sie sich dort bewegen und wie frühzeitig Kontrollmechanismen implementiert werden können, um Datenlecks zu verhindern.
In dieser Sitzung behandeln wir Folgendes:
- Gängige Wege, auf denen sensible Daten absichtlich und unabsichtlich in KI-Systeme gelangen
- Warum bestehende Sicherheits- und Datenkontrollen bei zunehmender KI-Nutzung Schwierigkeiten haben, die Transparenz zu wahren
- Wie man risikoreiche Daten identifiziert und klassifiziert, bevor sie für Training, Feinabstimmung oder Inferenz verwendet werden.
- Wie BigID Teams dabei hilft, frühzeitig Risikosignale zu erkennen und automatisch die richtigen Kontrollmaßnahmen durchzusetzen. Sie erhalten einen klaren Ansatz zum Schutz sensibler Daten, bevor diese in KI-Modelle gelangen, und eine besser vertretbare Strategie zur Sicherung von KI, wenn deren Verbreitung bis 2026 zunimmt.
Redner:
- Kyle Kurdziolek, Vizepräsident für Sicherheit bei BigID
- Nimrod Vax, CPO & Mitgründer, BigID