Zum Inhalt springen
Alle Webinare anzeigen

Abrufbar

Wie man sensible Daten schützt Bevor es auf KI-Modelle zutrifft

KI-Risiken entstehen nicht beim Modell selbst, sondern bei den Daten, die es speisen. Sobald sensible Daten in KI-Tools, Analyse-Workflows und Drittanbieterdienste einfließen, verlieren viele Sicherheitsteams die Kontrolle, sobald die Daten ihre ursprüngliche Umgebung verlassen. Für Sicherheits- und Datenverantwortliche besteht die Herausforderung daher nicht darin, KI-Risiken zu erkennen, sondern zu wissen, wo sensible Daten in KI-Workflows gelangen, wie sie sich dort bewegen und wie frühzeitig Kontrollmechanismen implementiert werden können, um Datenlecks zu verhindern.

In dieser Sitzung behandeln wir Folgendes:

  • Gängige Wege, auf denen sensible Daten absichtlich und unabsichtlich in KI-Systeme gelangen
  • Warum bestehende Sicherheits- und Datenkontrollen bei zunehmender KI-Nutzung Schwierigkeiten haben, die Transparenz zu wahren
  • Wie man risikoreiche Daten identifiziert und klassifiziert, bevor sie für Training, Feinabstimmung oder Inferenz verwendet werden.
  • Wie BigID Teams dabei hilft, frühzeitig Risikosignale zu erkennen und automatisch die richtigen Kontrollmaßnahmen durchzusetzen. Sie erhalten einen klaren Ansatz zum Schutz sensibler Daten, bevor diese in KI-Modelle gelangen, und eine besser vertretbare Strategie zur Sicherung von KI, wenn deren Verbreitung bis 2026 zunimmt.

Redner:

  • Kyle Kurdziolek, Vizepräsident für Sicherheit bei BigID
  • Nimrod Vax, CPO & Mitgründer, BigID