Der weit verbreitete Einsatz von KI (Künstlicher Intelligenz), von überwachten Lernmodellen über das Finden von Mustern in Daten bis hin zu ChatGPT, hat das Unternehmen infiltriert – die daraus resultierende Raserei gipfelte in einem direkten Ruf nach KI-Technologien müssen reguliert werden. In Anerkennung der zunehmend durchsetzungsstarken, umwälzenden und potenziell riskanten Technologie wurde Präsident Joe Bidens Executive Order zur sicheren und vertrauenswürdigen Entwicklung und Nutzung künstlicher Intelligenz zu einem neuen Meilenstein in der KI-Strategie Amerikas.
Was ist die AI Executive Order: Ein Blick
Präsident Bidens am 30. Oktober erlassene Executive Order markiert den Erfolg der mehrjährigen Bemühungen des Weißen Hauses, KI-Leitplanken zu schaffen, um eine sichere Einführung und Entwicklung zu gewährleisten. Biden hat jedoch deutlich gemacht, dass dies nur der erste Schritt in der Entwicklung, Implementierung und Regulierung von KI in den USA ist. Ziel ist es, Verbraucher zu schützen, KI-Risiken zu reduzieren und mit dem aktuellen Innovationstempo Schritt zu halten.
Hier sind einige bemerkenswerte Aspekte der KI-Verordnung:
Schutz der Privatsphäre und der bürgerlichen Freiheiten
Ein wesentlicher Bestandteil der Durchführungsverordnung ist die Schutz der Privatsphäre und der bürgerlichen Freiheiten amerikanischer Bürger. Die EO zielt darauf ab, Datenschutzbedenken und -risiken zu mindern, indem sichergestellt wird, dass die Datenerfassung und -verarbeitung sicher und geschützt ist und nur zu rechtmäßigen Zwecken erfolgt.
Die EO soll die amerikanischen Bürger schützen, indem sie die kontinuierliche Durchsetzung der Verbraucherschutzgesetze fördert und Sicherheit vor Voreingenommenheit, Diskriminierung, betrügerischen Aktivitäten und anderen potenziellen Schäden bietet, die durch die Verwendung, Interaktion mit und den Kauf von KI-Produkten entstehen.
Die EO betonte außerdem, wie wichtig es sei, KI-Richtlinien umzusetzen, die mit der Förderung von Gleichberechtigung und Bürgerrechten im Einklang stehen. Der Generalstaatsanwalt wird mit Bundesbehörden und -ministerien zusammenarbeiten, um potenzielle Bürgerrechtsverletzungen und Diskriminierung im Bereich KI zu bekämpfen.
KI-Governance- und Schutzstandards
Abschnitt 4.1(a) der EO besagt, dass die Nationales Institut für Standards und Technologie (NIST) und der Handelsminister wird den Industriestandard für sichere KI-Systeme festlegen und KI-Entwicklern ermöglichen, diese Systeme auf Schwachstellen zu testen.
Die Durchführungsverordnung fordert verschiedene Bundesbehörden und -ministerien – vom Bildungs- über das Gesundheitswesen bis hin zur nationalen Sicherheit – auf, die globalen technischen Standards und Vorschriften für die ordnungsgemäße Nutzung und Überwachung von KI-Technologien einzuhalten. Die Verordnung enthält zusätzliche Leitlinien für den verantwortungsvollen Einsatz von KI zum Schutz der amerikanischen Bevölkerung.
Datenschutz und Sicherheit
Gemäß Abschnitt 9(b) muss der Handelsminister Richtlinien für Behörden entwickeln, um die Wirksamkeit von „Differential Privacy Guarantees“ zu messen. Differential Privacy Guarantees bedeuten Schutzmaßnahmen, die die missbräuchliche Verwendung, den Zugriff und die Weitergabe personenbezogener Daten reduzieren. Dies erfordert, dass die Verantwortlichen für Datenschutz und -sicherheit in Organisationen die Richtlinien des Handelsministers überprüfen. Die spezifischen Richtlinien werden eher früher als später veröffentlicht und innerhalb eines Jahres nach der EO finalisiert.
Das Verteidigungsschutzgesetz
Aufgrund seiner spezifischen Natur beruft sich die Anordnung auf den Defense Protection Act, der Organisationen verpflichtet, die Regierung über jedes KI-Modell zu informieren, das die öffentliche Gesundheit, Sicherheit oder nationale Sicherheit ernsthaft gefährden könnte. Organisationen müssen der Regierung Risikobewertungen vorlegen, um sicherzustellen, dass KI-Modelle die technischen Schwellenwerte und Standards erfüllen, um die Konformität zu gewährleisten.
Das Ministerium für Energie und Heimatschutz Die verschiedenen Risiken, die von den KI-Modellen ausgehen könnten, werden bewertet, darunter spezifische Bedrohungen wie Terrorismus und die Herstellung von Massenvernichtungswaffen (nuklear und biologisch). Das DHS muss außerdem einen KI-Sicherheitsrat einrichten, der über den verantwortungsvollen Einsatz von KI in kritischer Infrastruktur berät.
Deep Fakes
Ein weiterer zentraler Bereich der KI ist die zunehmende Fähigkeit der KI, Deepfakes, wie Texte, Bilder, Töne und Videos, die kaum von menschlich erstellten Inhalten zu unterscheiden sind. Der Grund zur Besorgnis hat sich in den letzten Jahren noch verstärkt, da „Deep Fakes“ als potenziell wahlentscheidend und trügerisch für Verbraucher gelten.
Abschnitt 4.5(c) der Executive Order fordert das Handelsministerium auf, die Gefahren von „Deep Fakes“ durch die Entwicklung und Bereitstellung von Best Practices zur Erkennung KI-generierter Inhalte zu verringern. Die EO empfiehlt dringend, KI-generierte Inhalte wie Fotos und Videos mit Wasserzeichen zu versehen.
Unterstützung der Belegschaft
Abschnitt 6(b) der EO konzentriert sich in erster Linie auf die Unterstützung amerikanischer Arbeitnehmer und darauf, sicherzustellen, dass KI das Leben der Arbeitnehmer verbessert, ohne ihre Rechte zu beeinträchtigen oder die allgemeine Arbeitszufriedenheit zu mindern. Der Arbeitsminister wird Arbeitgebern Richtlinien zur Verfügung stellen, um die schädlichen Auswirkungen von KI auf die Arbeitnehmer zu mildern.
Fairer Markt & Wachstum
Die EO konzentriert sich auf Sicherheits- und Schutzvorschriften und legt zudem einen Schwerpunkt auf Zukunft, Innovation und technologisches Wachstum. Die Executive Order zielt darauf ab, Amerikas Position im Bereich KI auf globaler Ebene durch die Förderung von Innovation und Zusammenarbeit zu stärken. Die USA werden ihre Wettbewerbsfähigkeit durch Maßnahmen zur Förderung der KI-Entwicklung, einschließlich Maßnahmen zur Anwerbung ausländischer Talente, sichern.
Die EO muss möglicherweise verfeinert werden
Nachdem sich viele Abgeordnete, Bürgerrechtsorganisationen, Industrieverbände und andere mit der 111 Seiten umfassenden Verordnung befasst haben, herrscht vorsichtiger Optimismus. Es besteht Einigkeit darüber, dass die Verordnung ihre Grenzen hat: Sie ist ein positiver Schritt, aber erst der Anfang.
Hier sind einige Bereiche, die verbessert werden müssen:
Fairness und Voreingenommenheit bei KI
Es gibt eine anhaltende Debatte über Fairness und Voreingenommenheit im Umgang mit KI. Viele Bürgerrechtsorganisationen sind der Ansicht, dass die Verordnung nicht weit genug geht, um die realen Probleme zu lösen, die sich aus KI-Modellen ergeben – insbesondere im Hinblick auf Strafen, wenn KI-Systeme gefährdete und marginalisierte Gruppen beeinträchtigen oder schädigen.
Training der KI zur Schadensbegrenzung
Viele stimmen den Werten der Executive Order in Bezug auf Datenschutz, Sicherheit, Vertrauen und Schutz zu. Es muss jedoch mehr darüber nachgedacht werden, wie KI-Modelle trainiert und entwickelt werden, um zukünftige Schäden zu minimieren, bevor KI überhaupt verbreitet wird. Viele fordern den Kongress auf, Gesetze zu verabschieden, die Schutzmaßnahmen integrieren, die Fairness in den Vordergrund stellen, anstatt die potenziellen Schäden nach der Entwicklung zu berücksichtigen. Dies ist eine Gelegenheit für den Kongress, aktiv zu werden und solide Standards für Voreingenommenheit, Risiko und Verbraucherschutz zu schaffen.
Innovation
Auf der anderen Seite befürchten viele Branchenführer, dass die EO Innovationen in vielen Wachstumsbranchen hemmen könnte. Die Berichtspflichten für große KI-Modelle stehen im Mittelpunkt der Probleme, da viele der Meinung sind, dass sie offene KI-Systeme übermäßig regulieren und so den Markteintritt von Technologieunternehmen einschränken. Dies unterstreicht den erheblichen Ausbau des Einflusses der Bundesregierung auf Innovation und die Zukunft der KI-Entwicklung.
Eingeschränkter Umfang
Die Durchführungsverordnung enthält einige Einschränkungen hinsichtlich des Schutzes der Verbraucherdaten, vor allem aufgrund der Notwendigkeit eines bundesweiten Datenschutzgesetzes. Da der Schwerpunkt auf der Verbesserung der staatlichen Verwaltung für die KI-Governance liegt, gilt die Verordnung nicht unbedingt für den privaten Sektor.
Wie BigID Unternehmen bei der Einhaltung neuer und aufkommender KI-Vorschriften unterstützen kann
Die Executive Order zur KI ist ein wichtiger Schritt, um das Potenzial von KI zu nutzen und gleichzeitig die spezifischen Herausforderungen zu bewältigen. Sie spiegelt das Engagement der US-Regierung wider, Innovation, Wirtschaftswachstum und nationale Sicherheit voranzutreiben und gleichzeitig eine verantwortungsvolle und ethische Entwicklung und Nutzung von KI zu gewährleisten.
Die Zukunft der KI in Amerika, die durch diese Executive Order geprägt wird, ist vielversprechend für die Gesellschaft. Hier bei BigIDWir verstehen, dass KI die Effizienz steigern, Innovationen fördern und Automatisierung ermöglichen soll, aber das beginnt mit verantwortungsvolle Adoption, ethische Standards und angemessene KI-Governance.
Generative KI und LLMs haben neue Risiken mit sich gebracht, die mit großen Mengen an unstrukturierte DatenDies kann zu Datenlecks, Sicherheitsverletzungen und Compliance-Verstößen führen. Unternehmen, die Innovationen vorantreiben und die KI-Einführung beschleunigen möchten, müssen wissen, ob die von KI trainierten Daten sicher verwendet werden können und den Unternehmensrichtlinien und -vorschriften entsprechen.
BigID kann unstrukturierte Daten für LLM und Konversations-KI finden, katalogisieren und verwalten. Dies ist der Grundstein für eine sichere und verantwortungsvolle KI-Einführung. Mit BigID können Unternehmen KI besser verwalten, schützen und steuern – mit Sicherheitsprotokollen, die das Risiko reduzieren. Zero Trust ermöglichen, Minderung der Bedrohung durch Insiderrisikenund Sicherung unstrukturierter Daten in der gesamten Datenlandschaft.
Vereinbaren Sie eine Demo mit unseren Experten um zu sehen, wie BigID Ihrem Unternehmen dabei helfen kann, KI zu steuern und Risiken zu reduzieren.