Der europäische Präzedenzfall: Richtungsweisendes Licht oder kontrastreicher Weg?
In Europa wird die Regulierungslandschaft durch mehrere erlassene und bevorstehende Rechtsakte bestimmt, wie z. B. den erwarteten EU AI Act. Das Vereinigte Königreich weist jedoch auf eine mögliche Abweichung vom europäischen Entwurf hin. In den USA hingegen wurde bisher weder eine analoge Maßnahme noch ein umfassendes Bundesgesetz zur Regelung der KI-Nutzung ernsthaft in Erwägung gezogen. Die Datenschutzgesetze der einzelnen Bundesstaaten können sich zwar auf KI-Systeme erstrecken, die bestimmte Arten personenbezogener Daten verarbeiten, doch gibt es derzeit keine nennenswerten bundesstaatlichen Gesetze.
Dennoch werden in den USA die Weichen für eine KI-Regulierung gestellt, wobei erste sektorspezifische Aktivitäten Hinweise auf die Ansichten der Bundesregierung zu KI und deren künftige Regulierung geben.
NIST: Entwicklung eines Rahmenwerks für AI-Risikomanagement
Ein wichtiger Akteur in dieser sich entwickelnden Landschaft ist das National Institute of Standards and Technology (NIST). Als Teil des US-Handelsministeriums hat das NIST im Januar 2023 sein AI Risk Management Framework 1.0 (RMF) veröffentlicht. Dieser freiwillige Leitfaden richtet sich an Technologieunternehmen, die KI-Systeme entwerfen, entwickeln, einsetzen oder nutzen. Er zielt darauf ab, die vielfältigen Risiken von KI zu managen und eine verantwortungsvolle und vertrauenswürdige Entwicklung und Nutzung von KI-Systemen zu fördern.
Die Rolle des NIST als Bundeskoordinator für KI-Normen versetzt es in eine strategische Position für die Zusammenarbeit mit US-amerikanischen und internationalen Regierungs- und Industrievertretern. Es trägt zur Entwicklung technischer Standards bei, um die Einführung von KI zu fördern, wie im Abschnitt "Technische KI-Standards" auf seiner Website beschrieben. Darüber hinaus wurde das NIST im Rahmen des National Defense Authorization Act for Fiscal Year 2021 beauftragt, ein freiwilliges Risikomanagement-Rahmenwerk für vertrauenswürdige KI-Systeme zu entwickeln, woraus das RMF entstand.
Das RMF bietet nützliche Einblicke in die Überlegungen, die die künftige KI-Regulierung wahrscheinlich beeinflussen werden. Wenn der Rahmen ausgereift ist, könnte er sogar als Industriestandard übernommen werden. Die RMF basiert auf der Erkenntnis, dass Menschen KI-Systeme oft als objektiv und gut funktionierend wahrnehmen, was ungewollt zu Schaden führen kann. Durch die Verbesserung der Vertrauenswürdigkeit eines KI-Systems können diese Risiken gemindert werden. Die RMF umreißt sieben Hauptmerkmale der Vertrauenswürdigkeit:
- Sicher: KI-Systeme sollten über Echtzeit-Überwachung, Rückhaltesysteme oder Interventionen verfügen, um physische oder psychische Schäden oder die Gefährdung von Menschenleben, Gesundheit oder Eigentum zu verhindern.
- Sicher und widerstandsfähig: KI-Systeme sollten über Protokolle verfügen, die vor Angriffen schützen und widrigen Ereignissen standhalten.
- Erklärbar und interpretierbar: Die Mechanismen und Ergebnisse eines KI-Systems sollten verständlich sein und in den richtigen Kontext gestellt werden.
- Verbesserte Privatsphäre: KI-Systeme sollten die menschliche Autonomie durch Wahrung von Anonymität, Vertraulichkeit und Kontrolle schützen.
- Fair, mit Kontrolle über schädliche Verzerrungen: KI-Systeme sollten Gerechtigkeit und Gleichheit fördern und systemische, rechnerische, statistische und kognitive Verzerrungen ausgleichen.
- Rechenschaftspflicht und Transparenz: KI-Systeme sollten den Personen, die mit ihnen interagieren, in den verschiedenen Phasen ihres Lebenszyklus Informationen zur Verfügung stellen und Praktiken und Kontrollmechanismen anwenden, um potenzielle Schäden zu verringern.
- Gültig und zuverlässig: KI-Systeme sollten durch laufende Tests oder Überwachung nachweisen, dass sie wie vorgesehen funktionieren.
Klingen diese Punkte vertraut? Vielleicht haben Sie über diese Aspekte bereits in unserem Artikel über die Vermeidung von Verzerrungen in der KI geschrieben.
Die RMF weist auch auf besondere Risiken von KI-Systemen hin, darunter potenzielle Risiken für die Privatsphäre aufgrund von Datenaggregationsmöglichkeiten, Urheberrechtsschutz von Trainingsdatensätzen, Probleme mit der Datenqualität, die sich auf die Vertrauenswürdigkeit auswirken, und der fehlende Konsens über robuste und überprüfbare Messmethoden und Metriken.
Um diese Risiken zu bewältigen, schlägt die RMF vier Kernfunktionen vor, die während des gesamten Lebenszyklus eines KI-Systems zum Einsatz kommen sollten: abbilden, messen, steuern und verwalten.
- Abbilden: Sammeln Sie genügend Informationen über ein KI-System, um Entscheidungen über dessen Design, Entwicklung oder Einsatz zu treffen.
- Messen: Implementierung von Tests, Bewertungen, Verifizierungen und Validierungsprozessen, um Managemententscheidungen zu treffen.
- Leiten: Entwickeln Sie eine Organisationskultur, die das KI-Risikomanagement in ihre Richtlinien und Abläufe einbezieht, diese effektiv umsetzt und Verantwortlichkeit, Vielfalt, Gleichberechtigung und Einbeziehung fördert.
- Verwalten: Überwachen und priorisieren Sie die Risiken von KI-Systemen und reagieren Sie auf Risikovorfälle und erholen Sie sich davon.
Das begleitende RMF-Playbook bietet umsetzbare Elemente, die Unternehmen bei der Implementierung dieser Kernfunktionen unterstützen.
FTC und FDA: Aufstrebende Akteure der Regulierung
Neben dem NIST haben auch andere Bundesbehörden ihren Beitrag zur KI geleistet. Die Federal Trade Commission (FTC) hat vorgeschlagen, Unternehmen, die KI einsetzen, genauer unter die Lupe zu nehmen. Die FTC hat Blogbeiträge veröffentlicht, in denen sie Unternehmen vor unlauteren oder irreführenden Praktiken warnt, einschließlich der Empfehlung, KI-Behauptungen zu kontrollieren und vor KI-Täuschungen beim Verkauf zu warnen.
Für Unternehmen, die KI-Technologien für die Entscheidungsfindung im Gesundheitswesen in Betracht ziehen, hat die Food and Drug Administration (FDA) ihre Absicht angekündigt, viele KI-gestützte klinische Entscheidungshilfen als Geräte zu regulieren.
Ein Hoffnungsschimmer für die Zukunft: Die Initiative von Senator Chuck Schumer
Während die von NIST, FTC und FDA unternommenen Schritte erste Anhaltspunkte dafür liefern, wie eine künftige KI-Regulierung in den USA aussehen könnte, fehlen in der aktuellen Landschaft konkrete Regeln, an denen sich US-KI-Unternehmen orientieren können. Eine Regulierung in irgendeiner Form scheint unvermeidlich, aber der Zeitplan bleibt ungewiss.
Eine vielversprechende Entwicklung ist, dass am 13. April 2023 Berichte auftauchten, wonach US-Senator Chuck Schumer im Kongress die Bemühungen um eine US-Regulierung für KI anführt. Obwohl es kaum Details gibt, werden sich die Vorschriften Berichten zufolge auf vier Leitplanken konzentrieren: Identifizierung der Person, die den Algorithmus trainiert hat, und der beabsichtigten Zielgruppe, Offenlegung der Datenquelle, Erklärung, wie der Algorithmus zu seinen Antworten kommt, sowie transparente und strenge ethische Grenzen.
Auch wenn unklar ist, wann dieser Rahmen Gesetz wird, stellt er einen wichtigen Schritt in Richtung Regulierung der KI in den Vereinigten Staaten dar.
Der Weg in die Zukunft
Je weiter wir in die Zukunft blicken, desto dringender wird die Notwendigkeit einer KI-Regulierung. Es ist ein komplexes und vielschichtiges Thema, das einen nuancierten, durchdachten und kooperativen Ansatz erfordert. Auch wenn wir nicht genau wissen, was vor uns liegt, so ist doch klar, dass die Regulierungslandschaft für KI in den USA langsam Gestalt annimmt. Wir werden diese Entwicklungen weiterhin aufmerksam verfolgen und freuen uns auf eine Zukunft, in der KI weiterhin Innovationen hervorbringen und gleichzeitig effektiv und verantwortungsvoll verwaltet werden kann.
Wie sehen Sie das? Welcher Ansatz ist besser geeignet für die Zukunft der KI und die offensichtlichen Auswirkungen, die sie auf globaler Ebene haben wird? Sicherlich kann es nicht der italienische Weg sein, ChatGPT zu verbieten. Bevorzugen Sie den europäischen Ansatz mit drei Regelungsebenen je nach den potenziellen Auswirkungen eines Tools oder den amerikanischen Ansatz?
Lassen Sie es uns wissen.