New York Times berichtet über erste Klagen wegen Reputationsschäden - Thomas Schulte

Reputationsrecht und KI – New York Times berichtet über erste Klagen wegen Reputationsschäden aufgrund von KI

Wenn die KI eine harmlose Frau zur Terroristin erklärt

Der Fall der Marietje Schaakes ist bizarr, eine harmlose Politikerin wird als Terroristin dargestellt und weiß im Grunde nicht, wie dieser Irrtum korrigiert werden kann. BlenderBot 3, eine KI von Meta, setzte diese Idee in die Welt. Diese Darstellung und Einschätzung verbreiteten sich und hatten schwere Nachteile für die Betroffene.

Klagen gegen KI Unternehmen

Viele Verleger sollen inzwischen Klagen gegen KI Unternehmen eingereicht haben, weil diese ihre Modelle mit Daten gefüttert haben sollen, die fremden Urheberrecht unterliegen. Hierzu gehört auch die New York Times aus den USA. 

Wenn Anwälte Urteile erfinden lassen

Dieser Reputationsschaden durch KI hat eine andere Dimension als windschiefe falsche Hausarbeiten von Achtklässlern in Wuppertal über die Elefanten im Zoo gefertigt werden, die mittels KI Unsinn verzapfen. Das geht auch weiter als die Peinlichkeit in einem New Yorker Rechtsstreit „Roberto Mata vs. Avianca Inc.“ (Schadenersatz gegen eine Fluggesellschaft) ein Anwalt dabei erwischt wurde, dass sein Schriftsatz Musterurteile enthielt, die eine andere künstliche Intelligenz einfach erfunden hatte.

Sammlung von Fehltritten der KI

Die Internetseite https://incidentdatabase.ai/blog/sammelt inzwischen Vorfälle dieser Art. Musterklagen laufen zurzeit in den USA. Es bleibt abzuwarten, ob und wann die KI Überwachungsgesetze Wirkung entfalten. Der deutsche oder europäische Ansatz, dass KI von Menschen überwacht werden muss, erinnert an die Brandwachen des Mittelalters, die auf Kirchtürmen Wache hielten und Alarm schlugen, um die Bürger bei Brandgefahr zu wecken. KI hat aber eine andere Dimension: Im Grunde schaut der übermüdete mittelalterliche Brandwächter gerade einem Raketenstart zu.

Übertragung von Prinzipien aus dem Umweltrecht zur Einhegung der KI

Wir brauchen dringend Normen und Grundsätze, die die Künstliche Intelligenz regulieren. Gegebenenfalls können Prinzipien wie das Vorsorgeprinzip, des Verursacherprinzip und das Kooperationsprinzip aus dem Umweltrecht auf die Regulierung von KI übertragen werden.

Vorsorgeprinzip

Das Vorsorgeprinzip sagt einfach gesagt aus, dass Maßnahme oder Tätigkeiten nur durchgeführt werden dürfen, wenn in der (wissenschaftlichen) Gemeinschaft Konsens besteht, dass keine Schäden drohen. Bevor gehandelt wird, muss daher die Unschädlichkeit der Handlung nachgewiesen werden. Dies führt zum Besorgnisgrundsatz: Extremschäden und unbekannte Risiken müssen ausgeschlossen werden. Niemand darf unter anderem Stoffe in das Grundwasser einleiten, wenn zu besorgen ist, dass Schäden eintreten. Besorgnis ist eine rationale Einschätzung, dass eine Gefahr vorliegen könnte. Dieser Gedanke könnte auch auf die Regulierung von Künstlicher Intelligenz übertragen werden. Demnach dürfen diese Systeme das „Versuchslabor“ erst verlassen, wenn keine Gefahr für die Gesellschaft droht.

Verursacherprinzip

Das Verursacherprinzip verlangt, dass Folgen des Handelns dem Verursacher anzulasten sind. Sollte jemand Schäden verursachen, muss derjenige auch für die Kosten aufkommen. Hierdurch soll ein Schaden von vornherein verhindert werden. Es erfolgt somit ein Zusammenspiel mit dem Vorsorgeprinzip. Es ist bisher nicht abzuschätzen, welche Gefahren vonseiten der künstlichen Intelligenz drohen. Wichtiger scheint der Besorgnisgrundsatz nach dem Vorsorgeprinzip zu sein. Dieses Prinzip könnte demnach begrenzt auf die Regulierung von Künstlicher Intelligenz übertragen werden.

Kooperationsprinzip

Nach dem Kooperationsprinzip wird die Vermeidung von Schäden als kollektive Aufgabe der Gesellschaft verstanden. Auch dieser Gedanke könnte auf die Regulierung von künstlicher Intelligenz übertragen werden. Zu beachten ist hierbei allerdings, dass bei der Entwicklung solcher Systeme natürlich Konkurrenz zwischen den beteiligten Unternehmen um die großen Gewinne besteht.

EU AI Act (Gesetz über künstliche Intelligenz)

Die Europäische Union hat mit dem EU AI Act (Gesetz über künstliche Intelligenz) eine umfassende Regulierung für den Einsatz von KI-Systemen eingeführt. Dieses Gesetz zielt darauf ab, die Sicherheit, Transparenz und Vertrauenswürdigkeit von KI-Anwendungen zu gewährleisten und tritt am 1. August 2024 in Kraft, wobei die vollständige Anwendung ab dem 1. August 2026 vorgesehen ist.

Die Verordnung (EU) 2024/1689: Ein einheitlicher Rahmen für künstliche Intelligenz in Europa

Künstliche Intelligenz (KI) verändert unsere Welt – von der Automatisierung bis hin zur Entscheidungsfindung. Mit der Verordnung (EU) 2024/1689 hat die Europäische Union einen wegweisenden rechtlichen Rahmen geschaffen, der Innovation fördert und gleichzeitig die Grundrechte schützt. In diesem Artikel werfen wir einen Blick auf die zentralen Inhalte, Ziele und Auswirkungen der neuen Verordnung.

Hintergrund der Verordnung

Die rasante Entwicklung von KI-Systemen stellt Regierungen und Gesellschaften weltweit vor Herausforderungen. Ohne klare Regeln könnten Risiken wie Diskriminierung, mangelnde Transparenz oder eine Beeinträchtigung der Grundrechte entstehen. Die Verordnung (EU) 2024/1689 zielt darauf ab, diese Risiken zu minimieren, Innovation zu fördern und gleiche Wettbewerbsbedingungen innerhalb der EU zu schaffen.

Die Ziele der Verordnung

Die Verordnung verfolgt mehrere übergeordnete Ziele:

  • Förderung von menschenzentrierter und vertrauenswürdiger KI.
  • Harmonisierung der Vorschriften innerhalb der EU, um einen funktionierenden Binnenmarkt zu gewährleisten.
  • Schutz der in der EU-Grundrechtecharta verankerten Werte wie Demokratie, Rechtsstaatlichkeit und Privatsphäre.

Wesentliche Inhalte der Verordnung

Definition von KI und Hochrisiko-Systemen

Die Verordnung definiert KI-Systeme als Technologien, die autonome Entscheidungen treffen oder Vorhersagen erstellen können. Hochrisiko-KI-Systeme umfassen Anwendungen wie biometrische Identifikationssysteme, kritische Infrastrukturen oder Systeme im Bereich Strafverfolgung.

Verbotene Praktiken

Um Bürgerinnen und Bürger zu schützen, verbietet die Verordnung bestimmte KI-Praktiken, darunter:

  • Manipulative Anwendungen, die die Entscheidungsfreiheit der Nutzer beeinträchtigen.
  • Diskriminierende Systeme, die Menschen nach Alter, Geschlecht oder anderen sensiblen Kriterien benachteiligen.
  • Soziale Bewertungen von Personen, wie sie in einigen Ländern praktiziert werden.

Anforderungen an Hochrisiko-KI-Systeme

Betreiber von Hochrisiko-KI-Systemen müssen strenge Anforderungen erfüllen, darunter:

  • Transparenzpflichten: Nutzer müssen klar informiert werden, wenn sie mit einem KI-System interagieren.
  • Dokumentation: Anbieter müssen die Funktionalität und Sicherheit der Systeme umfassend dokumentieren.
  • Regelmäßige Tests und Risikobewertungen.

Ausnahmen und Einschränkungen

Militärische Anwendungen und reine Forschungsprojekte sind von der Verordnung ausgenommen. Dies soll sicherstellen, dass Innovationen nicht behindert werden.

Die Rolle von Akteuren und Behörden

Anbieter und Betreiber von KI-Systemen tragen die Hauptverantwortung für die Einhaltung der Vorschriften. Zudem wird ein Europäisches Gremium für Künstliche Intelligenz (KI-Gremium) eingerichtet, das die Umsetzung und Weiterentwicklung der Verordnung überwacht.

Auswirkungen der Verordnung

Die Verordnung (EU) 2024/1689 macht die EU zu einem Vorreiter bei ethischer KI. Sie schafft Vertrauen bei Unternehmen und Verbrauchern, fördert Innovationen und stärkt den europäischen Binnenmarkt. Gleichzeitig setzt sie hohe Standards, die auch international als Vorbild dienen können, so z.B. die Diskussion in Asien. Derzeit gibt es in den USA keine umfassende Bundesgesetzgebung zum Thema KI, hier wird erwartet, dass 2025 eine Regulierung erfolgen wird.

 

 

Die Artikel Highlights

Empfehlung von Dr. Thomas Schulte wegen großer Erfahrung und erfolgreicher Prozessführung, z.B. Titelbeitrag im Magazin „Capital“, Ausgabe 07/2008.

Der Beitrag schildert die Sach- und Rechtslage zum Zeitpunkt der Erstellung. Internetpublikationen können nur einen ersten Hinweis geben und keine Rechtsberatung ersetzen.

Ein Beitrag aus unserer Reihe "So ist das Recht - rechtswissenschaftliche Publikationen von Dr. Schulte Rechtsanwalt" registriert bei DEUTSCHE NATIONALBIBLIOTHEK: ISSN 2363-6718
23. Jahrgang - Nr. 8843 vom 3. August 2023 - Erscheinungsweise: täglich - wöchentlich