Wenn die KI eine harmlose Frau zur Terroristin erklärt
Der Fall der Marietje Schaakes ist bizarr, eine harmlose Politikerin wird als Terroristin dargestellt und weiß im Grunde nicht, wie dieser Irrtum korrigiert werden kann. BlenderBot 3, eine KI von Meta, setzte diese Idee in die Welt. Diese Darstellung und Einschätzung verbreitete sich und hatte schwere Nachteile für die Betroffene.
Wenn Anwälte Urteile erfinden lassen
Dieser Reputationsschaden durch KI hat eine andere Dimension als windschiefe falsche Hausarbeiten von Achtklässlern in Wuppertal über die Elefanten im Zoo gefertigt werden, die mittels KI Unsinn verzapfen. Das geht auch weiter als die Peinlichkeit in einem New Yorker Rechtsstreit „Roberto Mata vs. Avianca Inc.“ (Schadenersatz gegen eine Fluggesellschaft) ein Anwalt dabei erwischt wurde, dass sein Schriftsatz Musterurteile enthielt, die eine andere künstliche Intelligenz einfach erfunden hatte.
Sammlung von Fehltritten der KI
Die Internetseite https://incidentdatabase.ai/blog/sammelt inzwischen Vorfälle dieser Art. Musterklagen laufen zurzeit in den USA. Es bleibt abzuwarten, ob und wann die KI Überwachungsgesetze Wirkung entfalten. Der deutsche oder europäische Ansatz, dass KI von Menschen überwacht werden muss, erinnert an die Brandwachen des Mittelalters, die auf Kirchtürmen Wache hielten und Alarm schlugen, um die Bürger bei Brandgefahr zu wecken. KI hat aber eine andere Dimension: Im Grunde schaut der übermüdete mittelalterliche Brandwächter gerade einem Raketenstart zu.
Übertragung von Prinzipien aus dem Umweltrecht zur Einhegung der KI
Wir brauchen dringend Normen und Grundsätze, die die Künstliche Intelligenz regulieren. Gegebenenfalls können Prinzipien wie das Vorsorgeprinzip, des Verursacherprinzip und das Kooperationsprinzip aus dem Umweltrecht auf die Regulierung von KI übertragen werden.
Vorsorgeprinzip
Das Vorsorgeprinzip sagt einfach gesagt aus, dass Maßnahme oder Tätigkeiten nur durchgeführt werden dürfen, wenn in der (wissenschaftlichen) Gemeinschaft Konsens besteht, dass keine Schäden drohen. Bevor gehandelt wird, muss daher die Unschädlichkeit der Handlung nachgewiesen werden. Dies führt zum Besorgnisgrundsatz: Extremschäden und unbekannte Risiken müssen ausgeschlossen werden. Niemand darf zum Beispiel Stoffe in das Grundwasser einleiten, wenn zu besorgen ist, dass Schäden eintreten. Besorgnis ist eine rationale Einschätzung, dass eine Gefahr vorliegen könnte. Dieser Gedanke könnte auch auf die Regulierung von Künstlicher Intelligenz übertragen werden. Demnach dürfen diese Systeme das „Versuchslabor“ erst verlassen, wenn keine Gefahr für die Gesellschaft droht.
Verursacherprinzip
Das Verursacherprinzip verlangt, dass Folgen des Handelns dem Verursacher anzulasten sind. Sollte jemand Schäden verursachen, muss derjenige auch für die Kosten aufkommen. Hierdurch soll ein Schaden von vornherein verhindert werden. Es erfolgt somit ein Zusammenspiel mit dem Vorsorgeprinzip. Es ist bisher nicht abzuschätzen, welche Gefahren vonseiten der künstlichen Intelligenz drohen. Wichtiger scheint der Besorgnisgrundsatz nach dem Vorsorgeprinzip zu sein. Dieses Prinzip könnte demnach begrenzt auf die Regulierung von Künstlicher Intelligenz übertragen werden.
Kooperationsprinzip
Nach dem Kooperationsprinzip wird die Vermeidung von Schäden als kollektive Aufgabe der Gesellschaft verstanden. Auch dieser Gedanke könnte auf die Regulierung von künstlicher Intelligenz übertragen werden. Zu beachten ist hierbei allerdings, dass bei der Entwicklung solcher Systeme natürlich Konkurrenz zwischen den beteiligten Unternehmen um die großen Gewinne besteht.