Haftungsfrage bei KI: Wer trägt die Verantwortung für digitale Fehltritte?
  1. Startseite
  2. Wirtschaft

Wenn die KI Mist baut: Wer zahlt für digitale Fehltritte?

KommentareDrucken

Ein KI-generierter Roboter sitzt im Gefängnis und liest ein Gesetzbuch.
Wer haftet dafür, wenn die Künstliche Intelligenz einen Fehler macht? © Anika Zuschke/DALL-E (KI-generiert)

So innovativ sie scheint, auch KI macht Fehler – teils in dramatischen Lebenslagen. Wer ist dafür verantwortlich und wie gut ist das Rechtssystem gewappnet?

Frankfurt – Selbstfahrende Autos, KI-betriebene Chatbots und KI-Diagnosen im Gesundheitswesen. Mit der wachsenden Präsenz von künstlicher Intelligenz (KI) in unserem Alltag stellt sich immer dringender die Frage: Wer ist eigentlich schuld, wenn die KI einen Fehler macht? Wer haftet für falsche, irreführende oder sogar schädliche Inhalte, die von KI-Systemen generiert werden? IPPEN.MEDIA hat bei einem Fachanwalt für Urheber- und Medienrecht in Berlin nachgefragt.

Air Canada verliert Gerichtsverfahren: KI-Chatbot liefert falsche Informationen

Die Fluggesellschaft Air Canada hat im Februar 2024 ein Gerichtsverfahren verloren, nachdem der KI-Chatbot des Unternehmens einen Passagier mit falschen Informationen versorgt hatte. Sie musste dem geschädigten Kunden daraufhin Schadensersatz in Höhe von über 800 Dollar zukommen lassen. Das Gericht argumentierte laut Forbes, dass „Air Canada“ für die falschen Informationen verantwortlich sei, die der halluzinierende Chatbot auf seiner Website bereitgestellt habe und die im Widerspruch zu den Richtlinien der Fluggesellschaft standen.

In diesem Fall war der Schaden noch vergleichsweise gering. In Arizona wurde 2018 eine Frau von einem selbstfahrenden Uber-Auto getötet. Wie Reuters berichtet, sei die Frau mit ihrem Fahrrad über eine Straße gegangen, als ein Mensch auf dem Fahrersitz des Wagens unaufmerksam war. Für schuldig erklärten die Staatsanwälte in diesem Fall den Ersatzfahrer und nicht die KI-Entwickler.

KI-Systeme unberechenbar: Wer ist verantwortlich für generierte Inhalte?

Aufgrund der Unberechenbarkeit von KI-Systemen drängt sich mit Blick auf solche Beispiele die rechtliche Frage auf: Wer ist verantwortlich für KI-generierte Inhalte oder Produkte? Denn im Gegensatz zu klassischen Software-Diensten ist bei KI-Systemen nicht immer gänzlich nachvollziehbar, wie ihre Inhalte entstehen. Künstliche Intelligenz nutzt auf Trainingdaten basierte Statistiken und Wahrscheinlichkeiten, um Entscheidungen zu treffen – selbst ihre Ingenieure können Reuters zufolge nicht vollständig erklären, wie die Antworten zustande kommen.

„Bei herkömmlichen Software-Angeboten (nicht KI) geht die deutsche Rechtsprechung bislang davon aus, dass im Grundsatz keine Haftung des Software-Anbieters besteht, wenn die Software durch Nutzerbedienung illegale Ergebnisse produziert“, erklärt Dr. Jan Bernd Nordemann, Fachanwalt für Urheber- und Medienrecht, auf Nachfrage von IPPEN.MEDIA.

Urheberrechtsstreit um KI-Inhalte: Wer produziert die Inhalte wirklich?

Seines Erachtens müsse das bei KI-Systemen aber etwas differenzierter gehandhabt werden. „Das Anbieten eines KI-Systems ist mehr als die Bereitstellung einer Software, die dem Nutzer eine Nutzung nach eigener Entscheidung ermöglicht. Das KI-System kann den Output maßgeblich inhaltlich bestimmen“, so Nordemann.

Dieser Annahme wird auch durch den Urheberrechtsstreit von KI-Inhalten Nachdruck verliehen. Die New York Times hat im vergangenen Jahr wegen Urheberrechtsverletzungen gegen OpenAI und Microsoft geklagt, da die Unternehmen demnach ungefragt Zeitungsartikel zum Trainieren ihrer KI-Modelle genutzt hätten. Einige KI-Anbieter argumentieren nun laut dem Wall Street Journal, dass ihre KI die generierten Inhalte im Vergleich zu den Originaltexten „erheblich verändern“ würde – weswegen sie nicht gegen den Urheberrechtsschutz verstießen. Allerdings würde das wiederum bedeuten, dass die KI-Unternehmen ihre generierten Inhalte nicht einfach nur zur Verfügung stellen, sondern zu einem erheblichen Maße selbst produzieren.

Experte zur Haftungsfrage von KI-Inhalten: Wer setzte den Schwerpunkt des Outputs?

Nordemann schlägt folgende Lösung vor: „Meine Auffassung ist deshalb, danach die Haftung für illegalen KI-Output zu verteilen, wer den Schwerpunkt der Bestimmung des KI-Outputs setzt. Ist die KI bloß ein technisches Werkzeug des Nutzers und der Schwerpunkt der Bestimmung des KI-Outputs liegt beim Nutzer, haftet der KI-Nutzer.“ Ein Beispiel wäre ihm zufolge, dass der KI-Nutzer über die Prompts bestimme, wie der KI-Output aussehen soll und insbesondere auch die illegalen Teile des Outputs über seine Prompts produziere. Als Prompt wird ein Befehl bzw. eine Eingabe bezeichnet, die ein KI-Modell zur Erzeugung einer Antwort erhält.

Anders solle es aber ablaufen, wenn der Schwerpunkt der Bestimmung des Outputs bei der generativen KI liege, fährt der Fachanwalt fort. „Beispielsweise wäre das der Fall, wenn der KI-Nutzer nur völlig untergeordnete Vorgaben in Form von Prompts gemacht und die KI selbständig den illegalen Inhalt ausgeworfen hat.“

„Deutsches Rechtssystem ist gut aufgebaut“ – Anwalt zur KI-Haftungsfrage

Insgesamt sieht Nordemann „das deutsche Rechtssystem im Hinblick auf die KI-Haftungsfrage gut aufgestellt“, diese lasse sich im deutschen Recht nach derzeitigem Stand ihm zufolge „ohne Gesetzesänderung auch mit den aktuellen Rechtsnormen lösen“. In jedem Fall gibt er den Tipp, den KI-Output vor einer öffentlichen Verwertung immer „selbst noch einmal auf Herz und Nieren“ zu überprüfen.

Denn alles in allem kann Künstliche Intelligenz eine deutlich größere Gefahr für Unternehmen darstellen, als „nur“ aufgrund von fehlerhaften KI-Chatbots den Ruf zu ruinieren. KI-generierte Fehldiagnosen im Gesundheitswesen können fatale Folgen haben. Der im März 2024 vom EU-Parlament verabschiedete AI-Act legt bereits erste Regulierungen für KI-Systeme mit hohem Risiko zugrunde. Inzwischen ploppen aber auch schon erste KI-Versicherungen im Internet auf, die Kosten für Rechtsstreitigkeiten im Zusammenhang mit einem KI-Produkt übernehmen – „damit Ihr Team mit Zuversicht voranschreiten kann“, so heißt es beispielsweise auf der Webseite des Anbieters „Vouch“. Hier wurde eine zukunftsträchtige Marktlücke wohl direkt erkannt und gefüllt.

Auch interessant

Kommentare