Die rasante Entwicklung Künstlicher Intelligenz (KI) bringt nicht nur Fortschritte, sondern auch neue Herausforderungen mit sich. Ein zentrales Thema ist die Haftung für KI-Halluzinationen – Situationen, in denen KI-Systeme falsche oder irreführende Informationen generieren. Ein bemerkenswertes Beispiel hierfür ist das Urteil des Landgerichts Kiel vom 29. Februar 2024 (Az. 6 O 151/23), das die Verantwortlichkeit von Unternehmen für durch KI verursachte Fehler beleuchtet.
Sachverhalt: Fehlende menschliche Kontrolle über KI-generierte Inhalte
In dem verhandelten Fall betrieb die Beklagte eine Plattform für Wirtschaftsinformationen, die automatisiert Daten aus öffentlichen Registern bezog und veröffentlichte. Durch die Nutzung einer KI-gestützten Software wurde fälschlicherweise angegeben, dass die klagende Gesellschaft aufgrund von Vermögenslosigkeit gemäß § 394 FamFG gelöscht worden sei. Diese Information war unzutreffend und führte zu einer Klage auf Unterlassung seitens der betroffenen Gesellschaft.
Rechtliche Würdigung: Verletzung des Unternehmenspersönlichkeitsrechts
Das Landgericht Kiel stellte fest, dass die Veröffentlichung der falschen Information das Unternehmenspersönlichkeitsrecht der Klägerin verletzte. Gemäß § 1004 BGB analog in Verbindung mit Art. 2 Abs. 1 und Art. 19 Abs. 3 GG sah das Gericht die Voraussetzungen für einen Unterlassungsanspruch als erfüllt an. Besonders betonte das Gericht, dass die Automatisierung der Datenerhebung und ein allgemeiner Haftungsausschluss die Beklagte nicht von ihrer Verantwortung entbinden. Die Gefahr einer erneuten Veröffentlichung fehlerhafter Daten wurde als gegeben angesehen, da die Beklagte weiterhin auf ihr automatisiertes System vertraute, ohne dessen Ergebnisse ausreichend zu überprüfen.
Urteil: Verpflichtung zur Unterlassung und Sicherstellung der Datenkorrektheit
Das Gericht entschied zugunsten der Klägerin und verpflichtete die Beklagte zur Unterlassung der Verbreitung falscher Informationen. Dieses Urteil unterstreicht die Notwendigkeit, dass Unternehmen, die KI-gestützte Systeme einsetzen, geeignete Qualitätssicherungsmaßnahmen implementieren müssen, um Fehlinformationen zu vermeiden. Ein bloßer Hinweis auf die Automatisierung oder ein Haftungsausschluss genügt nicht, um der Verantwortung zu entgehen.
Einordnung in den Problemkreis „Nutzung von KI“
Dieses Urteil verdeutlicht die Risiken, die mit der Nutzung von KI-Systemen verbunden sind, insbesondere wenn diese ohne ausreichende menschliche Kontrolle eingesetzt werden. KI-Halluzinationen, also die Generierung falscher oder irreführender Inhalte durch KI, können erhebliche rechtliche Konsequenzen haben. Unternehmen sind daher verpflichtet, die Ergebnisse ihrer KI-Systeme sorgfältig zu überprüfen und dürfen sich nicht blind auf deren Richtigkeit verlassen. Die Implementierung von Kontrollmechanismen und regelmäßigen Überprüfungen ist unerlässlich, um die Integrität der bereitgestellten Informationen sicherzustellen und rechtliche Haftungsrisiken zu minimieren.
Insgesamt zeigt das Urteil des Landgerichts Kiel, dass die Verantwortung für durch KI generierte Inhalte letztlich beim Betreiber liegt. Es ist daher essenziell, dass Unternehmen beim Einsatz von KI-Systemen stets die möglichen Risiken im Blick behalten und entsprechende Vorkehrungen treffen, um Fehler zu vermeiden.