Mit Urteil vom 12. Mai 2026 (Az.: 4 UKl 3/25) hat der 4. Zivilsenat des Oberlandesgerichts (OLG) Hamm in einem Verfahren der Verbraucherzentrale Nordrhein-Westfalen e.V. gegen die Aesthetify GmbH juristisches Neuland betreten: Es handelt sich um die erste veröffentlichte Entscheidung in Deutschland, die sich mit der Frage befasst, inwiefern unzutreffende Antworten von KI-Chatbots als irreführende geschäftliche Handlungen im Sinne des Gesetzes gegen den unlauteren Wettbewerb (UWG) gelten.
Das Gericht verurteilte die Beklagte zur Unterlassung bestimmter Facharztbezeichnungen, die von einem auf ihrer Webseite eingesetzten Chatbot frei erfunden und verbreitet wurden. Die Entscheidung thematisiert damit grundlegend die Verantwortung von Unternehmen für fehlerhafte Aussagen („Halluzinationen“) Künstlicher Intelligenz im geschäftlichen Verkehr.
(Hinweis: Aktuell liegt der Volltext der Entscheidung noch nicht vor, sondern lediglich eine offizielle Pressemitteilung des OLG Hamm. Die vollständige Entscheidung wird erst veröffentlicht, sobald die schriftlichen Urteilsgründe vorliegen.)
Sachverhalt: KI-Chatbot von „Dr. Rick und Dr. Nick“ erfindet Facharzttitel
Die beklagte Aesthetify GmbH betreibt eine Webseite, auf der Kundinnen, Kunden und Patienten mit einem Chatbot kommunizieren können. Hinter dem Unternehmen stehen die aus einschlägigen TV-Formaten und Social-Media-Kanälen bekannten Ärzte „Dr. Rick und Dr. Nick“. Über das automatisierte System auf ihrer Webseite ließen sich Termine buchen und Fragen in Echtzeit beantworten.
Auf konkrete Anfragen antwortete der Chatbot wiederholt, die beiden Ärzte seien „Fachärzte für plastische und ästhetische Chirurgie“, „Fachärzte für ästhetische Medizin“ und „Fachärzte für ästhetische Behandlungen“. Das Problem: Diese spezifischen Facharztbezeichnungen existierten in der Realität nicht.
Die Verbraucherzentrale Nordrhein-Westfalen e.V. mahnte die Beklagte daraufhin ab und forderte eine strafbewehrte Unterlassungserklärung. Zwar wurde der Chatbot in der Folgezeit deaktiviert, die geforderte Unterlassungserklärung gab die Beklagte jedoch nicht ab. Daraufhin reichte die Verbraucherzentrale Unterlassungsklage ein.
Rechtliche Bewertung: Erste obergerichtliche Klärung der Zurechenbarkeit
Das vorliegende Urteil ist die erste veröffentlichte deutsche Entscheidung, die sich detailliert mit der Frage befasst, wann KI-Falschaussagen wettbewerbswidrig nach dem UWG sind. Der 4. Zivilsenat des OLG Hamm entschied, dass die umstrittenen Chatbot-Antworten unzulässige geschäftliche Handlungen der Beklagten gemäß § 5 Abs. 1, Abs. 2 Nr. 3 UWG darstellen.
Nach § 5 Abs. 1 UWG handelt unlauter, wer eine irreführende geschäftliche Handlung vornimmt, die geeignet ist, Verbraucher zu einer geschäftlichen Entscheidung zu veranlassen, die sie andernfalls nicht getroffen hätten. Dies wird in § 5 Abs. 2 Nr. 3 UWG konkretisiert – unter anderem für falsche Angaben über die Befähigung, den Status oder die Zulassung eines Unternehmers. Die erfundenen Facharztqualifikationen stellen genau solche unwahren Angaben dar.
Die Kernfrage: Wem wird die KI-Aussage zugerechnet?
Die Beklagte argumentierte, die unzutreffenden Antworten der KI seien ihr nicht als eigene geschäftliche Handlung zuzurechnen. Diesem Argument erteilte der Senat eine klare Absage. Selbst wenn die Beklagte den Chatbot ausschließlich mit korrekten Datensätzen trainiert hätte, trage sie die volle Verantwortung für die unstreitigen Falschangaben über die Titel ihrer Geschäftsführer.
Das Gericht stellte klar: Ein Chatbot ist kein „Dritter“ im Sinne des Gesetzes. Ein Rückgriff auf die bloßen Voraussetzungen einer Verkehrssicherungspflicht ist damit verwehrt. Da einer generativen KI keine eigene Rechtspersönlichkeit zukommt, muss zwingend das Verhalten der natürlichen oder juristischen Person bewertet werden, die die KI kommerziell zum Einsatz bringt.
Konsequenzen für die Praxis: Volle Verantwortung für KI-generierte Inhalte
Das Urteil des OLG Hamm hat weitreichende Folgen für den Einsatz von KI-Chatbots und virtuellen Assistenten im geschäftlichen Verkehr:
Kein Verweis auf die Technik: Unternehmen können sich nicht pauschal darauf berufen, dass „die KI einen Fehler gemacht hat“ und ihnen dies nicht zuzurechnen sei.
Prüfpflichten: Wer KI-Chatbots im Kundenservice oder Vertrieb einsetzt, muss deren korrekte Funktionsweise sicherstellen. Dies erfordert ein sauberes Setup („Prompting“) sowie regelmäßige Überprüfungen der Datensätze und Ausgaben.
Haftungsrisiko: Die Verantwortung kann im Außenverhältnis nicht einfach auf den KI-Anbieter oder die Technologie abgewälzt werden. Falsche Angaben über Qualifikationen oder Unternehmensleistungen sind irreführend und führen zu Unterlassungsansprüchen.
Stärkung des Verbraucherschutzes: Wettbewerbsverbände haben nun eine klare obergerichtliche Argumentationsgrundlage, um gegen halluzinierende KI-Systeme von Unternehmen vorzugehen.
Da die Revision zum Bundesgerichtshof (BGH) zugelassen wurde, bleibt eine abschließende höchstrichterliche Klärung der Zurechnungsfrage abzuwarten. Bis dahin bietet die Entscheidung des OLG Hamm Unternehmen eine erste rechtliche Orientierung für den Einsatz von KI-Chatbots.
Gerichtliche Entscheidungen geben eine Orientierung, ersetzen aber keine Prüfung des konkreten Einzelfalls. Weitere Informationen zur individuellen rechtlichen Unterstützung finden Sie hier:
Leistungen und FAQ im KI-Recht➔
Alle weiteren relevanten Entscheidungen deutscher Gerichte zum Thema Künstliche Intelligenz sind hier chronologisch aufgelistet:
Übersicht zur KI-Rechtsprechung➔