Haftung für KI-generierte Aussagen auf X durch Grok

Mit Beschluss vom 23. September 2025 hat das Landgericht Hamburg entschieden: Auch dann, wenn eine Persönlichkeitsrechtsverletzung durch eine Künstliche Intelligenz begangen wird, haftet der Betreiber des Accounts, der diese Äußerung öffentlich verbreitet – unabhängig davon, ob der Inhalt menschlichen oder maschinellen Ursprungs ist.

Der Fall: KI-Aussage auf X verletzt Persönlichkeitsrecht

Im konkreten Fall hatte der X-Account „@grok“ – betrieben von xAI, dem von Elon Musk gegründeten KI-Unternehmen – auf einen Nutzerbeitrag reagiert und eine Liste von Organisationen veröffentlicht, denen unterstellt wurde, stark von staatlicher Förderung abhängig zu sein. Unter den Genannten: der Antragsteller, der die Aussage als unwahr zurückwies.

Das Gericht gab ihm recht: Die Behauptung sei prozessual unwahr, verletze das allgemeine Persönlichkeitsrecht und sei zu unterlassen. Entscheidend: Dass die Äußerung durch eine KI generiert wurde, entlastete die Account-Betreiberin nicht. Sie haftet, weil sie den Beitrag über ihren öffentlich zugänglichen X-Account verbreitet und sich damit zu eigen gemacht hat.

Warum das Urteil alle betrifft

Die Entscheidung ist nicht nur für Unternehmen relevant, sondern für jeden, der mit KI-basierten Diensten in Berührung kommt – sei es als Nutzer, als Anbieter oder als Betroffener einer KI-generierten Aussage:

  • Wer eine KI-Plattform wie Grok, ChatGPT oder andere öffentlich einsetzt, trägt Verantwortung für die generierten Inhalte – unabhängig davon, ob sie von Menschen oder Maschinen stammen.
  • Wer von einer solchen Äußerung betroffen ist – etwa durch falsche Tatsachenbehauptungen – hat grundsätzlich Anspruch auf rechtlichen Schutz, selbst wenn der Inhalt nicht von einer Person, sondern von einer KI stammt.
  • Plattformbetreiber, Influencer, Blogger oder Organisationen, die KI-Tools in der öffentlichen Kommunikation einsetzen, sollten wissen: Die Veröffentlichung KI-generierter Aussagen zieht dieselben rechtlichen Folgen nach sich wie jede menschliche Äußerung.

Offene Rechtsfrage: Was gilt bei privaten Nutzeranfragen?

Die Entscheidung betrifft explizit eine öffentlich auf X (vormals Twitter) abrufbare Äußerung. Doch was passiert, wenn ein Nutzer eine private Abfrage an ein KI-System wie Grok stellt – also ohne jegliche öffentliche Verbreitung – und die Antwort enthält eine ehrverletzende Unwahrheit?

Diese Konstellation ist juristisch bislang kaum geklärt. Fraglich ist:

  • Ob eine nicht-öffentliche Antwort rechtlich als „Verbreitung“ oder „Veröffentlichung“ gilt.
  • Ob ein Schaden entstehen kann, wenn die Antwort nur der Anfragende liest.
  • Ob dieselben Maßstäbe wie bei öffentlichen Äußerungen anzuwenden sind.

Solange keine Außenwirkung besteht, dürfte eine Haftung schwer begründbar sein. Dennoch sollten Unternehmen, die KI in Kundenkommunikation oder Beratung einsetzen, sehr genau prüfen, welche Inhalte in welchen Kontexten generiert werden – und welche Kontrolle sie darüber haben.

Fazit

Die Entscheidung des Landgerichts Hamburg zeigt unmissverständlich: Wer öffentlich kommuniziert – auch durch KI – haftet für die Inhalte. Eine Entlastung mit dem Verweis auf „künstliche Autorenschaft“ ist ausgeschlossen, sobald eine Verbreitung über den eigenen Account erfolgt.


LG Hamburg
Beschluss vom 23.09.2025
Az. 324 O 461/25
GRUR-RS 2025, 27056