OLG Hamburg: Entscheidungsgründe im KI-Foto-Verfahren veröffentlicht – Berufung gegen das LG Hamburg zurückgewiesen

Wir hatten am 11.12.2025 über das erstinstanzliche Urteil des LG Hamburg (27.09.2024, 310 O 227/23) berichtet. Inzwischen liegt die Berufungsentscheidung des Hanseatischen Oberlandesgerichts Hamburg vor – und vor allem: Die schriftlichen Entscheidungsgründe sind nun veröffentlicht.

Worum ging es?

Ein Fotograf wollte einem Verein untersagen lassen, seine Fotografie im Rahmen der Erstellung eines riesigen Bild-Text-Datensatzes zu vervielfältigen. Technisch lief es so: Aus einem bereits existierenden Datensatz wurden Bild-URLs extrahiert, die Bilder heruntergeladen und anschließend per Software mit den vorhandenen Bildbeschreibungen (z. B. Alternativtext) abgeglichen. Nicht passende Paare wurden aussortiert; im neu erstellten Datensatz wurden vor allem die Metadaten (insbesondere URL und Beschreibung) gespeichert. Die Downloads fanden in der zweiten Jahreshälfte 2021 statt.

Was ist der rechtliche Kern? § 44b UrhG (Text und Data Mining) greift – trotz Opt-out

Das OLG stellt klar: Schon der Abgleich „passt Bild zur Bildbeschreibung?“ ist eine automatisierte Analyse zur Gewinnung von Informationen und damit Text und Data Mining im Sinne von § 44b UrhG. Entscheidend ist dabei nicht, ob bereits in diesem Schritt ein „großer Erkenntnisgewinn“ entsteht oder ob das eigentliche KI-Training erst später erfolgt.

Der Dreh- und Angelpunkt war anschließend der Nutzungsvorbehalt (Opt-out) nach § 44b Abs. 3 UrhG. Das OLG bestätigt zwar, dass ein Vorbehalt grundsätzlich möglich ist – aber nur, wenn er bei online zugänglichen Werken in maschinenlesbarer Form erfolgt. Ein rein textlicher Vorbehalt in den Nutzungsbedingungen der Bildagentur genügte hier nach den konkreten Umständen nicht. Zusätzlich spielt der Zeitpunkt eine Rolle: Maßgeblich ist, ob ein Vorbehalt im Jahr 2021 technisch so gestaltet war, dass er in automatisierten Prozessen zuverlässig erkannt und verarbeitet werden konnte.

Warum hilft dem Fotografen auch § 44a UrhG nicht?

§ 44a UrhG (vorübergehende Vervielfältigungshandlungen) scheidet aus Sicht des OLG aus. Das gezielte Herunterladen einer Bilddatei, um sie mit spezieller Software zu analysieren, ist weder „flüchtig“ noch nur „begleitend“.

Und was ist mit der Forschungsschranke § 60d UrhG?

Neben § 44b UrhG hält das OLG – wie schon das LG – auch § 60d UrhG (Text und Data Mining für wissenschaftliche Forschung) im Ergebnis für einschlägig. Hervorgehoben werden dabei drei Punkte, die für Unternehmer und Projekte mit Forschungsbezug wichtig sind:

  1. Wissenschaftliche Forschung umfasst auch angewandte und technologische Forschung.
  2. Privilegiert ist nicht nur der „Erkenntnisschritt“ selbst: Auch vorbereitende Arbeitsschritte (wie Datensammlungen), die auf späteren Erkenntnisgewinn ausgerichtet sind, können erfasst sein.
  3. Zusammenarbeit mit Unternehmen ist nicht automatisch schädlich – kritisch wird es erst bei einer Public-Private-Partnership, in der ein privates Unternehmen bestimmenden Einfluss hat und zugleich bevorzugten Zugang zu Forschungsergebnissen erhält.

Was bedeutet das für Unternehmen?

  1. Datenpipeline und Dokumentation werden entscheidend: Wenn sich Projekte auf § 44b UrhG stützen, muss der Umgang mit Opt-outs organisatorisch und technisch belastbar sein.
  2. Opt-out ist kein „AGB-Satz“: Rechteinhaber müssen technisch nachlegen, wenn sie Text und Data Mining wirksam ausschließen wollen.
  3. Forschungskonstellationen sauber strukturieren: Bei § 60d UrhG sollte die Governance von Kooperationen so gestaltet sein, dass kein „bestimmender Einfluss“ und kein „bevorzugter Zugang“ eines Unternehmens entsteht.
  4. Die Sache ist noch nicht endgültig: Das OLG hat die Revision zum BGH zugelassen. Eine höchstrichterliche Leitentscheidung zu §§ 44b, 60d UrhG im Kontext KI-Training ist damit ausdrücklich angelegt.

Gericht / Datum / Aktenzeichen / Fundstelle

Hanseatisches Oberlandesgericht Hamburg (5. Zivilsenat)
Urteil vom 10.12.2025
Az. 5 U 104/24

Miturheberschaft bei Werbefotografie: Anweisungen und Vorgaben können zur Miturheberschaft führen

Das Landgericht Köln hat mit Urteil vom 12.11.2025 (Az. 14 O 5/23) eine interessante Entscheidung zur Miturheberschaft bei Fotografien getroffen. Die Entscheidung betrifft insbesondere die Praxis von Fotografen und Werbeagenturen – und könnte auch für künftige Fragen rund um die Schutzfähigkeit von KI-generierten Inhalten richtungsweisend sein.

Worum ging es konkret?

Ein Berufsfotograf hatte ein Bild im Rahmen einer Werbekampagne erstellt. Das Motiv war nicht spontan entstanden, sondern wurde bewusst arrangiert – basierend auf detaillierten Briefings und Skizzen der betreuenden Agenturmitarbeiter. Diese nutzten das Bild später auf ihrer Webseite zur Eigenwerbung. Der Fotograf sah sich als Alleinurheber und verlangte Lizenzgebühren und Abmahnkosten – erfolglos.

Kernaussage des Urteils

Das Gericht stellte fest, dass sowohl der Fotograf als auch die Kreativdirektoren der Agentur Miturheber des Bildes im Sinne von § 8 Abs. 1 UrhG sind. Die kreative Bildidee stammte von der Agentur: Die bewusst inszenierte Szenerie inklusive inhaltlicher Aussage und kompositorischer Elemente war aus Sicht des Gerichts urheberrechtlich schutzfähig.

Die fotografische Umsetzung des Arrangements stellte zwar ebenfalls eine schöpferische Leistung dar – doch die originelle Bildidee als prägendes Element wurde von den Agenturmitarbeitern entwickelt. Damit war eine getrennte Verwertung der Beiträge nicht möglich – es lag ein Gemeinschaftswerk vor.

Referenznutzung innerhalb der Miturheberschaft

Nach § 8 Abs. 2 Satz 2 UrhG darf ein Miturheber den anderen Miturhebern die Nutzung des gemeinsamen Werkes zur Darstellung des eigenen Schaffens nicht verweigern. Dies gilt auch dann, wenn – wie hier – das Werk zur Eigenwerbung im Portfolio verwendet wird. Entscheidend ist, dass es sich nicht um eine kommerzielle Verwertung handelt. Dass der Kläger das Foto selbst auf seiner Webseite als Referenz nutzte, bestätigte die Zulässigkeit der Nutzung durch die übrigen Miturheber zusätzlich.

Was bedeutet das für die Praxis von Unternehmen und Agenturen?

  • Wer kreative Inhalte vorgibt, gestaltet oder in Briefings konkretisiert, kann urheberrechtlich geschützter Miturheber eines Werkes sein – selbst wenn er dieses nicht technisch umsetzt.
  • Die Miturheberschaft führt dazu, dass das Werk von allen Urhebern zur Eigenwerbung verwendet werden darf – sofern nichts anderes vereinbart ist.
  • Vertragliche Regelungen über die Nutzung und Rechte an gemeinsamen Werken sind unerlässlich – insbesondere, wenn mehrere Personen schöpferisch beteiligt sind.

Relevanz für die Diskussion um KI-generierte Inhalte

Das Urteil des LG Köln steht in einer urheberrechtlichen Linie, die auch für die rechtliche Einordnung von KI-Erzeugnissen wegweisend sein könnte. Die zentrale Frage lautet: Können Menschen, die einer KI ein konkretes, schöpferisches Konzept vorgeben, als Urheber oder Miturheber gelten?

Hierzu ist ein Blick auch auf die Entscheidung des LG München I („Paris Bar“, Urt. v. 07.08.2023 – 42 O 7449/22) aufschlussreich: Dort wurde einem Künstler Miturheberschaft an einem Gemälde zuerkannt, obwohl er es nicht selbst gemalt hatte. Entscheidend war, dass er das Motiv konzipiert, arrangiert und die gestalterischen Vorgaben gemacht hatte. Die Umsetzung übernahm ein anderer – aber der schöpferische Gehalt stammte von ihm.

Das LG Köln wendet dieselbe Logik auf das Medium Fotografie an: Wer das Bildmotiv geistig schafft, kann auch dann Miturheber sein, wenn die technische Ausführung durch einen Dritten – oder künftig vielleicht durch eine KI – erfolgt. Maßgeblich bleibt die schöpferische Prägung durch menschliche Gestaltungskraft.

Fazit

Das Urteil des LG Köln macht deutlich, dass urheberrechtlicher Schutz nicht nur auf Ausführungshandlungen beschränkt ist. Auch kreative Vorleistungen – etwa die Entwicklung einer Bildidee – können zu einer Miturheberschaft führen. Diese Linie ist nicht nur für Fotografen und Agenturen von Bedeutung, sondern auch für die künftige rechtliche Einordnung von KI-generierten Inhalten.


Gericht: Landgericht Köln
Datum: 12.11.2025
Aktenzeichen: 14 O 5/23

Urheberrecht und Künstliche Intelligenz: Erste Berufungsentscheidung zum KI-Training mit urheberrechtlich geschützten Inhalten

Künstliche Intelligenz stellt das Urheberrecht vor neuartige Herausforderungen. Insbesondere das massenhafte Einbeziehen urheberrechtlich geschützter Werke in Trainingsdatensätze wirft die Frage auf, ob und unter welchen Bedingungen dies zulässig ist. Mit der Entscheidung des Hanseatischen Oberlandesgerichts vom 10. Dezember 2025 liegt nun erstmals eine obergerichtliche Berufungsentscheidung zur Nutzung geschützter Inhalte beim KI-Training vor. Zuvor hatte das Landgericht Hamburg im September 2024 als erstes Gericht in Deutschland zu dieser Thematik Stellung bezogen. Das nun ergangene Berufungsurteil bestätigt die Linie der Vorinstanz und konkretisiert die Anwendung der Schrankenregelungen des Urheberrechts im Kontext Künstlicher Intelligenz.

Das Verfahren: Urheber gegen KI-Datensatzanbieter

Im Kern des Rechtsstreits stand die Nutzung einer Fotografie durch einen gemeinnützigen Verein, der einen frei zugänglichen Datensatz mit mehreren Milliarden Bild-Text-Paaren zur Verfügung stellt – ein Projekt, das ausdrücklich dem Training generativer KI-Modelle dient. Der Fotograf sah in der automatisierten Vervielfältigung seiner Fotografie – durch Download von der Website einer Bildagentur – eine Verletzung seiner Urheberrechte. Der Verein verwies auf die urheberrechtlichen Schrankenregelungen, insbesondere das Text- und Data-Mining (§ 44b UrhG) und die Nutzung zu wissenschaftlichen Zwecken (§ 60d UrhG).

Die Entscheidung des Landgerichts Hamburg

Das Landgericht Hamburg hatte die Klage mit Urteil vom 27.09.2024 abgewiesen. Das Gericht sah in der konkreten Nutzung eine zulässige Handlung im Rahmen des Text- und Data-Minings. Zwar sei das Herunterladen eines Bildes grundsätzlich eine urheberrechtlich relevante Vervielfältigung, doch greife hier die Schrankenregelung ein, da die Nutzung auf eine automatisierte Analyse zum Zweck der Informationsgewinnung gerichtet gewesen sei. Der vom Kläger geltend gemachte Nutzungsvorbehalt sei nicht maschinenlesbar gewesen und daher nicht wirksam. Die spätere Nutzung des Datensatzes durch Dritte – etwa KI-Modelle – sei für die urheberrechtliche Bewertung der konkreten Vervielfältigungshandlung nicht entscheidend.

Die Berufungsentscheidung des Hanseatischen Oberlandesgerichts

Mit Urteil vom 10.12.2025 hat das Hanseatische Oberlandesgericht die Entscheidung der Vorinstanz bestätigt und die Berufung zurückgewiesen. Das Gericht stellte klar, dass bereits der Abgleich zwischen Bild und Bildbeschreibung eine automatisierte Analyse im Sinne des § 44b UrhG darstellt. Dabei sei nicht erforderlich, dass ein unmittelbarer Erkenntnisgewinn im wissenschaftlichen Sinne erzielt werde. Auch vorbereitende Maßnahmen für KI-Training, wie der Aufbau eines Datensatzes, fallen unter die Schranke, wenn sie der späteren Analyse dienen. Zudem sei der geltend gemachte Nutzungsvorbehalt nicht in maschinenlesbarer Form erfolgt, was gesetzlich aber zwingend gefordert sei. Die Richter ließen ausdrücklich die Revision zum Bundesgerichtshof zu.

Bedeutung für Urheber und KI-Entwicklung

Diese Entscheidung hat grundsätzliche Bedeutung sowohl für Urheber als auch für Entwickler und Betreiber von KI-Systemen. Sie zeigt, dass urheberrechtlich geschützte Inhalte unter bestimmten Bedingungen – vor allem im Rahmen der Schrankenregelungen – ohne Zustimmung der Rechteinhaber für KI-bezogene Analyseprozesse genutzt werden dürfen. Urheber, die dem widersprechen wollen, müssen ihre Nutzungsvorbehalte künftig in technisch eindeutiger und maschinenlesbarer Weise erklären. Zugleich macht das Urteil deutlich, dass auch nicht-kommerzielle Akteure wie Vereine urheberrechtliche Schranken nutzen können, sofern ihr Zweck mit Forschung oder Analyseprozessen vereinbar ist.

Einordnung im Kontext weiterer Rechtsprechung

Die Entscheidung ist auch deshalb bemerkenswert, weil sie das erste erstinstanzliche Urteil zu diesem Thema – ebenfalls vom LG Hamburg – bestätigt und damit für größere Rechtssicherheit sorgt. Küerzlich hat das Landgericht München I im Verfahren GEMA gegen OpenAI über die urheberrechtliche Zulässigkeit von KI-Training mit Musikwerken entschieden. Über dieses zweite wichtige Urteil zum Thema „KI und Urheberrecht“ haben wir bereits in unserem Blogbeitrag vom 14.11.2025 berichtet. Beide Verfahren markieren den Beginn einer neuen urheberrechtlichen Auslegungspraxis in Zeiten generativer Künstlicher Intelligenz.

Ausblick

Das Thema bleibt dynamisch: Die Revision zum Bundesgerichtshof ist zugelassen, womit eine höchstrichterliche Klärung in greifbare Nähe rückt. Die Entscheidungen aus Hamburg und München zeigen jedoch bereits, dass deutsche Gerichte bereit sind, die geltenden urheberrechtlichen Schranken auch auf neuartige technische Konstellationen wie KI-Training anzuwenden. Dabei liegt der Fokus zunehmend auf der Frage, ob ein Nutzungsvorbehalt maschinenlesbar und rechtlich wirksam erklärt wurde – ein Aspekt, der künftig sowohl Urheber als auch Plattformbetreiber vor technische und juristische Herausforderungen stellt.


Gericht: Hanseatisches Oberlandesgericht
Datum: 10.12.2025
Aktenzeichen: 5 U 104/24 (Vorinstanz: LG Hamburg, 310 O 227/23)

Haftung für KI-generierte Aussagen auf X durch Grok

Mit Beschluss vom 23. September 2025 hat das Landgericht Hamburg entschieden: Auch dann, wenn eine Persönlichkeitsrechtsverletzung durch eine Künstliche Intelligenz begangen wird, haftet der Betreiber des Accounts, der diese Äußerung öffentlich verbreitet – unabhängig davon, ob der Inhalt menschlichen oder maschinellen Ursprungs ist.

Der Fall: KI-Aussage auf X verletzt Persönlichkeitsrecht

Im konkreten Fall hatte der X-Account „@grok“ – betrieben von xAI, dem von Elon Musk gegründeten KI-Unternehmen – auf einen Nutzerbeitrag reagiert und eine Liste von Organisationen veröffentlicht, denen unterstellt wurde, stark von staatlicher Förderung abhängig zu sein. Unter den Genannten: der Antragsteller, der die Aussage als unwahr zurückwies.

Das Gericht gab ihm recht: Die Behauptung sei prozessual unwahr, verletze das allgemeine Persönlichkeitsrecht und sei zu unterlassen. Entscheidend: Dass die Äußerung durch eine KI generiert wurde, entlastete die Account-Betreiberin nicht. Sie haftet, weil sie den Beitrag über ihren öffentlich zugänglichen X-Account verbreitet und sich damit zu eigen gemacht hat.

Warum das Urteil alle betrifft

Die Entscheidung ist nicht nur für Unternehmen relevant, sondern für jeden, der mit KI-basierten Diensten in Berührung kommt – sei es als Nutzer, als Anbieter oder als Betroffener einer KI-generierten Aussage:

  • Wer eine KI-Plattform wie Grok, ChatGPT oder andere öffentlich einsetzt, trägt Verantwortung für die generierten Inhalte – unabhängig davon, ob sie von Menschen oder Maschinen stammen.
  • Wer von einer solchen Äußerung betroffen ist – etwa durch falsche Tatsachenbehauptungen – hat grundsätzlich Anspruch auf rechtlichen Schutz, selbst wenn der Inhalt nicht von einer Person, sondern von einer KI stammt.
  • Plattformbetreiber, Influencer, Blogger oder Organisationen, die KI-Tools in der öffentlichen Kommunikation einsetzen, sollten wissen: Die Veröffentlichung KI-generierter Aussagen zieht dieselben rechtlichen Folgen nach sich wie jede menschliche Äußerung.

Offene Rechtsfrage: Was gilt bei privaten Nutzeranfragen?

Die Entscheidung betrifft explizit eine öffentlich auf X (vormals Twitter) abrufbare Äußerung. Doch was passiert, wenn ein Nutzer eine private Abfrage an ein KI-System wie Grok stellt – also ohne jegliche öffentliche Verbreitung – und die Antwort enthält eine ehrverletzende Unwahrheit?

Diese Konstellation ist juristisch bislang kaum geklärt. Fraglich ist:

  • Ob eine nicht-öffentliche Antwort rechtlich als „Verbreitung“ oder „Veröffentlichung“ gilt.
  • Ob ein Schaden entstehen kann, wenn die Antwort nur der Anfragende liest.
  • Ob dieselben Maßstäbe wie bei öffentlichen Äußerungen anzuwenden sind.

Solange keine Außenwirkung besteht, dürfte eine Haftung schwer begründbar sein. Dennoch sollten Unternehmen, die KI in Kundenkommunikation oder Beratung einsetzen, sehr genau prüfen, welche Inhalte in welchen Kontexten generiert werden – und welche Kontrolle sie darüber haben.

Fazit

Die Entscheidung des Landgerichts Hamburg zeigt unmissverständlich: Wer öffentlich kommuniziert – auch durch KI – haftet für die Inhalte. Eine Entlastung mit dem Verweis auf „künstliche Autorenschaft“ ist ausgeschlossen, sobald eine Verbreitung über den eigenen Account erfolgt.


LG Hamburg
Beschluss vom 23.09.2025
Az. 324 O 461/25
GRUR-RS 2025, 27056

GEMA vs OpenAI: Volltextveröffentlichung des Urteils und meine Bewertung

Am 11.11.2025 hat das LG München I der Klage der GEMA gegen OpenAI im Wesentlichen stattgegeben. An diesem Tag lag lediglich eine Pressemitteilung des Gerichts vor, die bereits an diesem Tag „heiß diskutiert“ worden ist. Nun wurde das Urteil im Volltext veröffentlicht, so dass man jetzt auch die Gründe, die zur Verurteilung führten, nachlesen kann. Da es hier auf auch juristische Feinheiten ankommt, heute mal ein Blogbeitrag, der etwas mehr an „Juristendeutsch“ enthält als üblich.

Das Gericht bejaht in dem Streitfall zwischen der GEMA und OpenAI weitreichende Unterlassungs- und Schadensersatzansprüche wegen Urheberrechtsverletzungen an Liedtexten. Die Entscheidung ist wegweisend, da sie erstmals die technische Realität einer vom Gericht angeführten Memorisierung urheberrechtlich geschützter Werke im Modell juristisch einordnet.

I. Die Memorisierung als Vervielfältigung im Modell

Das LG München I unterscheidet mehrere Phasen beim Einsatz generativer Sprachmodelle:

Pre-Training

In dieser Phase wird das Modell mit großen Mengen an Texten trainiert. Die Texte werden in Token umgewandelt und in numerische Vektoren transformiert. Das neuronale Netz passt seine Gewichte an, um semantische und syntaktische Zusammenhänge zu lernen. Die Inhalte aus den Trainingsdaten – darunter auch Liedtexte – fließen dabei direkt in die Modellstruktur ein.

Memorisierung

Das Gericht sieht die Memorisierung als Ergebnis der Pre-Training-Phase: Inhalte, die häufig oder stabil in den Trainingsdaten vorkamen, werden so verinnerlicht, dass sie mit hoher Wahrscheinlichkeit bei passenden Prompts reproduziert werden können. Die Inhalte sind somit „im Modell gespeichert“. Das Modell funktioniert in diesen Fällen wie eine Datenbank – Inhalte sind fixiert und jederzeit abrufbar.

Decoding und Ausgabe (Output)

In dieser Phase wird der deterministische Softmax-Output des Modells durch sogenannte Decoding-Strategien (z. B. Sampling, Temperature-Parameter) in menschlich lesbare Texte überführt. Zwar können hier Varianzen auftreten, doch bei memorisierten Inhalten ist der Output laut Gericht meist stabil und konsistent. Die Zufälligkeit betreffe in der Regel nur Einleitung oder Kontext, nicht den memorisierten Kerninhalt.

Das Gericht macht also klar: Bereits in der Pre-Training-Phase erfolgt die urheberrechtlich relevante Nutzung in Form einer Vervielfältigung. Die spätere Ausgabe belege nur, was im Modell zuvor gespeichert wurde.

Das Gericht qualifiziert sodann die Memorisierung urheberrechtlich geschützter Liedtexte in den Parametern der Large Language Models (LLMs) als eine (dann wohl weitere) urheberrechtlich relevante Vervielfältigung im Sinne von § 16 Abs. 1 UrhG:

„Memorisierung liegt vor, wenn sich in den nach dem Training spezifizierten Parametern eine vollständige Übernahme der Trainingsdaten findet.“

Die Memorisierung stelle eine körperliche Festlegung des Werks dar, auch wenn die Daten in Form von Wahrscheinlichkeitswerten und Vektoren zerlegt sind. Eine Vervielfältigung gemäß § 16 UrhG erfasse jede körperliche Festlegung eines Werks, die geeignet ist, das Werk den menschlichen Sinnen auf irgendeine Art mittelbar oder unmittelbar wahrnehmbar zu machen.

Die Reproduzierbarkeit der Texte durch einfache Prompts (sog. Regurgitation) beweise, dass die Texte im Modell fixiert und mittelbar wahrnehmbar seien. Der technische Vorgang sei dabei aufgrund der technologieneutralen Auslegung des Vervielfältigungsrechts unerheblich.

II. Abgrenzung zur Text- und Data-Mining-Schranke

Das Gericht verneint eine Rechtfertigung dieser Memorisierung durch die Schrankenbestimmung des § 44b UrhG (Text- und Data-Mining, sog. TDM-Schranke). Hierzu nimmt das Gericht eine strikte Unterscheidung zwischen den verschiedenen Phasen des Trainingsprozesses vor.

1. Reichweite der TDM-Schranke

Die TDM-Schranke deckt nach Auffassung des Gerichts lediglich solche Vervielfältigungen ab, die zur Vorbereitung und Durchführung der Datenanalyse selbst erforderlich sind. Diese erste Phase, das Extrahieren und die Überführung des Materials in einen Trainingskorpus, ist vom Zweck des TDM gedeckt, da hier lediglich nicht-schöpferische Informationen (Muster, Trends, Korrelationen) gewonnen werden.

Die Vorschriften decken erforderliche Vervielfältigungen beim Zusammenstellen des Datenkorpus in Phase 1 (s.o.), nicht aber weitergehende Vervielfältigungen im Modell in Phase 2. Werden wie vorliegend beim Training in Phase 2 nicht nur Informationen aus Trainingsdaten extrahiert, sondern Werke vervielfältigt, stellt dies kein Text und Data Mining dar.

2. Memorisierung als Zwecküberschreitung

Die Memorisierung in der zweiten Phase (dem Training) überschreitet den von § 44b Abs. 2 UrhG geforderten Zweck:

„Die Memorisierung der streitgegenständlichen Liedtexte überschreitet hingegen eine solche Auswertung und ist daher kein bloßes Text- und Data-Mining.“

Die Vervielfältigungen im Modell, die zur Memorisierung führen, dienen nicht der weiteren Datenanalyse, sondern manifestieren sich als eine Verwertungshandlung des Werkes selbst, da das Werk in den Modellparametern vollständig übernommen wird. Damit entfällt die Prämisse der TDM-Schranke, dass die Verwertungsinteressen des Urhebers nicht berührt werden. Eine analoge Anwendung der Schranke verbietet sich, da hierdurch die berechtigten Interessen der Rechteinhaber verletzt und der durch die europarechtliche InfoSoc-Richtlinie geforderte hohe Schutzstandard unterlaufen würde.

III. Meine Kritik vor allem an der Auslegung der TDM-Schranke

Meiner Meinung nach legt das Gericht § 44b UrhG in einer Weise zu eng aus, die den technischen Realitäten des KI-Trainings nicht gerecht wird.

Das Gericht nimmt eine künstliche Trennung zwischen der zulässigen Vervielfältigung zur Datenanalyse und der unzulässigen Memorisierung im trainierten Modell vor. Für mich stellt der Vorgang des Trainings eines LLM einen untrennbaren, komplexen Akt des Text- und Data-Mining dar, der in seiner Gesamtheit auf die Extraktion von Mustern und Korrelationen gerichtet ist. Die Memorisierung ist keine eigenständige, beabsichtigte Verwertungshandlung, sondern ein unvermeidlicher oder zumindest schwer vermeidbarer technischer Nebeneffekt des an sich gestatteten TDM-Prozesses.

Die restriktive Qualifizierung der Memorisierung als vom TDM-Zweck nicht gedeckte Vervielfältigung macht die Schrankenbestimmung für die Anwendung auf moderne, generative KI-Modelle praktisch wertlos. Dies konterkariert den eigentlich gewünschten europarechtlichen Zweck, die Entwicklung von KI in der EU zu fördern. Ich halte es für wenig überzeugend, dass der Betreiber die Texte im Modell vervielfältigt habe, um sie später wieder wahrnehmbar zu machen. Der primäre Zweck ist die Generierung neuer Inhalte, nicht die Reproduktion der Inputs. Diese Auslegung droht, die Wirtschaftlichkeit des gesamten LLM-Trainings unter Verwendung urheberrechtlich geschützter Daten zu stark zu beschränken.

Zudem stellt sich die Frage, was mit der Verurteilung überhaupt erreicht wurde:

Das Landgericht München I hat die Beklagten bezüglich der Memorisierung unter anderem zu folgender Unterlassung verurteilt:

Die Beklagten werden verurteilt, es zu unterlassen, die im Tenor näher bezeichneten Werke (die neun Liedtexte) in ihren Large Language Model-Modellen zu vervielfältigen und/oder diese der Öffentlichkeit zugänglich zu machen und/oder auf sonstigem Wege zu verwerten, soweit keine Lizenzierung vorliegt.

Was hat die Klägerseite durch diesen Unterlassungstenor gewonnen?

Der Klägerseite ist durch die Feststellung der Täterhaftung und des grundsätzlichen Schadensersatzanspruchs sicherlich ein wichtiger Erfolg gelungen.

Allerdings wirft die Formulierung des Unterlassungstenors die Frage nach ihrer Reichweite auf.

Die Verurteilung zur Unterlassung der Vervielfältigung zielt auf die Zukunft und soll die Wiederholungsgefahr (die Vervielfältigung von Neuem) verhindern. Die Memorisierung (die Vervielfältigung in das Modell) hat aber bereits stattgefunden.

Verpflichtet dieser Unterlassungstenor die Beklagte überhaupt dazu, ein „Machine Unlearning“ durchzuführen?

Diese Frage ist juristisch strittig. Ein Unterlassungsanspruch richtet sich primär auf die Beendigung der Wiederholungsgefahr. Die Entfernung der memorisierten Werke aus den Modellparametern – das sogenannte „Machine Unlearning“ – ist jedoch eine aktive, technisch aufwendige Handlung. Sie würde dem Beseitigungsanspruch zuzuordnen sein, der von der Klägerseite nach dem Tenor nicht ausdrücklich zugesprochen wurde.

Zwar könnte man argumentieren, dass die Beibehaltung der rechtswidrigen Vervielfältigung (Memorisierung) eine fortdauernde Begehung darstellt, deren Beendigung die Beseitigung implizieren könnte. Die herrschende Meinung neigt jedoch dazu, eine so weitreichende, aktive Eingriffspflicht in das Produkt des Verletzers nur bei einem explizit titulierten Beseitigungsanspruch anzunehmen. Die Beklagten könnten argumentieren, lediglich die erneute Vervielfältigung und die Regurgitation unterbinden zu müssen, nicht jedoch die aufwendige Korrektur des bereits existierenden, trainierten Modells. Ohne einen expliziten Beseitigungstenor bleibt die Verpflichtung zum „Machine Unlearning“ fraglich.


Gericht: LG München I (42. Zivilkammer)

Datum: 11.11.2025

Aktenzeichen: 42 O 14139/24

Fundstelle: GRUR-RS 2025, 30204

Urteil GEMA gegen Open AI

Die auf das Urheberrecht spezialisierte 42. Zivilkammer des Landgerichts München I hat mit Urteil vom heutigen Tag den von der GEMA gegen zwei Unternehmen der Unternehmensgruppe Open AI geltend gemachten Ansprüchen auf Unterlassungs-, Auskunfts- und Schadensersatz im Wesentlichen stattgegeben (Az. 42 O 14139/24).

Soweit die Klägerin darüber hinaus Ansprüche auf Grund einer Verletzung des allgemeinen Persönlichkeitsrechts wegen fehlerhafter Zuschreibung veränderter Liedtexte geltend gemacht hat, hat die Kammer die Klage abgewiesen.

Das Urteil betrifft die Liedtexte neun bekannter deutscher Urheberinnen und Urheber (darunter „Atemlos“ von Kristina Bach oder „Wie schön, dass du geboren bist“ von Rolf Zuckowski).

Die Klägerin ist eine Verwertungsgesellschaft und hat die Ansprüche als solche geltend gemacht. Zur Begründung hatte sie vorgetragen, die Liedtexte seien in den Sprachmodellen der Beklagten memorisiert und würden bei Nutzung des Chatbots auf einfache Anfragen der Nutzer als Antworten (Outputs) in weiten Teilen originalgetreu ausgegeben.

Die Beklagten sind Betreiber von Sprachmodellen und darauf basierender Chatbots. Sie hatten gegen die erhobenen Ansprüche eingewandt, ihre Sprachmodelle speicherten oder kopierten keine spezifischen Trainingsdaten, sondern reflektierten in ihren Parametern, was sie basierend auf dem gesamten Trainingsdatensatz erlernt hätten. Da die Outputs nur als Folge von Eingaben von Nutzern (Prompts) generiert werden würden, seien nicht die Beklagten, sondern der jeweilige Nutzer als Hersteller des Outputs für diese verantwortlich. Ohnehin seien eventuelle Rechtseingriffe von den Schranken des Urheberrechts, insbesondere der Schranke für das sogenannten Text- und Data-Mining gedeckt.

Nach der Entscheidung der erkennenden Kammer stehen der Klägerin die geltend gemachten Ansprüche sowohl aufgrund der gegebenen Vervielfältigung der Texte in den Sprachmodellen als auch durch ihre Wiedergabe in den Outputs zu.

Sowohl durch die Memorisierung in den Sprachmodellen als auch durch die Wiedergabe der Liedtexte in den Outputs des Chatbot lägen Eingriffe in die urheberrechtlichen Verwertungsrechte vor. Diese seien nicht durch Schrankenbestimmungen, insbesondere die Schranke für das Text und Data Mining gedeckt.

Im Einzelnen:

Nach Überzeugung der Kammer seien die streitgegenständlichen Liedtexte reproduzierbar in den Sprachmodellen 4 und 4o der Beklagten enthalten. Aus der informationstechnischen Forschung sei bekannt, dass Trainingsdaten in Sprachmodellen enthalten sein können und sich als Outputs extrahieren lassen. Dies werde als Memorisierung bezeichnet. Eine solche liege vor, wenn die Sprachmodelle beim Training dem Trainingsdatensatz nicht nur Informationen entnähmen, sondern sich in den nach dem Training spezifizierten Parametern eine vollständige Übernahme der Trainingsdaten finde. Eine solche Memorisierung sei durch einen Abgleich der Liedtexte, die in den Trainingsdaten enthalten waren, mit den Wiedergaben in den Outputs festgestellt. Angesichts der Komplexität und Länge der Liedtexte sei der Zufall als Ursache für die Wiedergabe der Liedtexte ausgeschlossen.

Durch die Memorisierung sei eine Verkörperung als Voraussetzung der urheberrechtlichen Vervielfältigung der streitgegenständlichen Liedtexte durch Daten in den spezifizierten Parametern des Modells gegeben. Die streitgegenständlichen Liedtexte seien reproduzierbar in den Modellen festgelegt. Gemäß Art. 2 InfoSoc-RL liege eine Vervielfältigung „auf jede Art und Weise und in jeder Form“ vor. Die Festlegung in bloßen Wahrscheinlichkeitswerten sei hierbei unerheblich. Neue Technologien wie Sprachmodelle wären vom Vervielfältigungsrecht nach Art. 2 InfoSoc-RL und § 16 UrhG erfasst. Nach der Rechtsprechung des Unionsgerichtshofes sei für die Vervielfältigung ausreichend eine mittelbare Wahrnehmbarkeit, die gegeben sei, wenn das Werk unter Einsatz technischer Hilfsmittel wahrgenommen werden könne.

Diese Vervielfältigung in den Modellen sei weder durch die Schrankenbestimmungen des Text und Data Mining des § 44b UrhG noch durch § 57 UrhG als unwesentliches Beiwerk gedeckt.

Zwar unterfielen Sprachmodelle grundsätzlich dem Anwendungsbereich der Text und Data Mining Schranken. Die Vorschriften deckten erforderliche Vervielfältigungen beim Zusammenstellen des Datenkorpus für das Training, wie etwa die Vervielfältigung eines Werks durch seine Überführung in ein anderes (digitales) Format oder Speicherungen im Arbeitsspeicher. Hintergrund hierfür sei der Gedanke, dass diese Vervielfältigungen lediglich zu nachfolgenden Analysezwecken erstellt würden und damit die Verwertungsinteressen des Urhebers am Werk nicht beeinträchtigten. Da diese für das Text und Data Mining rein vorbereitenden Handlungen kein Verwertungsinteresse berührten, sehe das Gesetz keine Vergütungspflicht gegenüber dem Urheber vor.

Würden beim Training – wie hier – nicht nur Informationen aus Trainingsdaten extrahiert, sondern Werke vervielfältigt, stelle dies nach Auffassung der Kammer kein Text und Data Mining dar. Die Prämisse des Text und Data Mining und der diesbezüglichen Schrankenbestimmungen, dass durch die automatisierte Auswertung von bloßen Informationen selbst keine Verwertungsinteressen berührt sind, greife in dieser Konstellation nicht. Im Gegenteil, durch die gegebenen Vervielfältigungen im Modell werde in das Verwertungsrecht der Rechteinhaber eingegriffen.

Eine andere, mutmaßlich technik- und innovationsfreundliche Auslegung, die ebenfalls Vervielfältigungen im Modell von der Schranke als gedeckt ansehen wollte, verbiete sich angesichts des klaren Wortlauts der Bestimmung. Auch eine analoge Anwendung komme nicht in Betracht. Selbst wenn man eine planwidrige Regelungslücke annehmen wollte, weil dem Gesetzgeber die Memorisierung und eine damit einhergehende dauerhafte urheberrechtlich relevante Vervielfältigung in den Modellen nicht bewusst gewesen sein sollte, mangele es an einer vergleichbaren Interessenlage. Die Schrankenregelung normiere mit der Zulässigkeit vorbereitender Vervielfältigungshandlungen beim Text und Data Mining einen Sachverhalt, bei dem die Verwertungsinteressen der Urheber nicht gefährdet seien, weil bloße Informationen extrahiert und das Werk als solches gerade nicht vervielfältigt werde. Bei Vervielfältigungen im Modell werde die Werkverwertung hingegen nachhaltig beeinträchtigt und die berechtigten Interessen der Rechteinhaber hierdurch verletzt. Die Urheber und Rechteinhaber würden durch eine analoge Anwendung der Schrankenbestimmung, die keine Vergütung für die Verwertung vorsieht, somit schutzlos gestellt. Das Risiko der Memorisierung stamme allein aus der Sphäre der Beklagten. Bei einer Analogie der Schranke würde ausschließlich der verletzte Rechteinhaber dieses Risiko tragen.

Mangels Vorliegens eines Hauptwerks stellten die Vervielfältigungen der streitgegenständlichen Liedtexte kein unzulässiges Beiwerk nach § 57 UrhG dar. Entgegen der Ansicht der Beklagten seien die Liedtexte nicht neben dem gesamten Trainingsdatensatz als nebensächlich und verzichtbar anzusehen. Hierfür wäre erforderlich, dass es sich bei dem gesamten Trainigsdatensatz ebenfalls um ein urheberrechtlich geschütztes Werk handele.

Der Eingriff der Beklagten in die Verwertungsrechte der Klägerin sei auch nicht durch eine Einwilligung der Rechteinhaber gerechtfertigt, da das Training von Modellen nicht als eine übliche und erwartbare Nutzungsart zu werten sei, mit der der Rechteinhaber rechnen müsse.

Auch durch Wiedergabe der Liedtexte in den Outputs des Chatbots hätten die Beklagten nach der Entscheidung der Kammer unberechtigt die streitgegenständlichen Liedtexte vervielfältigt und öffentlich zugänglich gemacht. In den Outputs wären die originellen Elemente der Liedtexte stets wiedererkennbar.

Hierfür seien die Beklagten und nicht die Nutzer verantwortlich. Die Outputs seien durch einfach gehaltene Prompts generiert worden. Die Beklagten betrieben die Sprachmodelle, für die die Liedtexte als Trainingsdaten ausgewählt und mit denen sie trainiert worden sind. Sie seien für die Architektur der Modelle und die Memorisierung der Trainingsdaten verantwortlich. Damit hätten die von den Beklagten betriebenen Sprachmodelle die ausgegebenen Outputs maßgeblich beeinflusst, der konkrete Inhalt der Outputs werde von den Sprachmodellen generiert.

Der Eingriff in die Verwertungsrechte durch die Outputs sei ebenfalls nicht durch eine Schrankenbestimmung gedeckt.

Das Urteil ist nicht rechtskräftig.

Zum Hintergrund:

Normen:

Art. 2, 3 InfoSoc-RL, Art. 4 DSM-RL

Pressemitteilung des LG München I vom 11.11.25

KI-Stimme geklont: YouTuber muss bekanntem Synchronsprecher 4.000 Euro Lizenzgebühr zahlen

Die Verlockung ist groß: Mit Künstlicher Intelligenz (KI) lassen sich die Stimmen bekannter Persönlichkeiten heute fast perfekt imitieren. Ein YouTuber nutzte diese Technologie für seine Videos – und wurde nun vom Landgericht Berlin zur Kasse gebeten. Ein wegweisendes Urteil, das Unternehmer und Content Creator unbedingt kennen sollten, da es die rechtlichen Leitplanken für den Einsatz von KI-Stimm-Klonen absteckt. Das Urteil wurde vom Kollegen Kai Jüdemann erwirkt und kann hier downgeloadet werden.

Der Fall: KI-Stimme für politische Satire mit kommerziellem Hintergrund

Ein Betreiber eines YouTube-Kanals mit 190.000 Abonnenten untermalte zwei seiner Videos mit einer KI-generierten Stimme. Diese klang täuschend echt wie die eines sehr bekannten deutschen Synchronsprechers, der unter anderem einem weltberühmten Hollywood-Schauspieler seine Stimme leiht.

In den Videos, die sich satirisch mit der damaligen Regierung auseinandersetzten, wurde am Ende jeweils auf den Online-Shop des YouTubers verwiesen. Der Synchronsprecher, dessen Stimme ohne sein Wissen und seine Zustimmung imitiert wurde, sah dadurch seine Rechte verletzt. Er mahnte den YouTuber ab und forderte Unterlassung sowie Schadensersatz für die unrechtmäßige Nutzung seiner Stimme.

Der YouTuber verteidigte sich mit mehreren Argumenten: Er habe nicht die originale Stimme, sondern lediglich eine „synthetische Imitation“ genutzt, für die er bei der KI-Software eine Nutzungslizenz erworben habe. Außerdem seien die Videos als Satire einzuordnen und damit von der Kunst- und Meinungsfreiheit gedeckt.

Die Entscheidung des Landgerichts Berlin: Persönlichkeitsrecht gilt auch im KI-Zeitalter

Das Landgericht Berlin folgte der Argumentation des YouTubers nicht und verurteilte ihn zur Zahlung einer fiktiven Lizenzgebühr in Höhe von 4.000 Euro (2.000 Euro pro Video) sowie zum Ersatz der Anwaltskosten.

Die zentralen Punkte der Urteilsbegründung waren:

  1. Recht an der eigenen Stimme wird durch KI-Klon verletzt: Das Gericht stellte unmissverständlich klar, dass es keinen Unterschied macht, ob eine Stimme von einem menschlichen Imitator nachgeahmt oder von einer KI geklont wird. Entscheidend ist allein die Erkennbarkeit und die daraus resultierende Gefahr, dass das Publikum die Stimme dem Original-Sprecher zuordnet. Genau dies war hier der Fall, wie auch Kommentare unter den Videos zeigten, in denen der Name des Sprechers fiel.
  2. Kommerzielle Interessen überwiegen die Satirefreiheit: Zwar hatten die Videos einen satirischen Inhalt, doch die bekannte Stimme diente nicht der inhaltlichen Auseinandersetzung. Vielmehr wurde sie als „Zugpferd“ eingesetzt, um die Videos attraktiver zu machen, Klickzahlen zu steigern und letztlich den Umsatz des angeschlossenen Online-Shops zu fördern. Dieser kommerzielle Zweck stand im Vordergrund. Die Kunst- und Meinungsfreiheit rechtfertigt es nicht, die Persönlichkeitsrechte anderer für eigene wirtschaftliche Interessen auszunutzen.
  3. Lizenz vom KI-Anbieter ist rechtlich wertlos: Der Einwand des YouTubers, er habe eine Lizenz vom KI-Dienstleister erworben, wurde vom Gericht zurückgewiesen. Eine solche Lizenz ist unwirksam, solange der KI-Anbieter nicht nachweisen kann, dass der Sprecher selbst der Erstellung und kommerziellen Verwertung seines Stimm-Klons zugestimmt hat. Die alleinige Verfügungsgewalt über den kommerziellen Wert der Stimme liegt beim Inhaber des Persönlichkeitsrechts.
  4. Schadenersatz als „fiktive Lizenzgebühr“: Wer ein Persönlichkeitsrecht kommerziell nutzt, muss sich so behandeln lassen, als hätte er um Erlaubnis gefragt. Der Schaden wird dann in Höhe der Lizenzgebühr berechnet, die vernünftige Vertragspartner für eine solche Nutzung vereinbart hätten. Auf Basis der Aussage eines Zeugen, der den Sprecher seit Jahren vermittelt, schätzte das Gericht eine angemessene Vergütung von mindestens 2.000 Euro pro Video.

Was dieses Urteil für Unternehmer und Content Creator bedeutet

Die Entscheidung des Landgerichts Berlin ist eine deutliche Warnung an alle, die mit KI-generierten Inhalten arbeiten:

  • Keine prominenten Stimm-Klone ohne Einwilligung: Verwenden Sie niemals KI-generierte Stimmen, die bekannte Schauspieler, Sprecher oder andere Persönlichkeiten imitieren, ohne deren ausdrückliche und nachweisbare Zustimmung.
  • Vorsicht bei Lizenzen von KI-Plattformen: Verlassen Sie sich nicht blind auf die Nutzungsbedingungen von KI-Anbietern. Sie als Nutzer stehen in der Haftung, wenn die Plattform nicht die erforderlichen Rechte vom ursprünglichen Rechteinhaber eingeholt hat.
  • Risiko der falschen Zuordnung: Bedenken Sie, dass Sie nicht nur das Recht an der Stimme verletzen, sondern auch den Eindruck einer Kooperation oder Unterstützung erwecken können. Dies wiegt besonders schwer, wenn die Inhalte (z. B. politische Äußerungen, Werbung für bestimmte Produkte) dem Ruf des Betroffenen schaden könnten.

Das Urteil stärkt die Persönlichkeitsrechte im digitalen Raum und macht klar, dass auch fortschrittlichste Technologie kein Freibrief für Rechtsverletzungen ist.


Gericht: Landgericht Berlin II

Datum: 20.08.2025

Aktenzeichen: 2 O 202/24

Google-Zusammenfassungen durch Künstliche Intelligenz: Eine Gefahr für faire Sichtbarkeit im Netz?

Seit März 2025 experimentiert Google mit einem neuen Feature in seiner Suchmaschine: der sogenannten „Übersicht mit KI“. Dabei handelt es sich um automatisch generierte Zusammenfassungen von Inhalten, die bei vielen Suchanfragen ganz oben auf der Ergebnisseite erscheinen – noch vor den klassischen Links zu Webseiten. Für den Nutzer mag dies bequem erscheinen, denn er erhält direkt eine schnelle Antwort. Doch für Inhalteanbieter, insbesondere kleinere Verlage, Ratgeberportale und Nachrichtenseiten, ist diese Praxis hochproblematisch: Die Sichtbarkeit ihrer Inhalte sinkt, der Traffic bricht ein, teils um bis zu 40 Prozent.

Was zunächst wie eine technische (und praktische) Neuerung wirkt, hat inzwischen eine handfeste juristische Dimension angenommen. Ende Juni 2025 reichte ein Zusammenschluss unabhängiger britischer Verlage – die Independent Publishers Alliance – eine förmliche Kartellbeschwerde bei der EU-Kommission sowie bei der britischen Wettbewerbsbehörde ein. Der Vorwurf: Google missbrauche seine marktbeherrschende Stellung, um eigene Inhalte – also die KI-generierten Zusammenfassungen – gegenüber originären Angeboten zu bevorzugen.

Was ist eine Kartellbeschwerde?

Bei einer Kartellbeschwerde handelt es sich um ein förmliches Verfahren zur Prüfung, ob ein Unternehmen durch sein Verhalten den Wettbewerb einschränkt oder verzerrt. Im Zentrum stehen die europäischen Kartellrechtsnormen, insbesondere Artikel 102 des Vertrags über die Arbeitsweise der Europäischen Union (AEUV). Diese Vorschrift untersagt es marktbeherrschenden Unternehmen, ihre Stellung zum Nachteil anderer Marktteilnehmer auszunutzen. Genau das werfen die Verlage Google vor: Die Inhalte anderer Anbieter würden ungefragt genutzt, gleichzeitig aber im Ranking verdrängt – zugunsten der eigenen KI-Zusammenfassungen.

Daneben kommt auch der sogenannte Digital Markets Act (DMA) ins Spiel. Dieses relativ neue EU-Gesetz verpflichtet große Plattformen – sogenannte Gatekeeper – zur Fairness im Wettbewerb. Unter anderem dürfen sie eigene Angebote nicht bevorzugt darstellen, wenn dies zu Lasten anderer Anbieter geht. Da Google die Overviews prominent über den klassischen Links platziert, könnte dies als Verstoß gegen das Diskriminierungsverbot des DMA gewertet werden.

Ein weiterer Kritikpunkt betrifft die mangelnde Transparenz der Algorithmen, die für die Zusammenfassungen verantwortlich sind. Der Digital Services Act (DSA) schreibt für große Plattformen vor, dass deren Empfehlungssysteme nachvollziehbar und risikoangepasst ausgestaltet sein müssen. Nutzer und Inhalteanbieter sollen verstehen können, wie Inhalte ausgewählt und dargestellt werden. Bei Googles KI-Overviews ist dies bislang kaum möglich.

Medienvielfalt in Gefahr?

Ein besonders heikler Punkt ist die Auswirkung auf die journalistische Vielfalt im Netz. Wenn originäre Inhalte an Sichtbarkeit verlieren und durch algorithmisch generierte Kurzfassungen ersetzt werden, droht womöglich eine Aushöhlung des Informationsangebots. Der European Media Freedom Act (EMFA), ein weiteres EU-Gesetz, will genau das verhindern. Die aktuelle Entwicklung bei Google steht daher auch unter medienpolitischer Beobachtung.

In einem Bericht der Legal Tribune Online wird über das Verfahren ausführlich berichtet. Dort wird auch die Forderung der Verlage nach einstweiligen Maßnahmen erläutert. Ziel ist es, die KI-Zusammenfassungen zumindest vorübergehend zu stoppen, um irreversible Schäden – etwa durch dauerhaft verlorene Reichweite – abzuwenden. Ob die EU-Kommission tatsächlich eine solche Maßnahme ergreifen wird, ist derzeit offen. Erfahrungsgemäß sind einstweilige Verfügungen im Kartellrecht selten und an hohe Hürden gebunden.

Urheberrecht als flankierender Hebel?

Auch aus urheberrechtlicher Sicht sind die AI Overviews nicht unproblematisch. Denn anders als klassische Chatbots analysiert Googles KI Inhalte nicht auf Basis eines festgelegten Trainingsdatensatzes, sondern greift bei jeder Anfrage in Echtzeit auf öffentlich zugängliche Webseiten zurück. Technisch handelt es sich dabei um einen Vervielfältigungsvorgang – und der ist urheberrechtlich grundsätzlich zustimmungspflichtig.

Zwar erlaubt das deutsche Urheberrecht nach §§ 44b UrhG unter bestimmten Bedingungen das sogenannte Text- und Data-Mining. Doch diese Ausnahme greift nur, wenn der Rechteinhaber nicht ausdrücklich widerspricht – etwa durch eine robots.txt-Datei. Das Problem: Wer einen solchen Widerspruch einlegt, verschwindet derzeit nicht nur aus den KI-Zusammenfassungen, sondern auch aus den regulären Suchergebnissen. Eine gezielte Sperre allein gegen KI-Zugriffe ist bislang nicht möglich.

Ab August 2026 könnte sich dies ändern. Dann tritt eine neue Vorschrift des europäischen AI Act in Kraft. Sie verpflichtet Anbieter generativer KI dazu, ihre Crawler technisch unterscheidbar zu machen. Webseitenbetreiber könnten dann gezielt den Zugriff für KI-Tools sperren, ohne gleich komplett aus dem Index zu fliegen. Ob dies in der Praxis den gewünschten Effekt hat, ist offen.

Fazit: Zwischen Regulierung und Innovationsfreiheit

Die Beschwerde gegen Google zeigt deutlich: Mit der zunehmenden Verbreitung von Künstlicher Intelligenz geraten bisherige Marktmechanismen ins Wanken. Plattformen wie Google verwandeln sich von Vermittlern zu eigenen Inhaltsanbietern – mit massiver Marktmacht. Das Kartellrecht, der DMA, der DSA und der EMFA bieten der EU-Kommission rechtliche Instrumente, um hier steuernd einzugreifen.

Gleichzeitig muss beachtet werden, dass überzogene regulatorische Maßnahmen auch Risiken bergen: Eine übermäßige Einschränkung von KI-Funktionalitäten könnte die Wettbewerbsfähigkeit europäischer Unternehmen im globalen Technologiewettbewerb schwächen. Wenn Plattformen wie Google bei innovativen Formaten blockiert werden, könnte dies Investitionen in europäische KI-Projekte abschrecken. Auch Nutzer profitieren durchaus von gut funktionierenden, kompakten Zusammenfassungen – etwa bei schnellen Informationsbedürfnissen oder in der mobilen Nutzung.

US-Urteil zu Anthropic und urheberrechtlich geschützten Büchern – Was bedeutet das für Deutschland?

Die Entwicklung Künstlicher Intelligenz (KI) erfordert enorme Datenmengen – oft in Form urheberrechtlich geschützter Texte. Doch was darf verwendet werden? Wann ist eine Nutzung rechtlich zulässig? Ein aktuelles Urteil aus den USA gibt darauf teils überraschende Antworten – mit wichtigen Implikationen für den deutschen Rechtsraum.

Der Fall: Anthropic und das KI-Training mit Millionen Büchern

Das US-Unternehmen Anthropic, Betreiber des LLM-Systems „Claude“, hatte Millionen Bücher zum Training seines Sprachmodells genutzt – teils aus legalen, teils aus illegalen Quellen. Drei Autoren klagten wegen Urheberrechtsverletzung. Das zuständige Bundesgericht (Northern District of California, Urteil vom 23.06.2025 – Az. C 24-05417 WHA) entschied differenziert:

  • Erlaubt: Training mit rechtmäßig gekauften und digitalisierten Büchern – die Nutzung sei „transformativ“ und falle unter „Fair Use“.
  • Erlaubt: Digitalisierung von Printbüchern zur internen Nutzung – als zulässiger Formatwechsel.
  • Nicht erlaubt: Aufbau einer digitalen Bibliothek mit Pirateriekopien – hierfür gebe es keine rechtliche Grundlage.

Fair Use – die US-Schranke im Überblick

Das US-Recht kennt eine offene Schranke namens „Fair Use“. Ob eine Nutzung erlaubt ist, wird anhand dieser vier Kriterien bewertet:

  1. Zweck der Nutzung (kommerziell oder gemeinnützig; transformativ?)
  2. Art des Werkes (Sachbuch oder Fiktion?)
  3. Umfang der Nutzung
  4. Auswirkungen auf den Marktwert des Originals

Diese Bewertung erfolgt stets im Einzelfall und lässt dem Gerichtsspielraum – das unterscheidet das US-System deutlich vom deutschen.

Und wie ist die Rechtslage in Deutschland?

Das deutsche Urheberrecht enthält keine offene Fair-Use-Klausel, sondern streng definierte gesetzliche Ausnahmen:

§ 44a UrhG – Technisch bedingte Vervielfältigungen

Erlaubt sind nur flüchtige Kopien, etwa beim Streaming oder Caching. Gezielte Speicherung zur Analyse (z. B. für KI) ist davon nicht erfasst – das hat zuletzt auch das LG Hamburg (Urt. v. 27.09.2024 – 310 O 227/23) bestätigt.

§ 60d UrhG – Data Mining für wissenschaftliche Zwecke

Diese Vorschrift erlaubt Text- und Data-Mining – jedoch ausschließlich für nicht-kommerzielle Forschungseinrichtungen. Unternehmen können sich hierauf nicht berufen.

§ 44b UrhG – Kommerzielles Data Mining mit Opt-Out-Möglichkeit

Erlaubt automatisiertes Auslesen (TDM) durch Unternehmen – sofern der Rechteinhaber dem nicht widersprochen hat (z. B. durch maschinenlesbaren Hinweis). Wichtig: Die verwendeten Daten dürfen nicht dauerhaft gespeichert werden.

Was bedeutet das für Unternehmen, die LLMs trainieren möchten?

  • Der Einsatz von urheberrechtlich geschützten Texten bedarf einer sorgfältigen Prüfung.
  • Pirateriequellen sind rechtlich ausgeschlossen – unabhängig vom Verwendungszweck.
  • Für kommerzielle TDM-Prozesse kann § 44b UrhG einen rechtlichen Rahmen bieten – vorausgesetzt, die rechtlichen Voraussetzungen (kein Widerspruch, spätere Löschung) werden eingehalten.
  • Eine pauschale Ausnahme wie im US-amerikanischen „Fair Use“ existiert nicht.

Fazit

Die Entscheidung aus den USA zeigt: KI-Training mit urheberrechtlich geschützten Inhalten kann zulässig sein – aber es kommt auf den Zweck, die Herkunft der Daten und die Nutzungsart an. In Deutschland gelten klare Regeln: Wer mit urheberrechtlich geschützten Werken arbeitet, braucht entweder eine Lizenz oder muss sich genau innerhalb der gesetzlichen Schranken bewegen.

Verarbeitung von Nutzerdaten für KI-Training: OLG Köln weist Verfügungsantrag gegen Meta-Tochter ab

Nachdem Meta im April 2025 ankündigte, öffentlich zugängliche Inhalte von Facebook- und Instagram-Nutzern für das Training eines KI-Modells verwenden zu wollen, wurde dies bereits breit diskutiert. Nun liegt die vollständige Entscheidung des OLG Köln vor.

Ein Verbraucherschutzverband beantragte im Eilverfahren:

  1. Untersagung des KI-Trainings mit öffentlich zugänglichen personenbezogenen Daten aus Facebook und Instagram – gestützt auf berechtigtes Interesse (Art. 6 Abs. 1 lit. f DSGVO).
  2. Hilfsweise Verbot der Zusammenführung solcher Daten aus beiden Diensten ohne Einwilligung – gemäß Art. 5 Abs. 2 DMA.

Der „Digital Markets Act“ (DMA) ist eine EU-Verordnung, die faire Wettbewerbsbedingungen auf digitalen Plattformmärkten schaffen soll. Sie richtet sich an besonders mächtige Internetunternehmen (sog. „Torwächter“) und legt ihnen spezifische Verhaltenspflichten auf. Unter anderem verbietet der DMA das Zusammenführen personenbezogener Daten aus verschiedenen Plattformdiensten, wenn keine wirksame Einwilligung der Nutzer vorliegt.

OLG Köln: Gesamtabweisung der Anträge

Das Gericht lehnte beide Anträge ab:

  • Kein DMA-Verstoß: Eine rein unspezifische Einbindung in einen KI-Datensatz stellt keine „gezielte Zusammenführung“ im Sinne des DMA dar.
  • DSGVO – berechtigtes Interesse bejaht: Meta verfolge legitime Zwecke beim KI-Training; die Mittel seien angemessen und keine mildere Alternative gegeben.
  • Transparenz & Opt-out: Ab 26. Juni 2024 sei die Nutzung öffentlich bewusst erfolgt und Nutzer konnten per Widerspruch oder Profiländerung aktiv intervenieren.

Gerichtliche Schwerpunktsetzung

  • Sensible Daten: Selbst sensible Infos aus öffentlichen Beiträgen könne nach Art. 9 Abs. 2 lit. e DSGVO zulässig sein – sofern solche Daten aktiv veröffentlicht wurden.
  • Rolle der Aufsichtsbehörden: Im Verfahren wurden die irische Datenschutzaufsicht, der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit sowie der Europäische Datenschutzausschuss angehört. Keine dieser Behörden hatte Einwände gegen das aktualisierte Konzept von Meta.

Bewertung für Unternehmer & Plattformbetreiber

  • Leitlinie für KI-Projekte: Öffentlich zugängliche Inhalte dürfen – unter Bedingungen – auch ohne Einwilligung genutzt werden.
  • Erforderliche Voraussetzungen: Vollständige Transparenz, leicht umsetzbares Opt-out, technische Maßnahmen zur De-Identifikation.
  • Rechtliche Grenzen: Das Urteil ist einstweilig; im Hauptsacheverfahren könnten strengere Anforderungen folgen, besonders bei sensiblen Informationen oder Profilbildung.
  • DMA bleibt im Fokus: Höhere instanzliche Klärung nötig, wenn Gerätearten aus verschiedenen Plattformen individuell personalisiert zusammengeführt werden.

Fazit

Das OLG Köln stärkt temporär die Position von KI-Anbietern, indem es öffentlich verwendete Nutzer-Daten unter klaren Bedingungen erlaubt. Dennoch bleibt Wachsamkeit geboten: Hauptsacheverfahren, künftige Gesetzgebung (s. AI-VO) und mögliche Entwicklungen in Bezug auf sensible Daten oder Profiling können die Rechtslage erneut verschärfen. Dieses Urteil liefert einen plausiblen Rahmen – aber keine umfassende Legalisierung.

Es ist zudem wichtig zu beachten, dass sich das Gericht in dieser Entscheidung ausschließlich mit datenschutzrechtlichen und DMA-rechtlichen Fragen befasst hat. Urheberrechtliche Aspekte – etwa ob die Verwendung von Fotos, Texten oder Videos für KI-Training zulässig ist – waren nicht Gegenstand der Entscheidung und bleiben daher unbeantwortet. Das OLG Köln stärkt temporär die Position von KI-Anbietern, indem es öffentlich verwendete Nutzer-Daten unter klaren Bedingungen erlaubt. Dennoch bleibt Wachsamkeit geboten: Hauptsacheverfahren, künftige Gesetzgebung (s. AI-VO) und mögliche Entwicklungen in Bezug auf sensible Daten oder Profiling können die Rechtslage erneut verschärfen. Dieses Urteil liefert einen plausiblen Rahmen – aber keine umfassende Legalisierung.