Urteil GEMA gegen Open AI

Die auf das Urheberrecht spezialisierte 42. Zivilkammer des Landgerichts München I hat mit Urteil vom heutigen Tag den von der GEMA gegen zwei Unternehmen der Unternehmensgruppe Open AI geltend gemachten Ansprüchen auf Unterlassungs-, Auskunfts- und Schadensersatz im Wesentlichen stattgegeben (Az. 42 O 14139/24).

Soweit die Klägerin darüber hinaus Ansprüche auf Grund einer Verletzung des allgemeinen Persönlichkeitsrechts wegen fehlerhafter Zuschreibung veränderter Liedtexte geltend gemacht hat, hat die Kammer die Klage abgewiesen.

Das Urteil betrifft die Liedtexte neun bekannter deutscher Urheberinnen und Urheber (darunter „Atemlos“ von Kristina Bach oder „Wie schön, dass du geboren bist“ von Rolf Zuckowski).

Die Klägerin ist eine Verwertungsgesellschaft und hat die Ansprüche als solche geltend gemacht. Zur Begründung hatte sie vorgetragen, die Liedtexte seien in den Sprachmodellen der Beklagten memorisiert und würden bei Nutzung des Chatbots auf einfache Anfragen der Nutzer als Antworten (Outputs) in weiten Teilen originalgetreu ausgegeben.

Die Beklagten sind Betreiber von Sprachmodellen und darauf basierender Chatbots. Sie hatten gegen die erhobenen Ansprüche eingewandt, ihre Sprachmodelle speicherten oder kopierten keine spezifischen Trainingsdaten, sondern reflektierten in ihren Parametern, was sie basierend auf dem gesamten Trainingsdatensatz erlernt hätten. Da die Outputs nur als Folge von Eingaben von Nutzern (Prompts) generiert werden würden, seien nicht die Beklagten, sondern der jeweilige Nutzer als Hersteller des Outputs für diese verantwortlich. Ohnehin seien eventuelle Rechtseingriffe von den Schranken des Urheberrechts, insbesondere der Schranke für das sogenannten Text- und Data-Mining gedeckt.

Nach der Entscheidung der erkennenden Kammer stehen der Klägerin die geltend gemachten Ansprüche sowohl aufgrund der gegebenen Vervielfältigung der Texte in den Sprachmodellen als auch durch ihre Wiedergabe in den Outputs zu.

Sowohl durch die Memorisierung in den Sprachmodellen als auch durch die Wiedergabe der Liedtexte in den Outputs des Chatbot lägen Eingriffe in die urheberrechtlichen Verwertungsrechte vor. Diese seien nicht durch Schrankenbestimmungen, insbesondere die Schranke für das Text und Data Mining gedeckt.

Im Einzelnen:

Nach Überzeugung der Kammer seien die streitgegenständlichen Liedtexte reproduzierbar in den Sprachmodellen 4 und 4o der Beklagten enthalten. Aus der informationstechnischen Forschung sei bekannt, dass Trainingsdaten in Sprachmodellen enthalten sein können und sich als Outputs extrahieren lassen. Dies werde als Memorisierung bezeichnet. Eine solche liege vor, wenn die Sprachmodelle beim Training dem Trainingsdatensatz nicht nur Informationen entnähmen, sondern sich in den nach dem Training spezifizierten Parametern eine vollständige Übernahme der Trainingsdaten finde. Eine solche Memorisierung sei durch einen Abgleich der Liedtexte, die in den Trainingsdaten enthalten waren, mit den Wiedergaben in den Outputs festgestellt. Angesichts der Komplexität und Länge der Liedtexte sei der Zufall als Ursache für die Wiedergabe der Liedtexte ausgeschlossen.

Durch die Memorisierung sei eine Verkörperung als Voraussetzung der urheberrechtlichen Vervielfältigung der streitgegenständlichen Liedtexte durch Daten in den spezifizierten Parametern des Modells gegeben. Die streitgegenständlichen Liedtexte seien reproduzierbar in den Modellen festgelegt. Gemäß Art. 2 InfoSoc-RL liege eine Vervielfältigung „auf jede Art und Weise und in jeder Form“ vor. Die Festlegung in bloßen Wahrscheinlichkeitswerten sei hierbei unerheblich. Neue Technologien wie Sprachmodelle wären vom Vervielfältigungsrecht nach Art. 2 InfoSoc-RL und § 16 UrhG erfasst. Nach der Rechtsprechung des Unionsgerichtshofes sei für die Vervielfältigung ausreichend eine mittelbare Wahrnehmbarkeit, die gegeben sei, wenn das Werk unter Einsatz technischer Hilfsmittel wahrgenommen werden könne.

Diese Vervielfältigung in den Modellen sei weder durch die Schrankenbestimmungen des Text und Data Mining des § 44b UrhG noch durch § 57 UrhG als unwesentliches Beiwerk gedeckt.

Zwar unterfielen Sprachmodelle grundsätzlich dem Anwendungsbereich der Text und Data Mining Schranken. Die Vorschriften deckten erforderliche Vervielfältigungen beim Zusammenstellen des Datenkorpus für das Training, wie etwa die Vervielfältigung eines Werks durch seine Überführung in ein anderes (digitales) Format oder Speicherungen im Arbeitsspeicher. Hintergrund hierfür sei der Gedanke, dass diese Vervielfältigungen lediglich zu nachfolgenden Analysezwecken erstellt würden und damit die Verwertungsinteressen des Urhebers am Werk nicht beeinträchtigten. Da diese für das Text und Data Mining rein vorbereitenden Handlungen kein Verwertungsinteresse berührten, sehe das Gesetz keine Vergütungspflicht gegenüber dem Urheber vor.

Würden beim Training – wie hier – nicht nur Informationen aus Trainingsdaten extrahiert, sondern Werke vervielfältigt, stelle dies nach Auffassung der Kammer kein Text und Data Mining dar. Die Prämisse des Text und Data Mining und der diesbezüglichen Schrankenbestimmungen, dass durch die automatisierte Auswertung von bloßen Informationen selbst keine Verwertungsinteressen berührt sind, greife in dieser Konstellation nicht. Im Gegenteil, durch die gegebenen Vervielfältigungen im Modell werde in das Verwertungsrecht der Rechteinhaber eingegriffen.

Eine andere, mutmaßlich technik- und innovationsfreundliche Auslegung, die ebenfalls Vervielfältigungen im Modell von der Schranke als gedeckt ansehen wollte, verbiete sich angesichts des klaren Wortlauts der Bestimmung. Auch eine analoge Anwendung komme nicht in Betracht. Selbst wenn man eine planwidrige Regelungslücke annehmen wollte, weil dem Gesetzgeber die Memorisierung und eine damit einhergehende dauerhafte urheberrechtlich relevante Vervielfältigung in den Modellen nicht bewusst gewesen sein sollte, mangele es an einer vergleichbaren Interessenlage. Die Schrankenregelung normiere mit der Zulässigkeit vorbereitender Vervielfältigungshandlungen beim Text und Data Mining einen Sachverhalt, bei dem die Verwertungsinteressen der Urheber nicht gefährdet seien, weil bloße Informationen extrahiert und das Werk als solches gerade nicht vervielfältigt werde. Bei Vervielfältigungen im Modell werde die Werkverwertung hingegen nachhaltig beeinträchtigt und die berechtigten Interessen der Rechteinhaber hierdurch verletzt. Die Urheber und Rechteinhaber würden durch eine analoge Anwendung der Schrankenbestimmung, die keine Vergütung für die Verwertung vorsieht, somit schutzlos gestellt. Das Risiko der Memorisierung stamme allein aus der Sphäre der Beklagten. Bei einer Analogie der Schranke würde ausschließlich der verletzte Rechteinhaber dieses Risiko tragen.

Mangels Vorliegens eines Hauptwerks stellten die Vervielfältigungen der streitgegenständlichen Liedtexte kein unzulässiges Beiwerk nach § 57 UrhG dar. Entgegen der Ansicht der Beklagten seien die Liedtexte nicht neben dem gesamten Trainingsdatensatz als nebensächlich und verzichtbar anzusehen. Hierfür wäre erforderlich, dass es sich bei dem gesamten Trainigsdatensatz ebenfalls um ein urheberrechtlich geschütztes Werk handele.

Der Eingriff der Beklagten in die Verwertungsrechte der Klägerin sei auch nicht durch eine Einwilligung der Rechteinhaber gerechtfertigt, da das Training von Modellen nicht als eine übliche und erwartbare Nutzungsart zu werten sei, mit der der Rechteinhaber rechnen müsse.

Auch durch Wiedergabe der Liedtexte in den Outputs des Chatbots hätten die Beklagten nach der Entscheidung der Kammer unberechtigt die streitgegenständlichen Liedtexte vervielfältigt und öffentlich zugänglich gemacht. In den Outputs wären die originellen Elemente der Liedtexte stets wiedererkennbar.

Hierfür seien die Beklagten und nicht die Nutzer verantwortlich. Die Outputs seien durch einfach gehaltene Prompts generiert worden. Die Beklagten betrieben die Sprachmodelle, für die die Liedtexte als Trainingsdaten ausgewählt und mit denen sie trainiert worden sind. Sie seien für die Architektur der Modelle und die Memorisierung der Trainingsdaten verantwortlich. Damit hätten die von den Beklagten betriebenen Sprachmodelle die ausgegebenen Outputs maßgeblich beeinflusst, der konkrete Inhalt der Outputs werde von den Sprachmodellen generiert.

Der Eingriff in die Verwertungsrechte durch die Outputs sei ebenfalls nicht durch eine Schrankenbestimmung gedeckt.

Das Urteil ist nicht rechtskräftig.

Zum Hintergrund:

Normen:

Art. 2, 3 InfoSoc-RL, Art. 4 DSM-RL

Pressemitteilung des LG München I vom 11.11.25

GEMA klagt gegen Suno: Was bedeutet das für KI-generierte Musik und das Urheberrecht?

Die GEMA (Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte) hat Klage gegen das US-amerikanische KI-Unternehmen Suno Inc. eingereicht. Suno bietet ein KI-Tool an, das mithilfe von einfachen Anweisungen (sogenannten Prompts) Audioinhalte erzeugen kann. Die GEMA wirft Suno vor, geschützte Aufnahmen aus ihrem Repertoire ohne Lizenz verwendet zu haben, was eine Urheberrechtsverletzung darstelle. Konkret geht es darum, dass die KI Audioinhalte generiere, die bekannten Songs wie „Forever Young“, „Atemlos“ oder „Daddy Cool“ zum Verwechseln ähnlich sein sollen.

Was sind die Vorwürfe der GEMA?

  • Urheberrechtsverletzung: Die GEMA argumentiert, dass Suno durch die Nutzung der Werke ihrer Mitglieder das Urheberrecht verletze. Dies betreffe sowohl die Erstellung der Aufnahmen in den Systemen von Suno als auch die Nutzung der Originalwerke zum Trainieren der KI.
  • Fehlende Vergütung: Die GEMA kritisiert, dass Suno das Repertoire der GEMA systematisch für das Training ihres Musiktools genutzt und dieses nun kommerziell verwertet habe, ohne die Urheber finanziell zu beteiligen.
  • Forderung nach einem fairen Miteinander: Die GEMA betont, dass eine partnerschaftliche Lösung mit KI-Unternehmen nur mit der Einhaltung von Grundregeln eines fairen Miteinanders möglich sei, einschließlich des Erwerbs von Lizenzen.

Was fordert die GEMA?

Die GEMA fordert eine faire Vergütung für die Nutzung der Werke ihrer Mitglieder. Sie schlägt ein „Zwei-Säulen“-Lizenzmodell vor:

  • Vergütung für das KI-Training: Die GEMA verlangt, dass 30 Prozent der Netto-Einnahmen von Suno an die Urheber fließen, inklusive einer Mindestvergütung.
  • Beteiligung an generierten Werken: Die GEMA ist der Ansicht, dass die generierten Werke so stark auf den Originalwerken basieren, dass die Urheber auch an deren Nutzung beteiligt werden müssen.

Rechtliche Herausforderungen

Das Verfahren wirft wichtige Fragen in Bezug auf das Urheberrecht auf:

  • Rechtmäßigkeit des KI-Trainings: War das Training der Suno-KI mit urheberrechtlich geschützten Werken rechtmäßig? Das Urheberrechtsgesetz erlaubt in bestimmten Fällen das „Text- und Data Mining“ (§§ 44b, 60d UrhG), also die automatisierte Analyse digitaler Werke zur Mustererkennung. Allerdings gibt es hier Einschränkungen, insbesondere wenn die Urheber der Nutzung ihrer Werke für das KI-Training widersprochen haben.
  • Nutzungsvorbehalt: Entscheidend ist, ob die GEMA einen wirksamen Nutzungsvorbehalt erklärt hat. Seit 2021 erlaubt § 44b UrhG Text- und Data Mining, es sei denn, die Urheber haben dem „maschinenlesbar“ widersprochen. Ob ein solcher Widerspruch in maschinenlesbarer Form vorliegt, ist jedoch umstritten.
  • Verletzung des Rechts der öffentlichen Wiedergabe: Die GEMA argumentiert, dass bereits die Generierung der KI-Songs eine Verletzung des Rechts der öffentlichen Wiedergabe darstellt. KI-Systeme arbeiten jedoch nicht mit exakten Kopien, sondern mit statistischen Mustern.
  • Pflichten der KI-Anbieter: Nach dem AI Act müssen Anbieter von Mehrzweck-KI-Systemen wie Suno eine Strategie zur Einhaltung des EU-Urheberrechts vorlegen.

LG Hamburg: Nutzung von Bildern für KI-Training

Das Landgericht Hamburg hat sich in einem Urteil vom 27.09.2024 (Az. 310 O 227/23) mit der Frage auseinandergesetzt, ob die Nutzung von urheberrechtlich geschützten Werken für das Training von KI-Systemen zulässig ist. Das Gericht hat entschieden, dass die Schrankenregelung des § 44a UrhG (vorübergehende Vervielfältigungshandlungen) für Trainingszwecke von KI nicht anwendbar ist.

  • Keine Flüchtigkeit: Das Gericht argumentierte, dass die Speicherung der Werke auf den Servern des KI-Herstellers nicht „flüchtig“ im Sinne des Gesetzes sei.
  • Keine Begleitfunktion: Das Herunterladen der Bilddateien zur Analyse sei kein bloß begleitender Prozess, sondern ein bewusster Beschaffungsprozess.

Allerdings tendierte das LG Hamburg in seiner Entscheidung dazu, dass ein Nutzungsvorbehalt in natürlicher Sprache (z.B. in AGB) genügen müsse, um die Nutzung eines Werkes für KI-Training zu untersagen. Dies könnte auch für die Klage der GEMA relevant sein, da es fraglich ist, ob die GEMA bzw. ihre Mitglieder einen solchen maschinenlesbaren Nutzungsvorbehalt rechtzeitig erklärt haben.

Was bedeutet das für die Zukunft?

Die Klage der GEMA gegen Suno ist ein Präzedenzfall. Es ist noch unklar, wie die Gerichte die Nutzungsvorbehalte der Urheber bewerten werden. Das Urteil könnte richtungsweisende Antworten auf die Frage geben, wie mit KI-generierter Musik und dem Urheberrecht umzugehen ist.

Parallele in den USA

Auch in den USA gibt es ähnliche Rechtsstreitigkeiten im Zusammenhang mit KI-Training und Urheberrecht.

  • Ein US-Gericht, der District Court of Delaware, hat im Fall Thomson Reuters ./. Ross Intelligence entschieden, dass die Nutzung urheberrechtlich geschützter Inhalte zum Training einer KI nicht unter die „Fair Use“-Doktrin fällt, wenn das KI-Training kommerziellen Zwecken dient und sich negativ auf den Wert des geschützten Werks auswirkt.
  • Dieses Urteil könnte Auswirkungen auf KI-Anbieter haben, die in den USA tätig sind. Bemerkenswert ist, dass das Gericht die meisten Gerichtsentscheidungen, auf die sich KI-Unternehmen bislang berufen haben, als „irrelevant“ abgelehnt hat.
  • Die Entscheidung des US-Gerichts betraf einen Fall, in dem eine KI-Suchmaschine mit urheberrechtlich geschützten Headnotes trainiert wurde. Das Gericht argumentierte, dass die Nutzung nicht „transformierend“ sei, da die KI lediglich ein Konkurrenzprodukt erstellen sollte. Dies könnte ein wichtiger Unterschied zur generativen KI sein, die neue und transformative Werke schaffen kann. Das Gericht betonte, dass Ross mit seiner KI direkt mit Westlaw konkurrieren wollte, was ausreiche, um eine Marktbeeinträchtigung festzustellen. Es sei unerheblich, ob Reuters bereits KI-Trainingsdaten vermarkte – die Möglichkeit, dies zu tun, sei rechtlich schutzwürdig.

Auswirkungen für Deutschland

Es bleibt abzuwarten, wie sich die Rechtslage im Bereich der KI-generierten Musik, aber auch bei Texten, Grafiken etc., entwickeln wird.

Die mit der Nutzung von urheberrechtlichen Inhalten zu Trainingszwecken verbundenen urheberrechtlichen Fragen werden vermutlich erst in einigen Jahren höchstrichterlich geklärt werden. Es könnte sein, dass sich bis dahin entweder der Gesetzgeber entschließt, das Thema neu zu regeln (und dann, so ist meine Vermutung, eine „KI-Abgabe“ einführt, die an Verwertungsgesellschaften wie die GEMA zu zahlen ist) oder es zu Vereinbarungen zwischen Anbietern von KI und Verwertungsgesellschaften kommen wird.

Nochmals: Fortbildungspflichten für Unternehmen beim Einsatz von KI

Ende Januar habe ich darüber berichtet, dass ab dem 02.02.2025 die in Art. 4 des AI-Acts statuierte Fortbildungspflicht für  „Anbieter“ und „Betreiber“ von KI-Systemen in Kraft getreten ist.

Wer wissen möchte, wie sich die EU die Dokumentation dieser Verpflichtung vorstellt: seit Anfang Februar hat das EU-AI Office eine pdf-Datei dazu veröffentlicht, in welcher beispielhaft Unternehmen und deren Dokumentation dazu zu lesen ist.

Fortbildungspflichten für Unternehmen beim Einsatz von KI

Der sog. AI-Act der EU – auch als KI-Verordnung oder als KI-Gesetz bezeichnet – ist bereits letztes Jahr am 01.08.2024 in Kraft getreten. Die relevanten Pflichten aus dem AI-Act treten aber erst nach und nach in Kraft, u.a. zum 02.02.2025, zum 02.08.2025 und am 02.08.2026.

Bei dem AI-Act handelt es sich um eine EU-Verordnung, die unmittelbar in allen Ländern der EU in Kraft tritt und – vergleichbar mit der DSGVO oder dem Digital Services Act (DSA) – keiner Umsetzung in ein deutsches Gesetz bedarf.

In der Presse und speziell in den sozialen Medien ist in letzter Zeit eine Diskussion über eine am 02.02.2025 in Kraft tretende Pflicht entbrannt, und zwar über die Verpflichtung aus Art. 4 des AI-Acts.

Der in der Diskussion stehende Art. 4 des AI-Acts verpflichtet „Anbieter“ und „Betreiber“ von KI-Systemen dazu, dass sie dafür Sorge tragen müssen, dass ihre Mitarbeiter – unabhängig davon, ob es sich um Arbeitnehmer oder freie Mitarbeiter handelt – über ein ausreichendes Maß an KI-Kompetenz verfügen. Sprich: Die Mitarbeiter müssen zu KI-Themen geschult werden.

Diskutiert wird nun die Frage, ob davon alle Unternehmen betroffen sind, die KI in irgendeiner Form einsetzen oder ihren Mitarbeitern erlauben, KI zur Bewältigung von Arbeitsaufgaben zu benutzen, egal ob es sich um ein Large Language Model wie ChatGPT handelt oder um sog. Diffusion Models, wie z.B. Midjourney oder DALL-E.

Die Pflicht aus Art. 4 AI-Act adressiert zunächst die Anbieter von KI-Systemen. Nach der Definition des Anbieters in Art. 3 Nr. 3 AI Act fallen darunter Unternehmen, die KI-Systeme oder KI-Modelle entwickeln und in Verkehr bringen. Im Falle von ChatGPT wäre also der „Anbieter“ im Sinne dieser Vorschrift OpenAI.

Die Pflicht aus Art. 4 AI Act trifft aber auch den „Betreiber“. Nach Art. 3 Nr. 4 AI-Act ist der „Betreiber“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird nur zur persönlichen und nicht zur beruflichen Tätigkeit verwendet.

Legt man diese Definition weit aus, so würde tatsächlich z.B. jegliches Unternehmen darunterfallen, das den Einsatz von KI im Unternehmen ermöglicht.

Allerdings wird anhand des Tatbestandsmerkmals „in eigener Verantwortung“ geschlussfolgert, dass damit nicht jegliche Unternehmen, deren Mitarbeiter KI nutzen, gemeint sind. Hiernach gelten nur Unternehmen als „Betreiber“, die „Kontrolle“ über das eingesetzte KI-System haben. Ein Unternehmen, das ein KI-System lediglich als „Black Box“ einsetzt, ohne die Funktionsweise und die Auswirkungen zu verstehen oder zu beeinflussen, dürfte deshalb nicht als „Betreiber“ im Sinne des AI-Acts gelten.

Auch ein Unternehmen, das seinen Mitarbeitern z.B. die Nutzung von ChatGPT oder Midjourney als Arbeitshilfe gestattet, dürfte daher noch kein „Betreiber“ sein. Setzt das Unternehmen aber z.B. eigene, bei ChatGPT erstellte sog. GPTs, die auf eine eigene Wissensdatenbank zugreifen, ein und bindet diesen eigens erstellten GPTs über eine Schnittstelle z.B. zur Beantwortung von Kundenanfragen auf die eigene Webseite ein, sieht dies wahrscheinlich anders aus.

Die Beantwortung dieser Frage ist also nicht einfach. Da der AI-Act so konzipiert ist, dass jedes Unternehmen anhand der gesetzlichen Regelungen sich selbst einstufen und einschätzen muss, bedeutet dies natürlich, dass jedes Unternehmen anhand dieser leider sehr unscharfen Kriterien prüfen sollte, ob er unter den Begriff des „Betreibers“ fallen kann oder nicht.

Fällt ein Unternehmen unter den Begriff des „Betreibers“, so muss es konkrete Maßnahmen zur Förderung der KI-Kompetenz seiner Mitarbeiter in die Wege leiten. Zu diesen Maßnahmen können die Durchführung von Schulungen oder Workshops gehören, aber auch die Entwicklung interner Richtlinien, in denen klare Vorgaben für den Einsatz von KI-Systemen im Unternehmen festgehalten werden. Sollte ein Unternehmen unsicher sein, wie es sich selbst einzuschätzen hat und daher sicherheitshalber z.B. Fortbildungsmaßnahmen seiner Mitarbeiter ins Auge fassen, ist gleichwohl kein Grund zur Hektik, obwohl die Pflicht bereits Anfang Februar greift:

Aktuell steht noch gar nicht fest, welche Behörde in Deutschland die Umsetzung und Einhaltung der Pflichten aus dem AI-Act überwachen wird. Es ist auch nicht wahrscheinlich, dass dies noch vor der anstehenden Bundestagswahl geschehen wird.

Auch wenn Verstöße gegen die Pflichten aus dem AI-Act theoretisch mit Bußgeldern sanktioniert werden können, so gibt es also aktuell noch gar keine Behörde in Deutschland, die diese Bußgelder verhängen könnte.