KI-Stimme geklont: YouTuber muss bekanntem Synchronsprecher 4.000 Euro Lizenzgebühr zahlen

Die Verlockung ist groß: Mit Künstlicher Intelligenz (KI) lassen sich die Stimmen bekannter Persönlichkeiten heute fast perfekt imitieren. Ein YouTuber nutzte diese Technologie für seine Videos – und wurde nun vom Landgericht Berlin zur Kasse gebeten. Ein wegweisendes Urteil, das Unternehmer und Content Creator unbedingt kennen sollten, da es die rechtlichen Leitplanken für den Einsatz von KI-Stimm-Klonen absteckt. Das Urteil wurde vom Kollegen Kai Jüdemann erwirkt und kann hier downgeloadet werden.

Der Fall: KI-Stimme für politische Satire mit kommerziellem Hintergrund

Ein Betreiber eines YouTube-Kanals mit 190.000 Abonnenten untermalte zwei seiner Videos mit einer KI-generierten Stimme. Diese klang täuschend echt wie die eines sehr bekannten deutschen Synchronsprechers, der unter anderem einem weltberühmten Hollywood-Schauspieler seine Stimme leiht.

In den Videos, die sich satirisch mit der damaligen Regierung auseinandersetzten, wurde am Ende jeweils auf den Online-Shop des YouTubers verwiesen. Der Synchronsprecher, dessen Stimme ohne sein Wissen und seine Zustimmung imitiert wurde, sah dadurch seine Rechte verletzt. Er mahnte den YouTuber ab und forderte Unterlassung sowie Schadensersatz für die unrechtmäßige Nutzung seiner Stimme.

Der YouTuber verteidigte sich mit mehreren Argumenten: Er habe nicht die originale Stimme, sondern lediglich eine „synthetische Imitation“ genutzt, für die er bei der KI-Software eine Nutzungslizenz erworben habe. Außerdem seien die Videos als Satire einzuordnen und damit von der Kunst- und Meinungsfreiheit gedeckt.

Die Entscheidung des Landgerichts Berlin: Persönlichkeitsrecht gilt auch im KI-Zeitalter

Das Landgericht Berlin folgte der Argumentation des YouTubers nicht und verurteilte ihn zur Zahlung einer fiktiven Lizenzgebühr in Höhe von 4.000 Euro (2.000 Euro pro Video) sowie zum Ersatz der Anwaltskosten.

Die zentralen Punkte der Urteilsbegründung waren:

  1. Recht an der eigenen Stimme wird durch KI-Klon verletzt: Das Gericht stellte unmissverständlich klar, dass es keinen Unterschied macht, ob eine Stimme von einem menschlichen Imitator nachgeahmt oder von einer KI geklont wird. Entscheidend ist allein die Erkennbarkeit und die daraus resultierende Gefahr, dass das Publikum die Stimme dem Original-Sprecher zuordnet. Genau dies war hier der Fall, wie auch Kommentare unter den Videos zeigten, in denen der Name des Sprechers fiel.
  2. Kommerzielle Interessen überwiegen die Satirefreiheit: Zwar hatten die Videos einen satirischen Inhalt, doch die bekannte Stimme diente nicht der inhaltlichen Auseinandersetzung. Vielmehr wurde sie als „Zugpferd“ eingesetzt, um die Videos attraktiver zu machen, Klickzahlen zu steigern und letztlich den Umsatz des angeschlossenen Online-Shops zu fördern. Dieser kommerzielle Zweck stand im Vordergrund. Die Kunst- und Meinungsfreiheit rechtfertigt es nicht, die Persönlichkeitsrechte anderer für eigene wirtschaftliche Interessen auszunutzen.
  3. Lizenz vom KI-Anbieter ist rechtlich wertlos: Der Einwand des YouTubers, er habe eine Lizenz vom KI-Dienstleister erworben, wurde vom Gericht zurückgewiesen. Eine solche Lizenz ist unwirksam, solange der KI-Anbieter nicht nachweisen kann, dass der Sprecher selbst der Erstellung und kommerziellen Verwertung seines Stimm-Klons zugestimmt hat. Die alleinige Verfügungsgewalt über den kommerziellen Wert der Stimme liegt beim Inhaber des Persönlichkeitsrechts.
  4. Schadenersatz als „fiktive Lizenzgebühr“: Wer ein Persönlichkeitsrecht kommerziell nutzt, muss sich so behandeln lassen, als hätte er um Erlaubnis gefragt. Der Schaden wird dann in Höhe der Lizenzgebühr berechnet, die vernünftige Vertragspartner für eine solche Nutzung vereinbart hätten. Auf Basis der Aussage eines Zeugen, der den Sprecher seit Jahren vermittelt, schätzte das Gericht eine angemessene Vergütung von mindestens 2.000 Euro pro Video.

Was dieses Urteil für Unternehmer und Content Creator bedeutet

Die Entscheidung des Landgerichts Berlin ist eine deutliche Warnung an alle, die mit KI-generierten Inhalten arbeiten:

  • Keine prominenten Stimm-Klone ohne Einwilligung: Verwenden Sie niemals KI-generierte Stimmen, die bekannte Schauspieler, Sprecher oder andere Persönlichkeiten imitieren, ohne deren ausdrückliche und nachweisbare Zustimmung.
  • Vorsicht bei Lizenzen von KI-Plattformen: Verlassen Sie sich nicht blind auf die Nutzungsbedingungen von KI-Anbietern. Sie als Nutzer stehen in der Haftung, wenn die Plattform nicht die erforderlichen Rechte vom ursprünglichen Rechteinhaber eingeholt hat.
  • Risiko der falschen Zuordnung: Bedenken Sie, dass Sie nicht nur das Recht an der Stimme verletzen, sondern auch den Eindruck einer Kooperation oder Unterstützung erwecken können. Dies wiegt besonders schwer, wenn die Inhalte (z. B. politische Äußerungen, Werbung für bestimmte Produkte) dem Ruf des Betroffenen schaden könnten.

Das Urteil stärkt die Persönlichkeitsrechte im digitalen Raum und macht klar, dass auch fortschrittlichste Technologie kein Freibrief für Rechtsverletzungen ist.


Gericht: Landgericht Berlin II

Datum: 20.08.2025

Aktenzeichen: 2 O 202/24

Google-Zusammenfassungen durch Künstliche Intelligenz: Eine Gefahr für faire Sichtbarkeit im Netz?

Seit März 2025 experimentiert Google mit einem neuen Feature in seiner Suchmaschine: der sogenannten „Übersicht mit KI“. Dabei handelt es sich um automatisch generierte Zusammenfassungen von Inhalten, die bei vielen Suchanfragen ganz oben auf der Ergebnisseite erscheinen – noch vor den klassischen Links zu Webseiten. Für den Nutzer mag dies bequem erscheinen, denn er erhält direkt eine schnelle Antwort. Doch für Inhalteanbieter, insbesondere kleinere Verlage, Ratgeberportale und Nachrichtenseiten, ist diese Praxis hochproblematisch: Die Sichtbarkeit ihrer Inhalte sinkt, der Traffic bricht ein, teils um bis zu 40 Prozent.

Was zunächst wie eine technische (und praktische) Neuerung wirkt, hat inzwischen eine handfeste juristische Dimension angenommen. Ende Juni 2025 reichte ein Zusammenschluss unabhängiger britischer Verlage – die Independent Publishers Alliance – eine förmliche Kartellbeschwerde bei der EU-Kommission sowie bei der britischen Wettbewerbsbehörde ein. Der Vorwurf: Google missbrauche seine marktbeherrschende Stellung, um eigene Inhalte – also die KI-generierten Zusammenfassungen – gegenüber originären Angeboten zu bevorzugen.

Was ist eine Kartellbeschwerde?

Bei einer Kartellbeschwerde handelt es sich um ein förmliches Verfahren zur Prüfung, ob ein Unternehmen durch sein Verhalten den Wettbewerb einschränkt oder verzerrt. Im Zentrum stehen die europäischen Kartellrechtsnormen, insbesondere Artikel 102 des Vertrags über die Arbeitsweise der Europäischen Union (AEUV). Diese Vorschrift untersagt es marktbeherrschenden Unternehmen, ihre Stellung zum Nachteil anderer Marktteilnehmer auszunutzen. Genau das werfen die Verlage Google vor: Die Inhalte anderer Anbieter würden ungefragt genutzt, gleichzeitig aber im Ranking verdrängt – zugunsten der eigenen KI-Zusammenfassungen.

Daneben kommt auch der sogenannte Digital Markets Act (DMA) ins Spiel. Dieses relativ neue EU-Gesetz verpflichtet große Plattformen – sogenannte Gatekeeper – zur Fairness im Wettbewerb. Unter anderem dürfen sie eigene Angebote nicht bevorzugt darstellen, wenn dies zu Lasten anderer Anbieter geht. Da Google die Overviews prominent über den klassischen Links platziert, könnte dies als Verstoß gegen das Diskriminierungsverbot des DMA gewertet werden.

Ein weiterer Kritikpunkt betrifft die mangelnde Transparenz der Algorithmen, die für die Zusammenfassungen verantwortlich sind. Der Digital Services Act (DSA) schreibt für große Plattformen vor, dass deren Empfehlungssysteme nachvollziehbar und risikoangepasst ausgestaltet sein müssen. Nutzer und Inhalteanbieter sollen verstehen können, wie Inhalte ausgewählt und dargestellt werden. Bei Googles KI-Overviews ist dies bislang kaum möglich.

Medienvielfalt in Gefahr?

Ein besonders heikler Punkt ist die Auswirkung auf die journalistische Vielfalt im Netz. Wenn originäre Inhalte an Sichtbarkeit verlieren und durch algorithmisch generierte Kurzfassungen ersetzt werden, droht womöglich eine Aushöhlung des Informationsangebots. Der European Media Freedom Act (EMFA), ein weiteres EU-Gesetz, will genau das verhindern. Die aktuelle Entwicklung bei Google steht daher auch unter medienpolitischer Beobachtung.

In einem Bericht der Legal Tribune Online wird über das Verfahren ausführlich berichtet. Dort wird auch die Forderung der Verlage nach einstweiligen Maßnahmen erläutert. Ziel ist es, die KI-Zusammenfassungen zumindest vorübergehend zu stoppen, um irreversible Schäden – etwa durch dauerhaft verlorene Reichweite – abzuwenden. Ob die EU-Kommission tatsächlich eine solche Maßnahme ergreifen wird, ist derzeit offen. Erfahrungsgemäß sind einstweilige Verfügungen im Kartellrecht selten und an hohe Hürden gebunden.

Urheberrecht als flankierender Hebel?

Auch aus urheberrechtlicher Sicht sind die AI Overviews nicht unproblematisch. Denn anders als klassische Chatbots analysiert Googles KI Inhalte nicht auf Basis eines festgelegten Trainingsdatensatzes, sondern greift bei jeder Anfrage in Echtzeit auf öffentlich zugängliche Webseiten zurück. Technisch handelt es sich dabei um einen Vervielfältigungsvorgang – und der ist urheberrechtlich grundsätzlich zustimmungspflichtig.

Zwar erlaubt das deutsche Urheberrecht nach §§ 44b UrhG unter bestimmten Bedingungen das sogenannte Text- und Data-Mining. Doch diese Ausnahme greift nur, wenn der Rechteinhaber nicht ausdrücklich widerspricht – etwa durch eine robots.txt-Datei. Das Problem: Wer einen solchen Widerspruch einlegt, verschwindet derzeit nicht nur aus den KI-Zusammenfassungen, sondern auch aus den regulären Suchergebnissen. Eine gezielte Sperre allein gegen KI-Zugriffe ist bislang nicht möglich.

Ab August 2026 könnte sich dies ändern. Dann tritt eine neue Vorschrift des europäischen AI Act in Kraft. Sie verpflichtet Anbieter generativer KI dazu, ihre Crawler technisch unterscheidbar zu machen. Webseitenbetreiber könnten dann gezielt den Zugriff für KI-Tools sperren, ohne gleich komplett aus dem Index zu fliegen. Ob dies in der Praxis den gewünschten Effekt hat, ist offen.

Fazit: Zwischen Regulierung und Innovationsfreiheit

Die Beschwerde gegen Google zeigt deutlich: Mit der zunehmenden Verbreitung von Künstlicher Intelligenz geraten bisherige Marktmechanismen ins Wanken. Plattformen wie Google verwandeln sich von Vermittlern zu eigenen Inhaltsanbietern – mit massiver Marktmacht. Das Kartellrecht, der DMA, der DSA und der EMFA bieten der EU-Kommission rechtliche Instrumente, um hier steuernd einzugreifen.

Gleichzeitig muss beachtet werden, dass überzogene regulatorische Maßnahmen auch Risiken bergen: Eine übermäßige Einschränkung von KI-Funktionalitäten könnte die Wettbewerbsfähigkeit europäischer Unternehmen im globalen Technologiewettbewerb schwächen. Wenn Plattformen wie Google bei innovativen Formaten blockiert werden, könnte dies Investitionen in europäische KI-Projekte abschrecken. Auch Nutzer profitieren durchaus von gut funktionierenden, kompakten Zusammenfassungen – etwa bei schnellen Informationsbedürfnissen oder in der mobilen Nutzung.

US-Urteil zu Anthropic und urheberrechtlich geschützten Büchern – Was bedeutet das für Deutschland?

Die Entwicklung Künstlicher Intelligenz (KI) erfordert enorme Datenmengen – oft in Form urheberrechtlich geschützter Texte. Doch was darf verwendet werden? Wann ist eine Nutzung rechtlich zulässig? Ein aktuelles Urteil aus den USA gibt darauf teils überraschende Antworten – mit wichtigen Implikationen für den deutschen Rechtsraum.

Der Fall: Anthropic und das KI-Training mit Millionen Büchern

Das US-Unternehmen Anthropic, Betreiber des LLM-Systems „Claude“, hatte Millionen Bücher zum Training seines Sprachmodells genutzt – teils aus legalen, teils aus illegalen Quellen. Drei Autoren klagten wegen Urheberrechtsverletzung. Das zuständige Bundesgericht (Northern District of California, Urteil vom 23.06.2025 – Az. C 24-05417 WHA) entschied differenziert:

  • Erlaubt: Training mit rechtmäßig gekauften und digitalisierten Büchern – die Nutzung sei „transformativ“ und falle unter „Fair Use“.
  • Erlaubt: Digitalisierung von Printbüchern zur internen Nutzung – als zulässiger Formatwechsel.
  • Nicht erlaubt: Aufbau einer digitalen Bibliothek mit Pirateriekopien – hierfür gebe es keine rechtliche Grundlage.

Fair Use – die US-Schranke im Überblick

Das US-Recht kennt eine offene Schranke namens „Fair Use“. Ob eine Nutzung erlaubt ist, wird anhand dieser vier Kriterien bewertet:

  1. Zweck der Nutzung (kommerziell oder gemeinnützig; transformativ?)
  2. Art des Werkes (Sachbuch oder Fiktion?)
  3. Umfang der Nutzung
  4. Auswirkungen auf den Marktwert des Originals

Diese Bewertung erfolgt stets im Einzelfall und lässt dem Gerichtsspielraum – das unterscheidet das US-System deutlich vom deutschen.

Und wie ist die Rechtslage in Deutschland?

Das deutsche Urheberrecht enthält keine offene Fair-Use-Klausel, sondern streng definierte gesetzliche Ausnahmen:

§ 44a UrhG – Technisch bedingte Vervielfältigungen

Erlaubt sind nur flüchtige Kopien, etwa beim Streaming oder Caching. Gezielte Speicherung zur Analyse (z. B. für KI) ist davon nicht erfasst – das hat zuletzt auch das LG Hamburg (Urt. v. 27.09.2024 – 310 O 227/23) bestätigt.

§ 60d UrhG – Data Mining für wissenschaftliche Zwecke

Diese Vorschrift erlaubt Text- und Data-Mining – jedoch ausschließlich für nicht-kommerzielle Forschungseinrichtungen. Unternehmen können sich hierauf nicht berufen.

§ 44b UrhG – Kommerzielles Data Mining mit Opt-Out-Möglichkeit

Erlaubt automatisiertes Auslesen (TDM) durch Unternehmen – sofern der Rechteinhaber dem nicht widersprochen hat (z. B. durch maschinenlesbaren Hinweis). Wichtig: Die verwendeten Daten dürfen nicht dauerhaft gespeichert werden.

Was bedeutet das für Unternehmen, die LLMs trainieren möchten?

  • Der Einsatz von urheberrechtlich geschützten Texten bedarf einer sorgfältigen Prüfung.
  • Pirateriequellen sind rechtlich ausgeschlossen – unabhängig vom Verwendungszweck.
  • Für kommerzielle TDM-Prozesse kann § 44b UrhG einen rechtlichen Rahmen bieten – vorausgesetzt, die rechtlichen Voraussetzungen (kein Widerspruch, spätere Löschung) werden eingehalten.
  • Eine pauschale Ausnahme wie im US-amerikanischen „Fair Use“ existiert nicht.

Fazit

Die Entscheidung aus den USA zeigt: KI-Training mit urheberrechtlich geschützten Inhalten kann zulässig sein – aber es kommt auf den Zweck, die Herkunft der Daten und die Nutzungsart an. In Deutschland gelten klare Regeln: Wer mit urheberrechtlich geschützten Werken arbeitet, braucht entweder eine Lizenz oder muss sich genau innerhalb der gesetzlichen Schranken bewegen.

Verarbeitung von Nutzerdaten für KI-Training: OLG Köln weist Verfügungsantrag gegen Meta-Tochter ab

Nachdem Meta im April 2025 ankündigte, öffentlich zugängliche Inhalte von Facebook- und Instagram-Nutzern für das Training eines KI-Modells verwenden zu wollen, wurde dies bereits breit diskutiert. Nun liegt die vollständige Entscheidung des OLG Köln vor.

Ein Verbraucherschutzverband beantragte im Eilverfahren:

  1. Untersagung des KI-Trainings mit öffentlich zugänglichen personenbezogenen Daten aus Facebook und Instagram – gestützt auf berechtigtes Interesse (Art. 6 Abs. 1 lit. f DSGVO).
  2. Hilfsweise Verbot der Zusammenführung solcher Daten aus beiden Diensten ohne Einwilligung – gemäß Art. 5 Abs. 2 DMA.

Der „Digital Markets Act“ (DMA) ist eine EU-Verordnung, die faire Wettbewerbsbedingungen auf digitalen Plattformmärkten schaffen soll. Sie richtet sich an besonders mächtige Internetunternehmen (sog. „Torwächter“) und legt ihnen spezifische Verhaltenspflichten auf. Unter anderem verbietet der DMA das Zusammenführen personenbezogener Daten aus verschiedenen Plattformdiensten, wenn keine wirksame Einwilligung der Nutzer vorliegt.

OLG Köln: Gesamtabweisung der Anträge

Das Gericht lehnte beide Anträge ab:

  • Kein DMA-Verstoß: Eine rein unspezifische Einbindung in einen KI-Datensatz stellt keine „gezielte Zusammenführung“ im Sinne des DMA dar.
  • DSGVO – berechtigtes Interesse bejaht: Meta verfolge legitime Zwecke beim KI-Training; die Mittel seien angemessen und keine mildere Alternative gegeben.
  • Transparenz & Opt-out: Ab 26. Juni 2024 sei die Nutzung öffentlich bewusst erfolgt und Nutzer konnten per Widerspruch oder Profiländerung aktiv intervenieren.

Gerichtliche Schwerpunktsetzung

  • Sensible Daten: Selbst sensible Infos aus öffentlichen Beiträgen könne nach Art. 9 Abs. 2 lit. e DSGVO zulässig sein – sofern solche Daten aktiv veröffentlicht wurden.
  • Rolle der Aufsichtsbehörden: Im Verfahren wurden die irische Datenschutzaufsicht, der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit sowie der Europäische Datenschutzausschuss angehört. Keine dieser Behörden hatte Einwände gegen das aktualisierte Konzept von Meta.

Bewertung für Unternehmer & Plattformbetreiber

  • Leitlinie für KI-Projekte: Öffentlich zugängliche Inhalte dürfen – unter Bedingungen – auch ohne Einwilligung genutzt werden.
  • Erforderliche Voraussetzungen: Vollständige Transparenz, leicht umsetzbares Opt-out, technische Maßnahmen zur De-Identifikation.
  • Rechtliche Grenzen: Das Urteil ist einstweilig; im Hauptsacheverfahren könnten strengere Anforderungen folgen, besonders bei sensiblen Informationen oder Profilbildung.
  • DMA bleibt im Fokus: Höhere instanzliche Klärung nötig, wenn Gerätearten aus verschiedenen Plattformen individuell personalisiert zusammengeführt werden.

Fazit

Das OLG Köln stärkt temporär die Position von KI-Anbietern, indem es öffentlich verwendete Nutzer-Daten unter klaren Bedingungen erlaubt. Dennoch bleibt Wachsamkeit geboten: Hauptsacheverfahren, künftige Gesetzgebung (s. AI-VO) und mögliche Entwicklungen in Bezug auf sensible Daten oder Profiling können die Rechtslage erneut verschärfen. Dieses Urteil liefert einen plausiblen Rahmen – aber keine umfassende Legalisierung.

Es ist zudem wichtig zu beachten, dass sich das Gericht in dieser Entscheidung ausschließlich mit datenschutzrechtlichen und DMA-rechtlichen Fragen befasst hat. Urheberrechtliche Aspekte – etwa ob die Verwendung von Fotos, Texten oder Videos für KI-Training zulässig ist – waren nicht Gegenstand der Entscheidung und bleiben daher unbeantwortet. Das OLG Köln stärkt temporär die Position von KI-Anbietern, indem es öffentlich verwendete Nutzer-Daten unter klaren Bedingungen erlaubt. Dennoch bleibt Wachsamkeit geboten: Hauptsacheverfahren, künftige Gesetzgebung (s. AI-VO) und mögliche Entwicklungen in Bezug auf sensible Daten oder Profiling können die Rechtslage erneut verschärfen. Dieses Urteil liefert einen plausiblen Rahmen – aber keine umfassende Legalisierung.

GEMA klagt gegen Suno: Was bedeutet das für KI-generierte Musik und das Urheberrecht?

Die GEMA (Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte) hat Klage gegen das US-amerikanische KI-Unternehmen Suno Inc. eingereicht. Suno bietet ein KI-Tool an, das mithilfe von einfachen Anweisungen (sogenannten Prompts) Audioinhalte erzeugen kann. Die GEMA wirft Suno vor, geschützte Aufnahmen aus ihrem Repertoire ohne Lizenz verwendet zu haben, was eine Urheberrechtsverletzung darstelle. Konkret geht es darum, dass die KI Audioinhalte generiere, die bekannten Songs wie „Forever Young“, „Atemlos“ oder „Daddy Cool“ zum Verwechseln ähnlich sein sollen.

Was sind die Vorwürfe der GEMA?

  • Urheberrechtsverletzung: Die GEMA argumentiert, dass Suno durch die Nutzung der Werke ihrer Mitglieder das Urheberrecht verletze. Dies betreffe sowohl die Erstellung der Aufnahmen in den Systemen von Suno als auch die Nutzung der Originalwerke zum Trainieren der KI.
  • Fehlende Vergütung: Die GEMA kritisiert, dass Suno das Repertoire der GEMA systematisch für das Training ihres Musiktools genutzt und dieses nun kommerziell verwertet habe, ohne die Urheber finanziell zu beteiligen.
  • Forderung nach einem fairen Miteinander: Die GEMA betont, dass eine partnerschaftliche Lösung mit KI-Unternehmen nur mit der Einhaltung von Grundregeln eines fairen Miteinanders möglich sei, einschließlich des Erwerbs von Lizenzen.

Was fordert die GEMA?

Die GEMA fordert eine faire Vergütung für die Nutzung der Werke ihrer Mitglieder. Sie schlägt ein „Zwei-Säulen“-Lizenzmodell vor:

  • Vergütung für das KI-Training: Die GEMA verlangt, dass 30 Prozent der Netto-Einnahmen von Suno an die Urheber fließen, inklusive einer Mindestvergütung.
  • Beteiligung an generierten Werken: Die GEMA ist der Ansicht, dass die generierten Werke so stark auf den Originalwerken basieren, dass die Urheber auch an deren Nutzung beteiligt werden müssen.

Rechtliche Herausforderungen

Das Verfahren wirft wichtige Fragen in Bezug auf das Urheberrecht auf:

  • Rechtmäßigkeit des KI-Trainings: War das Training der Suno-KI mit urheberrechtlich geschützten Werken rechtmäßig? Das Urheberrechtsgesetz erlaubt in bestimmten Fällen das „Text- und Data Mining“ (§§ 44b, 60d UrhG), also die automatisierte Analyse digitaler Werke zur Mustererkennung. Allerdings gibt es hier Einschränkungen, insbesondere wenn die Urheber der Nutzung ihrer Werke für das KI-Training widersprochen haben.
  • Nutzungsvorbehalt: Entscheidend ist, ob die GEMA einen wirksamen Nutzungsvorbehalt erklärt hat. Seit 2021 erlaubt § 44b UrhG Text- und Data Mining, es sei denn, die Urheber haben dem „maschinenlesbar“ widersprochen. Ob ein solcher Widerspruch in maschinenlesbarer Form vorliegt, ist jedoch umstritten.
  • Verletzung des Rechts der öffentlichen Wiedergabe: Die GEMA argumentiert, dass bereits die Generierung der KI-Songs eine Verletzung des Rechts der öffentlichen Wiedergabe darstellt. KI-Systeme arbeiten jedoch nicht mit exakten Kopien, sondern mit statistischen Mustern.
  • Pflichten der KI-Anbieter: Nach dem AI Act müssen Anbieter von Mehrzweck-KI-Systemen wie Suno eine Strategie zur Einhaltung des EU-Urheberrechts vorlegen.

LG Hamburg: Nutzung von Bildern für KI-Training

Das Landgericht Hamburg hat sich in einem Urteil vom 27.09.2024 (Az. 310 O 227/23) mit der Frage auseinandergesetzt, ob die Nutzung von urheberrechtlich geschützten Werken für das Training von KI-Systemen zulässig ist. Das Gericht hat entschieden, dass die Schrankenregelung des § 44a UrhG (vorübergehende Vervielfältigungshandlungen) für Trainingszwecke von KI nicht anwendbar ist.

  • Keine Flüchtigkeit: Das Gericht argumentierte, dass die Speicherung der Werke auf den Servern des KI-Herstellers nicht „flüchtig“ im Sinne des Gesetzes sei.
  • Keine Begleitfunktion: Das Herunterladen der Bilddateien zur Analyse sei kein bloß begleitender Prozess, sondern ein bewusster Beschaffungsprozess.

Allerdings tendierte das LG Hamburg in seiner Entscheidung dazu, dass ein Nutzungsvorbehalt in natürlicher Sprache (z.B. in AGB) genügen müsse, um die Nutzung eines Werkes für KI-Training zu untersagen. Dies könnte auch für die Klage der GEMA relevant sein, da es fraglich ist, ob die GEMA bzw. ihre Mitglieder einen solchen maschinenlesbaren Nutzungsvorbehalt rechtzeitig erklärt haben.

Was bedeutet das für die Zukunft?

Die Klage der GEMA gegen Suno ist ein Präzedenzfall. Es ist noch unklar, wie die Gerichte die Nutzungsvorbehalte der Urheber bewerten werden. Das Urteil könnte richtungsweisende Antworten auf die Frage geben, wie mit KI-generierter Musik und dem Urheberrecht umzugehen ist.

Parallele in den USA

Auch in den USA gibt es ähnliche Rechtsstreitigkeiten im Zusammenhang mit KI-Training und Urheberrecht.

  • Ein US-Gericht, der District Court of Delaware, hat im Fall Thomson Reuters ./. Ross Intelligence entschieden, dass die Nutzung urheberrechtlich geschützter Inhalte zum Training einer KI nicht unter die „Fair Use“-Doktrin fällt, wenn das KI-Training kommerziellen Zwecken dient und sich negativ auf den Wert des geschützten Werks auswirkt.
  • Dieses Urteil könnte Auswirkungen auf KI-Anbieter haben, die in den USA tätig sind. Bemerkenswert ist, dass das Gericht die meisten Gerichtsentscheidungen, auf die sich KI-Unternehmen bislang berufen haben, als „irrelevant“ abgelehnt hat.
  • Die Entscheidung des US-Gerichts betraf einen Fall, in dem eine KI-Suchmaschine mit urheberrechtlich geschützten Headnotes trainiert wurde. Das Gericht argumentierte, dass die Nutzung nicht „transformierend“ sei, da die KI lediglich ein Konkurrenzprodukt erstellen sollte. Dies könnte ein wichtiger Unterschied zur generativen KI sein, die neue und transformative Werke schaffen kann. Das Gericht betonte, dass Ross mit seiner KI direkt mit Westlaw konkurrieren wollte, was ausreiche, um eine Marktbeeinträchtigung festzustellen. Es sei unerheblich, ob Reuters bereits KI-Trainingsdaten vermarkte – die Möglichkeit, dies zu tun, sei rechtlich schutzwürdig.

Auswirkungen für Deutschland

Es bleibt abzuwarten, wie sich die Rechtslage im Bereich der KI-generierten Musik, aber auch bei Texten, Grafiken etc., entwickeln wird.

Die mit der Nutzung von urheberrechtlichen Inhalten zu Trainingszwecken verbundenen urheberrechtlichen Fragen werden vermutlich erst in einigen Jahren höchstrichterlich geklärt werden. Es könnte sein, dass sich bis dahin entweder der Gesetzgeber entschließt, das Thema neu zu regeln (und dann, so ist meine Vermutung, eine „KI-Abgabe“ einführt, die an Verwertungsgesellschaften wie die GEMA zu zahlen ist) oder es zu Vereinbarungen zwischen Anbietern von KI und Verwertungsgesellschaften kommen wird.

Nochmals: Fortbildungspflichten für Unternehmen beim Einsatz von KI

Ende Januar habe ich darüber berichtet, dass ab dem 02.02.2025 die in Art. 4 des AI-Acts statuierte Fortbildungspflicht für  „Anbieter“ und „Betreiber“ von KI-Systemen in Kraft getreten ist.

Wer wissen möchte, wie sich die EU die Dokumentation dieser Verpflichtung vorstellt: seit Anfang Februar hat das EU-AI Office eine pdf-Datei dazu veröffentlicht, in welcher beispielhaft Unternehmen und deren Dokumentation dazu zu lesen ist.

Fortbildungspflichten für Unternehmen beim Einsatz von KI

Der sog. AI-Act der EU – auch als KI-Verordnung oder als KI-Gesetz bezeichnet – ist bereits letztes Jahr am 01.08.2024 in Kraft getreten. Die relevanten Pflichten aus dem AI-Act treten aber erst nach und nach in Kraft, u.a. zum 02.02.2025, zum 02.08.2025 und am 02.08.2026.

Bei dem AI-Act handelt es sich um eine EU-Verordnung, die unmittelbar in allen Ländern der EU in Kraft tritt und – vergleichbar mit der DSGVO oder dem Digital Services Act (DSA) – keiner Umsetzung in ein deutsches Gesetz bedarf.

In der Presse und speziell in den sozialen Medien ist in letzter Zeit eine Diskussion über eine am 02.02.2025 in Kraft tretende Pflicht entbrannt, und zwar über die Verpflichtung aus Art. 4 des AI-Acts.

Der in der Diskussion stehende Art. 4 des AI-Acts verpflichtet „Anbieter“ und „Betreiber“ von KI-Systemen dazu, dass sie dafür Sorge tragen müssen, dass ihre Mitarbeiter – unabhängig davon, ob es sich um Arbeitnehmer oder freie Mitarbeiter handelt – über ein ausreichendes Maß an KI-Kompetenz verfügen. Sprich: Die Mitarbeiter müssen zu KI-Themen geschult werden.

Diskutiert wird nun die Frage, ob davon alle Unternehmen betroffen sind, die KI in irgendeiner Form einsetzen oder ihren Mitarbeitern erlauben, KI zur Bewältigung von Arbeitsaufgaben zu benutzen, egal ob es sich um ein Large Language Model wie ChatGPT handelt oder um sog. Diffusion Models, wie z.B. Midjourney oder DALL-E.

Die Pflicht aus Art. 4 AI-Act adressiert zunächst die Anbieter von KI-Systemen. Nach der Definition des Anbieters in Art. 3 Nr. 3 AI Act fallen darunter Unternehmen, die KI-Systeme oder KI-Modelle entwickeln und in Verkehr bringen. Im Falle von ChatGPT wäre also der „Anbieter“ im Sinne dieser Vorschrift OpenAI.

Die Pflicht aus Art. 4 AI Act trifft aber auch den „Betreiber“. Nach Art. 3 Nr. 4 AI-Act ist der „Betreiber“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird nur zur persönlichen und nicht zur beruflichen Tätigkeit verwendet.

Legt man diese Definition weit aus, so würde tatsächlich z.B. jegliches Unternehmen darunterfallen, das den Einsatz von KI im Unternehmen ermöglicht.

Allerdings wird anhand des Tatbestandsmerkmals „in eigener Verantwortung“ geschlussfolgert, dass damit nicht jegliche Unternehmen, deren Mitarbeiter KI nutzen, gemeint sind. Hiernach gelten nur Unternehmen als „Betreiber“, die „Kontrolle“ über das eingesetzte KI-System haben. Ein Unternehmen, das ein KI-System lediglich als „Black Box“ einsetzt, ohne die Funktionsweise und die Auswirkungen zu verstehen oder zu beeinflussen, dürfte deshalb nicht als „Betreiber“ im Sinne des AI-Acts gelten.

Auch ein Unternehmen, das seinen Mitarbeitern z.B. die Nutzung von ChatGPT oder Midjourney als Arbeitshilfe gestattet, dürfte daher noch kein „Betreiber“ sein. Setzt das Unternehmen aber z.B. eigene, bei ChatGPT erstellte sog. GPTs, die auf eine eigene Wissensdatenbank zugreifen, ein und bindet diesen eigens erstellten GPTs über eine Schnittstelle z.B. zur Beantwortung von Kundenanfragen auf die eigene Webseite ein, sieht dies wahrscheinlich anders aus.

Die Beantwortung dieser Frage ist also nicht einfach. Da der AI-Act so konzipiert ist, dass jedes Unternehmen anhand der gesetzlichen Regelungen sich selbst einstufen und einschätzen muss, bedeutet dies natürlich, dass jedes Unternehmen anhand dieser leider sehr unscharfen Kriterien prüfen sollte, ob er unter den Begriff des „Betreibers“ fallen kann oder nicht.

Fällt ein Unternehmen unter den Begriff des „Betreibers“, so muss es konkrete Maßnahmen zur Förderung der KI-Kompetenz seiner Mitarbeiter in die Wege leiten. Zu diesen Maßnahmen können die Durchführung von Schulungen oder Workshops gehören, aber auch die Entwicklung interner Richtlinien, in denen klare Vorgaben für den Einsatz von KI-Systemen im Unternehmen festgehalten werden. Sollte ein Unternehmen unsicher sein, wie es sich selbst einzuschätzen hat und daher sicherheitshalber z.B. Fortbildungsmaßnahmen seiner Mitarbeiter ins Auge fassen, ist gleichwohl kein Grund zur Hektik, obwohl die Pflicht bereits Anfang Februar greift:

Aktuell steht noch gar nicht fest, welche Behörde in Deutschland die Umsetzung und Einhaltung der Pflichten aus dem AI-Act überwachen wird. Es ist auch nicht wahrscheinlich, dass dies noch vor der anstehenden Bundestagswahl geschehen wird.

Auch wenn Verstöße gegen die Pflichten aus dem AI-Act theoretisch mit Bußgeldern sanktioniert werden können, so gibt es also aktuell noch gar keine Behörde in Deutschland, die diese Bußgelder verhängen könnte.