GEMA vs. OpenAI: Wie sich das Urteil auf die Arbeit von Redaktionen auswirkt

Künstliche Intelligenz und Urheberrecht: In vielen Redaktionen ist das ein tägliches Konfliktfeld. Denn die Bandbreite möglicher Anwendungen ist groß. Egal ob Themenideen, Social Postings, Überschriftenvarianten oder Recherche – generative Technologien versprechen Erleichterungen jeglicher Couleur. Und trotzdem schwingt oft dieses diffuse Gefühl mit: „Darf ich das? Und wenn ja – wie?“
Das Landgericht München I hat am 11.11.2025 mit einem deutlich urheberfreundlichen Urteil zugunsten der GEMA entschieden (LG München I, Urteil v. 11.11.2025 – 42 O 14139/24, noch nicht rechtskräftig). Das Urteil des Landgerichts ist ein Meilenstein, da es erstmals in Deutschland die Verantwortlichkeit von KI-Anbietern für die Ausgabe urheberrechtlich geschützter Inhalte konkretisiert. Das Gericht kam zum Schluss: OpenAI verletzt mit dem Training und Betrieb von ChatGPT das Urheberrecht.
Aber warum wurde dieses Urteil so stark besprochen? In anderen Ländern wurde bereits über ähnliche Sachverhalte entschieden (z.B. High Court of Justice, London [2025] EWHC 2863 (Ch) – Getty Images vs. Stability AI), aber: Im deutschen Rechtsraum haben Urteile aus anderen Ländern keine direkte Rechtswirkung. Sie gelten nur in der jeweiligen Rechtsordnung.
Worum ging es im Fall GEMA vs. OpenAI?
Die GEMA hat vor dem Landgericht München I einen Teilsieg gegen OpenAI errungen. Kern des Streits war unter anderem die Frage, ob ChatGPT Songtexte wortgenau wiedergeben darf, ohne dass OpenAI dafür Lizenzen hält. Das Gericht sagte klar: Nein. Für Redaktionen in Bayern und ganz Deutschland ist dies ein Weckruf, den Einsatz von KI-Tools nicht als „rechtsfreien Raum“ zu betrachten, sondern eben als das, was sie sind: als Werkzeuge, die einer strengen Output-Kontrolle bedürfen.
Konkret waren die Liedtexte von neun bekannten deutschen Urheber:innen Gegenstand des Verfahrens. Die GEMA argumentierte, die Texte seien in Sprachmodellen memorisiert und könnten mit einfachen Prompts in weiten Teilen originalgetreu wiedergegeben werden. Diese sogenannten Memorisierungen wurden als urheberrechtliche Vervielfältigungen der Liedtexte bezeichnet. Das Gericht folgte dieser Linie weitgehend und sprach der GEMA u.a. Unterlassungs-, Auskunfts- und Schadensersatzansprüche zu. Die Forderungen wegen angeblicher Verletzungen des allgemeinen Persönlichkeitsrechts wegen fehlerhafter Zuschreibung veränderter Liedtexte wurden hingegen abgewiesen.
Das sind die für Redaktionen wichtigsten drei Haupt-Learnings:
Kein KI-Training mit urheberrechtlich geschützten Texten
Das Gericht kam zu dem Ergebnis: Das Training von KI-Modellen mit urheberrechtlich geschützten Texten ist nicht erlaubt. Das Training von generativer KI stellt kein sogenanntes „Text- und Data Mining“ im Sinne des § 44b UrhG dar.
Zum Hintergrund: § 44b UrhG erlaubt das automatisierte Analysieren („Scraping“) rechtmäßig zugänglicher digitaler Inhalte, um daraus Muster und Trends zu gewinnen – eine zentrale Rechtsgrundlage für das Training kommerzieller KI-Modelle. Erlaubt sind die in diesem Rahmen technisch nötigen Vervielfältigungen ohne Lizenz, sofern der Rechteinhaber (z.B. der Verlag) keinen ausdrücklichen Nutzungsvorbehalt erklärt hat.
Tipp: Ein solcher Widerspruch („Opt-out“) muss bei Online-Inhalten maschinenlesbar sein und ist aktuell das schärfste Schwert der Medienhäuser, um die ungefragte Verwertung ihres Contents durch Tech-Plattformen zu unterbinden.
Das Auswerfen geschützter Werke in KI-Outputs verletzt Urheberrecht
Darüber hinaus kam das Landgericht zu dem Ergebnis, dass die Wiedergabe der Songtexte in den Outputs ebenfalls in die Verwertungsrechte der Urheber:innen eingreift. Die streitgegenständlichen Outputs verletzen nach Ansicht des Gerichts das Vervielfältigungsrecht und das Recht der öffentlichen Zugänglichmachung. Und diese Rechtsverletzungen seien den Betreibern der Sprachmodelle und nicht den Nutzenden zuzurechnen.
In Bezug auf die Urheberrechtsverletzung durch Wiedergabe der Liedtexte in den Outputs übten in den Augen des Gerichts vielmehr die Betreiber der Sprachmodelle die sogenannte Tatherrschaft aus. Als Betreiber der Sprachmodelle hätten sie die streitgegenständlichen Liedtexte als Trainingsdaten ausgewählt und ihre Modelle damit trainiert. Die Tatherrschaft könne zwar an die Promptenden verloren gehen, wenn diese Outputs gezielt provozieren. Dies sei bei einfacheren Prompts jedoch nicht der Fall.
Kurz verallgemeinernd gesagt: Wenn ein Sprachmodell Textpassagen, Code oder Bilder ausgibt, die eins zu eins aus geschützten Quellen stammen, liegt eine Urheberrechtsverletzung vor. Und verantwortlich sind nach dem Urteil des LG München I für die Ausgabe der rechtsverletzenden Inhalte die Betreiber der Sprachmodelle, nicht aber die Nutzenden. Die Argumentation nach dem Motto „Der Nutzer war’s“ zieht also nicht automatisch.
Zu früh gefreut: Plagiatsrisiko durch Verwendung urheberrechtlich geschützten Outputs
Für die Redaktions-Praxis heißt das zuvor Gesagte jedoch nicht, dass Nutzende generell für etwaige Urheberrechtsverletzungen nicht belangt werden können.
Für Redaktionen gilt weiterhin: Sie sind nach wie vor für die Veröffentlichung verantwortlich. KI-Modelle können bekannte Formulierungen oder ganze Absätze aus ihren Trainingsdaten reproduzieren, ohne die Quelle zu nennen.
Wenn ein KI-generierter Text veröffentlicht wird, der ein Plagiat ist, haftet der Verlag – egal, ob der Fehler von einem Menschen oder von einem KI-System gemacht wurde. Rechtlich geschützte Inhalte wie Bilder und Texte darf man außerdem schon nicht in Prompts in die KI eingeben, sofern man kein Nutzungsrecht an diesen Inhalten hat.
Was das für die tägliche Redaktionsarbeit bedeutet
Redaktionen trainieren in den seltensten Fällen eigene Sprachmodelle. Aber dennoch lassen sich aus dem Urteil des Landgerichts München I im Verfahren GEMA vs. Open AI – und darüber hinaus ganz allgemein aus dem geltenden Urheberrecht – für den journalistischen Alltag wichtige urheberrechtliche Schlussfolgerungen ableiten.
Die wichtigste Erkenntnis: Rechtlich geschützte Inhalte sind keine „Gratis-Bibliothek“ und KI ist kein kostenloser Zitatgenerator. Aber mit ein paar klaren Spielregeln lässt sich das Risiko des KI-Einsatzes in Redaktionen gut steuern.
Dos für den KI-Einsatz in der Redaktion
Um sich rechtlich zu schützen, können Redaktionen beim Einsatz von KI folgende Leitplanken einziehen:
- Urheberrecht verbindlich regeln: Das Thema Urheberrecht gehört in jede KI-Redaktionsleitlinie. Es sollte klar definiert sein, wann und wie KI eingesetzt wird. Ohne interne Regeln entstehen Grauzonen, die später rechtliche Probleme verursachen können.
- Ein „Plagiats-Bauchgefühl“ entwickeln: KI-Outputs sind wie Material aus einer unbekannten Quelle zu behandeln – nicht wie selbst geschriebene Texte. Das heißt: prüfen, kürzen, umformulieren, Quellen klären. Wenn ein Absatz „zu gut“, „zu bekannt“ oder „zu fertig“ wirkt, sollte er aktiv gegengeprüft oder neu formuliert werden.
- Gemeinfreiheit prüfen: Ist ein Werk rein KI-generiert, ist es in der Regel gemeinfrei. Vorsicht ist jedoch geboten, wenn erkennbare Ähnlichkeiten zu bestehenden Werken bestehen.
- KI als Schreibhilfe nutzen – nicht als Copy-&-Paste-Quelle: KI sollte als Unterstützung verstanden werden. Eine eigenständige Endredaktion ist unerlässlich. Werden KI-Outputs mit eigener schöpferischer Leistung wesentlich verändert, können unter Umständen eigene Rechte an der Bearbeitung entstehen (§ 3 UrhG).
Weitere meist „unverfängliche“ KI-Nutzungen
- Ideation und Strukturierung: Für Brainstorming, Themenvorschläge, Gliederungen, Fragenkataloge oder Interviewleitfäden kann KI sinnvoll eingesetzt werden. Auch die Strukturierung eigener Texte oder die Zusammenfassung interner Dokumente ist in der Regel unproblematisch.
Meta-Aufgaben: Tonalitäts-Checks, Verständlichkeitsprüfungen, Kürzen oder Formatieren („Mach daraus fünf Bulletpoints“) sind typische Anwendungsfälle mit geringem Risiko. - Zusammenfassungen auf sauberer Grundlage: Zusammenfassungen sind unkritisch, wenn das Ausgangsmaterial rechtlich geklärt ist, etwa bei eigenen Notizen, Interviews, Transkripten oder bei Pressemitteilungen mit entsprechenden Nutzungsrechten.
- Nutzungsvorbehalt prüfen: Bei eigenen Website-Inhalten kann geprüft werden, ob gegenüber potenziellen Scrapern ein Nutzungsvorbehalt erklärt werden soll. Dieser muss maschinenlesbar erfolgen (§ 44b UrhG).
- Team sensibilisieren und juristischen Rat einholen: Regelmäßige Schulungen schaffen Awareness. Bei Unsicherheiten sollte frühzeitig juristische Expertise eingebunden werden. Das Urheberrecht kennt neben Verboten auch Ausnahmen („Schranken“), etwa für Karikatur, Parodie oder Pastiche (§ 51a UrhG).
- Dokumentation sicherstellen: Es sollte nachvollziehbar festgehalten werden, wann und wie KI-Outputs entstanden sind und welche Teile eines Beitrags KI-unterstützt erstellt wurden. Transparenz hilft bei späteren Nachfragen.
Don’ts: Diese Fehler sind echte „Urheberrechts-Fallen“:
- Kein ungeprüftes Copy & Paste: KI-generierte Textpassagen sollten niemals ungeprüft übernommen werden. Selbst einfache Prompts können zur wortgleichen Wiedergabe geschützter Inhalte führen. Es drohen Unterlassungs- und Schadensersatzansprüche. Plagiats-Scanner können unterstützend eingesetzt werden (bei kostenlosen Anbietern ist jedoch Vorsicht im Umgang mit sensiblen Daten geboten).
- Keine Fremdtexte ohne Rechteklärung in KI-Tools eingeben: Öffentliche KI-Modelle sollten nicht mit urheberrechtlich geschützten Fremdtexten gefüttert werden, ohne die Rechte geklärt zu haben.
- Keine Prompts zur vollständigen Werkabfrage: Formulierungen wie „Gib mir den vollständigen Text von …“ (Song, Gedicht, Buchkapitel, Artikel) sollten unterbleiben. Solche Anfragen können zur originalgetreuen Wiedergabe geschützter Werke führen.
- Keine Rekonstruktions-Prompts mit konkreten Werkdetails: Aufforderungen wie „Schreib einen Artikel im Stil von …“ kombiniert mit konkreten Werkdetails bewegen sich gefährlich nah an einer Werkrekonstruktion. Je stärker auf ein konkretes Werk Bezug genommen wird, desto höher ist das Risiko, dass eine spätere Veröffentlichung Rechte Dritter verletzt.
Fazit
Es wird zu beobachten sein, ob das Urteil des LG München I in der Sache „GEMA vs. Open AI“ Bestand haben wird. Es ist noch nicht rechtskräftig. Die vorstehenden Dos und Dont’s können davon unabhängig aber auf jeden Fall für den redaktionellen Alltag hilfreich sein.
Das Urteil beantwortet zudem nicht die Frage, wie Urheber:innen ihre geschützten Werke gegenüber KI-Anbietern monetarisieren können (Stichwort Vergütungsansprüche). Diese Frage ist Gegenstand einer aktuellen Diskussion und zur Lösung bräuchte es neue gesetzliche Regelungen. Es bleibt abzuwarten, inwieweit der Gesetzgeber auf diese Problematik reagieren wird.
Ebenfalls mit Spannung wird die Entscheidung des EuGH im Vorabentscheidungsersuchen des Budapest Környéki Törvényszék (Ungarn), eingereicht am 3. April 2025 – Like Company/Google Ireland Limited (Rechtssache C-250/25, Like Company; C/2025/3039) erwartet. Im zugrundeliegenden Fall verklagt der ungarische Presseverlag Like Company Google Ireland (KI-System Gemini) wegen des Vorwurfs unautorisierter Nutzung journalistischer Texte.
Warum dieses Vorabentscheidungsverfahren – mit wohlgemerkt mit dem LG München I-Verfahren teils deckungsgleichen Rechtsfragen – so interessant ist: Nach einem Urteil des EuGH dürfen deutsche Gerichte bei der Auslegung von EU-Recht nicht von einer einschlägigen EuGH-Entscheidung abweichen.
Dieser Beitrag gibt einen Überblick zu rechtlichen Themen, ersetzt aber keine individuelle Rechtsberatung. Hierfür ist die persönliche Einschätzung einer Rechtsanwält:in erforderlich.
Bei der Erstellung des Beitragsbildes kam generative Künstliche Intelligenz unterstützend zum Einsatz.