EU-KI-Verordnung: Acht Mythen in Medienhäusern

KI-Kompetenzzentrum MedienEU AI ActEU-KI-Verordnung: Acht Mythen in Medienhäusern

EU-KI-Verordnung: Acht Mythen in Medienhäusern

Manche lieben sie, manche hassen sie: Die EU-KI-Verordnung („AI Act“, oder auch „KI-VO“) ist das erste umfassende Regelwerk für Künstliche Intelligenz weltweit. Seit ihrer Verabschiedung sorgt sie für viele Diskussionen – aber auch für Missverständnisse. Das KI-Kompetenzzentrum Medien (KI.M) hat sich die gängigsten Mythen aus Medienperspektive genauer angeschaut.

Mythos 1: Die KI-Verordnung betrifft die Medien nicht.

Falsch.

Die KI-VO ist „Branchen-agnostisch“. Auch wenn redaktionelle Inhalte vom EU AI Act nicht direkt reguliert werden, können Medienunternehmen dennoch betroffen sein: Etwa, wenn KI-Systeme zur Produktion, Distribution oder Moderation von Inhalten eingesetzt werden, können diese bestimmten Anforderungen der KI-VO unterliegen. Bestimmte Systeme könnten möglicherweise sogar als Hochrisiko-Systeme eingestuft werden (etwa im Bereich biometrischer Kategorisierung, Emotionserkennung).

Aber auch wenn es sich um nicht-hochriskante KI-Systeme handelt: Gerade im Medienbereich sind bei der Veröffentlichung KI-generierter Inhalte die Transparenz- bzw. Kennzeichnungspflichten der KI-VO relevant. Diese kannst du in Artikel 50 der KI-VO nachlesen. Als Betreiber von KI-Systemen ist für dich ab dem 2. August 2026 vermutlich vor allem Artikel 50 Absatz 4 KI-VO relevant. Für Medienunternehmen lohnt sich daher eine genaue Prüfung, welche KI-Anwendungen in ihren Workflows unter welche Risikostufe der KI-VO fallen könnten.

Mythos 2: Die Vorschriften der KI-VO gelten schon seit August 2024 vollumfänglich.

Falsch.

Der Geltungsbeginn der Vorschriften der KI-VO ist stufenweise ausgestaltet. Die Verpflichtung zur KI-Kompetenzschulung nach Artikel 4 KI-VO gilt etwa schon seit Februar 2025, ebenso wie die verbotenen KI-Praktiken nach Artikel 5 KI-VO. Allgemeiner Geltungsbeginn ist der 2. August 2026. So brauchen Hochrisiko-Systeme gegebenenfalls ab 2. August 2026 eine Konformitätsbewertung. Die Transparenzvorschriften in Artikel 50 KI-VO gelten ebenfalls ab 2. August 2026.

Zu beachten sind außerdem spezielle Übergangsregelungen, die im Einzelfall bis ins Jahr 2030 greifen können. Dies kannst du in Artikel 111 und 113 nachlesen.

Mythos 3: Die KI-VO verbietet „riskante“ KI.

Falsch.

Die KI-VO unterscheidet gemäß ihrem risikobasierten Ansatz klar zwischen verbotenen, hochriskanten, begrenzten und minimalen Risiken. Nur bestimmte, eng definierte KI-Praktiken sind tatsächlich verboten. Das sind beispielsweise KI-Systeme, die Betroffene unterschwellig beeinflussen oder absichtlich manipulieren oder täuschen mit dem Ziel, die Betroffenen in ihrer Entscheidungsfindung zu beeinflussen, die „Social Scoring“ vornehmen, die Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen ermöglichen oder KI-Systeme, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern.

Die Verbote bestimmter Praktiken im KI-Bereich kannst du in Artikel 5 der KI-VO nachlesen. Die nicht-verbotenen KI-Systeme bleiben erlaubt, müssen aber je nach Risikostufe bestimmte Anforderungen erfüllen.

Mythos 4: Alles, was mit KI erstellt wurde, muss gekennzeichnet werden.

Nicht unbedingt.

Anbieter und Betreiber müssen für bestimmte KI-Systeme besondere Transparenzanforderungen erfüllen (Artikel 50 KI-VO). Für den Medienalltag sind vermutlich die Betreiber-Transparenzpflichten des Artikel 50 Absatz 4 KI-VO am wichtigsten. So müssen Betreiber eines KI-Systems, das Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.

Diese Pflicht gilt jedoch nicht, wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt. Daneben müssen Betreiber von KI-Systemen, die Bild-, Ton- oder Videoinhalte erzeugen oder manipulieren (Deepfakes) offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden. Aber auch hier gibt es eine Ausnahme: KI-Systeme, die Bild-, Ton- oder Videoinhalte als Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks erzeugen. Hier genügt es, wenn das Vorhandensein der erzeugten beziehungsweise manipulierten Inhalte in geeigneter Form offengelegt wird, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.

Mythos 5: „Betreiber“ eines KI-Systems ist immer nur der Arbeitgeber.

Falsch.

Die Betreibereigenschaft im Sinne der KI-VO richtet sich nicht nach arbeitsrechtlichen Strukturen, sondern nach der tatsächlichen Kontrolle über den Einsatz eines KI-Systems. Nach Artikel 3 Nummer 4 KI-VO ist „Betreiber“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet. Betreiber ist also, wer ein KI-System im eigenen Verantwortungsbereich einsetzt und über seine Nutzung entscheidet – unabhängig davon, ob es sich um ein Unternehmen, eine Behörde oder eine Einzelperson handelt. Das bedeutet: Mitarbeitende, die ein KI-System im Unternehmen lediglich bedienen und dies ausschließlich im Auftrag und Namen des Unternehmens tun, sind nach Artikel 3 Nummer 4 der EU-KI-Verordnung grundsätzlich nicht selbst als „Betreiber“ im Sinne der KI-VO anzusehen, sondern handeln für den eigentlichen Betreiber – das Unternehmen.

Freelancer jedoch, die ein KI-System eigenständig im beruflichen Kontext einsetzen, können rechtlich als Betreiber gelten. Deshalb sollten Organisationen klare Regelungen und Zuständigkeiten definieren – etwa durch Nutzungsrichtlinien und Schulungen, um sicherzustellen, dass alle Beteiligten ihre Pflichten kennen und wahrnehmen.

Mythos 6: Die KI-VO schreibt formalisierte und standardisierte Fortbildungen (z.B. einen „AI Officer“) vor.

Falsch.

Die KI-VO fordert, dass ab dem 2. Februar 2025 die Anbieter und Betreiber von KI-Systemen sicherstellen, dass alle Personen, die in ihrem Auftrag KI-Systeme betreiben oder nutzen, über ein ausreichendes Maß an KI-Kompetenz verfügen (Artikel 4 KI-VO). Die KI-VO macht jedoch dazu keine konkreten Vorgaben. Organisationen haben daher die Freiheit, eigene, praxisnahe Fortbildungsmaßnahmen zu gestalten – etwa durch interne Trainings, E-Learning oder Workshops. Wichtig ist, dass Mitarbeitende die Funktionsweise, Grenzen und Risiken der eingesetzten KI-Systeme verstehen – nicht, dass sie ein formelles Zertifikat besitzen. Die KI-VO verlangt keine standardisierte oder zertifizierte Ausbildung.

Insbesondere gibt es keine Pflicht, eine spezielle Person oder Position wie einen „AI Officer“ zu benennen. In größeren Organisationen kann es sinnvoll sein, eine zentrale Ansprechperson für KI-Governance zu etablieren, doch die Verordnung verlangt das nicht ausdrücklich. Vor allem jedoch, wenn hochriskante KI-Systeme zum Einsatz kommen, ist es sinnvoll, Verantwortlichkeiten für die KI-Compliance intern klar zu regeln.

Mythos 7: Die KI-VO fordert eine Zertifizierung von KI-Tools vor Inbetriebnahme.

Teilweise richtig, aber häufig missverstanden.

Die KI-VO schreibt keine generelle Vorabprüfung oder „Zertifizierung“ durch Aufsichtsbehörden vor dem Inverkehrbringen bzw. der Inbetriebnahme von KI-Systemen vor. Anbieter von Hochrisiko-KI-Systemen müssen jedoch tatsächlich in bestimmten Fällen ein sogenanntes Konformitätsbewertungsverfahren durchlaufen. Dieses ähnelt einer Zertifizierung, ist aber nur für bestimmte Anwendungsfälle verpflichtend. Nähere Informationen dazu findest du in Artikel 43 KI-VO. Was Hochrisiko-KI-Systeme sind, regelt Artikel 6 KI-VO.

Mythos 8: Bei Verstößen gegen die KI-VO drohen ab sofort hohe Bußgelder.

Nicht ganz richtig.

Der Geltungsbeginn der Vorschriften der KI-VO ist gestaffelt. Manche Pflichten gelten schon, manche erst nach und nach. Das für die Sanktionen einschlägige Kapitel XII der KI-VO gilt schon seit dem 2. August 2025, mit Ausnahme des Artikels 101 (Geldbußen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck durch die EU-Kommission). Voraussetzung für einen Vollzug der Bußgeldvorschriften der KI-VO ist jedoch eine zuständige nationale Aufsichtsbehörde. Und genau daran mangelt es aktuell noch. Das entsprechende Durchführungsgesetz des Bundes hat den Gesetzgebungsprozess noch nicht erfolgreich passiert.

KI.M-Praxistipp: FAQ zur EU-KI-Verordnung für Medien

1. Ab wann muss ich die Vorschriften des EU AI Act beachten?

Die wichtigsten Fristen:

  • Seit 2. Februar 2025: KI-Kompetenzschulungen + Verbote bestimmter KI-Praktiken
  • Ab 2. August 2026: Kennzeichnungspflichten für KI-Content (Art. 50)
  • Übergangsfristen: Gelten teilweise bis 2030

2. Muss ich alle KI-generierten Inhalte kennzeichnen?

Nein. Aber: Deepfakes müssen grundsätzlich gekennzeichnet werden. Ausnahme: Bei künstlerischen/satirischen Werken genügt eine Kennzeichnung, die den Genuss des Werkes nicht beeinträchtigt (z.B. im Abspann).

3. Wer gilt als „Betreiber“ eines KI-Systems?

Betreiber ist, wer ein KI-System in eigener Verantwortung einsetzt und über dessen Nutzung entscheidet. Das ist meist das Unternehmen, nicht einzelne Mitarbeitende. Freelancer und selbstständige Journalist:innen können jedoch als Betreiber gelten, wenn sie KI eigenverantwortlich nutzen.

4. Welche KI-Anwendungen sind verboten?

Nur sehr spezifische Praktiken sind verboten: unterschwellige Manipulation, Social Scoring, Emotionserkennung am Arbeitsplatz, ungezielte Erstellung von Gesichtserkennungs-Datenbanken. Typische redaktionelle KI-Tools (ChatGPT, Midjourney, DeepL) sind nicht betroffen, sofern sie nicht für die genannten verbotenen Praktiken eingesetzt werden.

5. Müssen wir unsere Mitarbeitenden schulen?

Ja, seit Februar 2025 müssen alle Personen, die KI-Systeme nutzen, über ausreichende KI-Kompetenz verfügen. Die Form ist flexibel – interne Workshops, E-Learning oder externe Fortbildungen sind möglich. Wichtig: Dokumentiere die Schulungen und plane regelmäßige Auffrischungen ein.

6. Brauchen wir einen „AI Officer“ oder zertifizierte Schulungen?

Nein, beides ist nicht vorgeschrieben. Du kannst praxisnahe, auf individuelle Zielgruppen zugeschnittene Fortbildungen gestalten. Eine interne Ansprechperson für KI-Themen kann aber sinnvoll sein – vor allem in größeren Organisationen.

7. Müssen wir unsere KI-Tools zertifizieren lassen?

Als Betreiber normalerweise nicht. Eine Pflicht zur Durchführung einer Konformitätsprüfung kann aber für Anbieter (Hersteller) von Hochrisiko-KI-Systemen gelten. Wenn du kommerzielle Tools nutzt, liegt diese Verantwortung beim Anbieter. Die meisten redaktionellen Tools fallen im Normalfall nicht unter Hochrisiko.

8. Welche Strafen drohen bei Verstößen?

Je nach Schwere des Verstoßes bis zu 35 Mio. € oder 7% (bei verbotenen Praktiken) bzw. 15 Mio. € oder 3% (bei anderen Verstößen wie fehlender Kennzeichnung) des weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist. Aktuell fehlt jedoch noch das deutsche Durchführungsgesetz mit den zuständigen deutschen Aufsichtsbehörden.

9. Was ist der Unterschied zwischen KI-VO, AI Act und EU KI-Verordnung?

KI-VO, AI Act und EU-KI-Verordnung bezeichnen dasselbe Gesetz. „KI-VO“ ist die deutsche Kurzform für „KI-Verordnung“, „AI Act“ ist die englische Bezeichnung. Die offizielle Bezeichnung lautet „EU-Verordnung über künstliche Intelligenz“. Alle drei Begriffe werden synonym verwendet.

Zusammenfassung

Die EU KI-Verordnung (AI Act) bringt für Medienunternehmen klare Pflichten, aber auch viele Missverständnisse. Wichtig für Journalismus und Publishing: KI-generierte Inhalte müssen unter bestimmten Bedingungen gekennzeichnet werden, KI-Schulungen sind seit Februar 2025 Pflicht, und Hochrisiko-KI-Systeme unterliegen strengen Anforderungen. Die meisten redaktionellen KI-Tools fallen jedoch nicht unter die Hochrisiko-Kategorie des AI Act.

Das KI-Kompetenzzentrum Medien (KI.M) unterstützt Medienschaffende bei der praktischen Umsetzung der KI-Verordnung. Mit unserer FAQ und den aufgeklärten Mythen haben wir die wichtigsten Irrtümer zum AI Act für die Medienbranche ausgeräumt.

Dieser Beitrag gibt einen Überblick zu rechtlichen Themen, ersetzt aber keine individuelle Rechtsberatung. Hierfür ist die persönliche Einschätzung einer Rechtsanwält:in erforderlich.

Bei der Erstellung des Beitragsbildes kam generative Künstliche Intelligenz unterstützend zum Einsatz.

Wir freuen uns, euch vom 22. – 24. Oktober 2025 auf den #MTM25 begrüßen zu dürfen. Mit der „Media For You“ gibt es auch wieder die beliebte Career-Erlebnismesse zum Thema Jobs & Ausbildung.

toggle icon