Der EU AI Act ist da – was Medienschaffende jetzt wissen müssen

Angenommen, dein Team produziert eine aufwendige Doku für eine große Streaming-Plattform. Künstliche Intelligenz (KI) filtert aus dem stundenlangen Rohmaterial relevante Aussagen, markiert Spannungsmomente und erstellt sogar einen groben Schnittvorschlag. Was vor kurzer Zeit noch nach Science-Fiction klang, ist heute Realität und einer der Gründe für den neuen AI Act.
Seit August 2024 gibt es mit dem AI Act ein einheitliches EU-Regelwerk, das den Einsatz von KI systematisch reguliert. Je höher das Risiko, das eine KI-Anwendung birgt, desto strenger sind die Vorschriften. Bei den meisten Anwendungen aus der Medienproduktion – etwa Transkription, Szenenauswahl oder Textgenerierung – bewegt man sich im Rahmen des „begrenzten Risikos“ im Sinne des AI Acts. Du darfst sie also nutzen, musst aber bestimmte Transparenzpflichten einhalten und in Deiner Organisation für KI-Kompetenz sorgen (Artikel 4 AI Act).
Aber Vorsicht: Je risikoreicher eine KI eingestuft wird, desto höhere Anforderungen stellt der AI Act an sie: Wird KI eingesetzt, um Emotionen bei Proband:innen auf der Grundlage ihrer biometrischen Daten zu erkennen oder Bewerbungen zu sichten, zu filtern und Bewerber:innen zu bewerten, gilt diese als „Hochrisiko-KI“. Dann gelten weitergehende Verpflichtungen (Artikel 8 ff. AI Act). Außerdem muss deine KI ein sogenanntes Konformitätsbewertungsverfahren, durchlaufen, um nachzuweisen, dass das Hochrisiko-KI-System den Anforderungen des AI Act genügt.
Tipps & Tricks für die Praxis
- Risiko einschätzen: Kläre mit deiner IT oder Rechtsabteilung, ob dein System ein Hochrisiko-Fall ist.
- Biometrie & HR prüfen: KI zur Mimik-Erkennung oder bei Bewerbungsprozessen ist besonders sensibel.
- Den Zeitplan kennen: Die Regeln treten stufenweise in Kraft, manche sogar erst ab 2026 oder später.
Wenn du tiefer einsteigen willst, erfährst du im nächsten Abschnitt, welche Pflichten genau gelten und worauf du bei der Umsetzung achten musst.
Deep Dive: Insights zum EI AI Act
Was bedeutet das nun konkret für unseren Fall mit der Doku? Die KI analysiert dein Rohmaterial, erkennt Sprecher:innen, markiert Themenwechsel und schlägt passende Übergänge vor. Technisch funktioniert das über ein sogenanntes Sprachmodell. Es verhält sich wie ein erfahrener Cutter, der tausende Produktionen gesehen hat.
Als Medienhaus nutzt du dieses System und bist damit laut AI Act „Betreiber“. Du trägst also die Verantwortung dafür, wie das System eingesetzt wird. Für dich gelten beispielsweise – neben der Verpflichtung zur Vermittlung von KI-Kompetenz nach Artikel 4 AI Act – die Transparenzpflichten aus Artikel 50 AI Act: Du musst bei jedem veröffentlichten Inhalt, den du mit oder mit Hilfe von KI erstellt hast, prüfen, ob du einer Kennzeichnungspflicht unterliegst. Gerade bei journalistisch geprägten Inhalten von öffentlichem Interesse ist das Vertrauen des Publikums entscheidend.
Der AI Act kategorisiert KI-Systeme nach Risiko:
- Verbotene Praktiken: z. B. emotionserkennende Systeme am Arbeitsplatz (Artikel 5 AI Act).
- Hochrisiko: z. B. KI in der Personalrekrutierung oder bei der Gesichtserkennung (Artikel 6 in Verbindung mit Anhang III AI Act).
- Begrenztes Risiko: wie bei Schnitt-Assistenz, Textanalyse oder Content-Vorschlägen.
- Minimales Risiko: z. B. Spielempfehlungen oder Spamfilter.
Viele Medienanwendungen bewegen sich in Stufe 3 (begrenztes Risiko), aber aufgepasst: Will ein TV-Sender automatisiert Szenen aus Zuschauerkameras analysieren, um emotionale Reaktionen zu messen, kann das als Emotionserkennung gelten (Art. 6 i. V. m. Anhang III AI Act) und kann dann unter Stufe 2 (Hochrisiko) fallen. In dem Fall gelten erweiterte Verpflichtungen, unter anderem betreffend das Risikomanagement, die Daten und Daten-Governance, technische Dokumentation, Transparenz und Bereitstellung von Informationen für die Betreiber sowie die menschliche Aufsicht (Artikel 8 ff. AI Act). Außerdem muss deine KI ein Konformitätsbewertungsverfahren durchlaufen (Artikel 16 i.V.m. Artikel 43 AI Act).
Die Vorgaben treten nicht alle auf einmal in Kraft:
- Die Verpflichtung zur KI-Kompetenzschulung nach Artikel 4 AI Act gilt seit Februar 2025.
- Hochrisiko-Systeme brauchen ab August 2026 eine Konformitätsbewertung.
- Die Transparenzvorschriften in Artikel 50 AI Act gelten ebenfalls ab August 2026.
- Für Bestands-KI gelten können Übergangsfristen bis ins Jahr 2030 einschlägig sein (Artikel 111 AI Act).
Die möglichen Sanktionen in Höhe von bis zu 35 Millionen Euro oder 7 % vom Jahresumsatz (Artikel 99 AI Act) bei Verstößen sind empfindlich. Für kleine Unternehmen gelten reduzierte Summen, aber auch sie sind nicht ausgenommen.
Ausblick
Der AI Act bringt nicht nur Verbote, sondern grundsätzliche Regeln im Umgang mit KI. Wer sie kennt, kann auch weiterhin mit KI kreativ arbeiten und dabei Vertrauen sichern. Klar ist: Wer heute KI in der Medienproduktion einsetzt, muss wissen, wo mögliche Risiken beginnen.
Dieser Beitrag gibt einen Überblick zu rechtlichen Themen, ersetzt aber keine individuelle Rechtsberatung. Hierfür ist die persönliche Einschätzung einer Rechtsanwält:in erforderlich.
Bei der Erstellung des Beitragsbildes sowie des Textes kam generative Künstliche Intelligenz unterstützend zum Einsatz.