Haftung für KI-Chatbots: Warum „Die KI war’s!“ vor Gericht nicht zählt

KI-Kompetenzzentrum MedienEU AI ActHaftung für KI-Chatbots: Warum „Die KI war’s!“ vor Gericht nicht zählt

Haftung für KI-Chatbots: Warum „Die KI war’s!“ vor Gericht nicht zählt

Ein KI-Chatbot arbeitet für dich. Oder etwa nicht? Gerade dann, wenn Chatbots ohne Brand-Safety-Maßnahmen agieren dürfen, kann es zu brenzligen Situationen kommen. Und manche davon sind nicht nur ein Problem für die Reputation von Medienhäusern, sondern haben auch das Potenzial zu juristischen Auseinandersetzungen.

Was wäre zum Beispiel, wenn ein Chatbot falsche Behauptungen über eine reale Person aufstellt? Dass im Namen anerkannter Medien durch eine Maschine Falschinformationen verbreitet werden, ist keine wilde Spekulation. Halluzinationen wie diese passieren regelmäßig. Denn: KI-Systeme sind genauso wenig unfehlbar wie die Menschen, die sie trainieren oder bedienen. Doch was sind die rechtlichen Konsequenzen, die sich daraus ergeben?

Warum sind Chatbots für Medienunternehmen interessant?

KI-Chatbots sind und bleiben im Trend – nicht zuletzt wegen des Hypes um agentische KI-Systeme. Chatbots (mit und ohne agentischem Ansatz) werden bereits in unterschiedlichsten Bereichen auf Unternehmens-Webseiten eingesetzt. Auf Sprachmodellen basierende KI-Chatbots sind in der Lage, natürliche Sprache zu verstehen, zu verarbeiten und passende Antworten zu generieren. Ihre aus dem Alltag übernommene dialogbasierte Funktionsweise macht sie für Kund:innen attraktiv, weil sie Schnelligkeit und Einfachheit versprechen.

Aus der Perspektive von Medienakteure sind Chatbots wiederum spannend, weil ihre Zielgruppe mit dem Medium in Kontakt treten kann, ohne dass menschliche Mitarbeiter:innen eingesetzt werden müssen. Und gleichzeitig können die Antworten von KI-Chatbots so täuschend menschlich sein, dass man das Gefühl hat, am anderen Ende sitze eine reale Person. Ein ideales Tool also für die langfristige Bindung von Nutzenden an Medienangebote.

Wer haftet, wenn KI-Chatbots versagen?

Aber was bedeutet die Fehlbarkeit von KI-Systemen in Bezug auf die Haftung für die von einem KI-Chatbot generierten Outputs? Können KI-Systeme selbst haften, genauso wie Menschen? Die Antwort ist selbstverständlich nein: KI-Systeme gelten juristisch nicht als eigenständige Rechtspersönlichkeiten, die Träger von Haftungsansprüchen sein könnten. KI-Systeme sind aus haftungsrechtlicher Sicht lediglich Werkzeuge. Es stellt sich also die Frage, wer für Fehler des Werkzeugs einstehen muss.

Eine Lokalredaktion könnte zum Beispiel einen KI-Chatbot einsetzen, um Bürgerfragen zur Stadtpolitik zu beantworten. Als eine Nutzer:in fragt, ob ein bestimmtes Gemeinderatsmitglied vorbestraft ist, antwortet der Bot mit einer erfundenen Geschichte. Die betroffene Person geht rechtlich gegen die Redaktion vor. Wer würde also die Verantwortung für diesen Vorfall tragen? Die Antwort lautet: Als Betreiber der Website und des Chatbots tragen Medienunternehmen die rechtliche Verantwortung und Haftung für die von ihrem Chatbot generierten Inhalte und Auskünfte – genau wie für die Inhalte auf der „normalen“ Website.

Werden durch KI-Chatbots unzutreffende Tatsachenbehauptungen verbreitet, können die Website-Betreiber Beseitigungs- und Unterlassungsansprüchen ausgesetzt sein. Unterhaltungen mit KI-Chatbots können ferner wirtschaftliche Folgen nach sich ziehen, zum Beispiel wenn der Chatbot Vertragsangebote auswirft. Für Medienunternehmen bedeutet das: Bereits vor dem Einsatz eines KI-Chatbots sollten etwaige Haftungsfragen geklärt werden, um das Haftungsrisiko zu minimieren.

KI.M-Tipps & Tricks für die Praxis

Generative Künstliche Intelligenz ist ein Werkzeug. Wer ein Werkzeug einsetzt, muss die Risiken kontrollieren. Wenn Medienhäuser eigene Chatbots veröffentlichen, sollten vorab mindestens diese Punkte mitgedacht werden:

  • Haftung von Anfang an mitdenken & Risk Mapping: Wähle das dem Chatbot zugrunde liegende Sprachmodell sorgfältig aus und informiere dich darüber, was es kann und was nicht. Wo liegen seine Grenzen? Analysiere, in welchen Bereichen der Chatbot echten Schaden (finanziell, körperlich, reputationsschädigend) anrichten könnte.
  • Einsatzbereich definieren und Einschränkung der Antworten in kritischen Bereichen: Definiere im Entwicklungsstadium den genauen Einsatzbereich und Zweck des Chatbots. Gib ihm klare Grenzen vor (z. B. keine Aussagen zur strafrechtlichen Vergangenheit lebender Personen, keine Vertragsanbahnung/Vertragsschlüsse etc.) und dokumentiere all das im Hinblick auf etwaige Rechtsstreitigkeiten.
  • Transparency First: Kennzeichne klar, dass der Chatbot eine KI ist und keine natürliche Person. Das verlangt die EU-KI-Verordnung (KI-VO) von Anbietern ohnehin ab August 2026 (Artikel 50 Abs. 1 KI-VO). KI-Systeme, die für die direkte Interaktion mit Personen bestimmt sind, müssen so gestaltet sein, dass die Nutzenden informiert werden, dass sie mit einem KI-System interagieren. Informiere die Nutzenden auf deiner Homepage über die Grenzen und die Möglichkeit von Halluzinationen deines KI-Chatbots. Kommuniziere klar, was der Chatbot kann und was nicht.
  • Disclaimer: Vermeide rechtlich bindende Aussagen durch Chatbots. Verweise auf menschliche Ansprechpartner:innen, vor allem bei komplexen Fragestellungen. Baue Disclaimer ein, die die rechtliche Verbindlichkeit der Aussagen einschränken. Entsprechende Warnhinweise können beispielsweise in jeder Ausgabe enthalten sein oder vor der Nutzung als Pop-up-Fenster erscheinen. Der lapidare Hinweis „Für die Ergebnisse der KI wird keine Haftung übernommen“ wird Gerichte jedoch kaum überzeugen können.
  • Regelmäßige Tests & Updates: Sorge dafür, dass deine KI regelmäßig gewartet wird, um Biases und fehlerhafte Outputs zu minimieren. Dokumentiere alles! Setze auf laufende Überprüfung der Outputs und justiere bei Bedarf nach. Anbieter und Betreiber eines Chatbots müssen dafür sorgen, dass der Bot rechtssicher funktioniert und keine Schäden verursacht. Ein Testlauf vor dem Ausrollen ist nicht nur aus technischer, sondern auch aus juristischer Perspektive sinnvoll.
  • Proaktive KI-Rechts-Compliance: Prüfe, welche Vorschriften der EU-KI-Verordnung einschlägig sein könnten bzw. zukünftig Geltung erlangen (die in Art. 5 KI-VO aufgelisteten „verbotenen Praktiken“ gelten bereits seit Februar 2025).
  • Datenschutz beachten: KI-Chatbots verarbeiten potenziell personenbezogene Daten. Daher ist die sorgfältige Umsetzung von Datenschutzmaßnahmen essenziell. Bei DSGVO-Verstößen drohen Bußgelder und Reputationsschäden. Für einen verantwortungsvollen Einsatz von Chatbots müssen Unternehmen die DSGVO-Grundsätze beachten: Rechtmäßigkeit, Transparenz und Zweckbindung. Beziehe frühzeitig den:die Datenschutzbeauftragte:n oder – falls nicht benennungspflichtig – die verantwortliche Person für den Datenschutz in deiner Organisation ein.
  • Urheberrecht, Persönlichkeitsrechte etc.: KI-generierte Texte und Bilder können Persönlichkeitsrechte, urheberrechtliche Werke und anderes „geistiges Eigentum“ Dritter verletzen. Beim Urheberrecht gilt: Wer veröffentlicht, trägt die Verantwortung. Die Chatbot-Antworten dürfen keine urheberrechtlich geschützten Werke (z. B. Songtexte, Zeitungsartikel, Fotos) ohne Lizenz oder Freigabe seitens der Urheber:innen verwerten oder wiedergeben. Das LG München I hat Urheber:innen im November 2025 unter anderem Ansprüche auf Schadensersatz und Unterlassung gegen OpenAI zugesprochen. Überprüfe deine Chatbot-Ausgaben regelmäßig juristisch und begrenze den Anwendungsbereich des Chatbots vorsorglich.
  • Sonstige Rechtsgebiete: Betreibst du als Medienschaffende:r bzw. als Medienunternehmen einen Chatbot, sind neben den Themen KI-Verordnung und Datenschutz z. B. auch medien- und jugendschutzrechtliche Vorgaben (z. B. MStV, JMStV) sowie IT-Sicherheitsrecht und Softwarelizenzrecht zu beachten.

Fazit: Neue KI-gestützte Prozesse besser überprüfen lassen

Die Frage der Haftung für Schäden beim Einsatz von KI ist komplex und lässt sich nicht pauschal beantworten. Wie auch die Technik werden sich die Gesetzgebung und Rechtsprechung in Zukunft weiterentwickeln. Viele Fragen sind offen: Welche Sorgfaltspflichten haben Unternehmen konkret mit Blick auf KI-Chatbots und ähnliche Systeme? Wie genau muss man die Systeme „im Feld“ überwachen? Welche Qualitätsanforderungen kann man an Chatbots stellen?

Medienakteure sollten daher frühzeitig Risikominimierungsmaßnahmen ergreifen und die aktuellen Entwicklungen zur KI-Haftung in Gesetzgebung und Rechtsprechung im Blick behalten. Wer auf Nummer sicher gehen will, sollte KI-gestützte Prozesse immer juristisch prüfen – besonders dann, wenn sie automatisiert mit Nutzenden kommunizieren.

Dieser Beitrag gibt einen Überblick zu rechtlichen Themen, ersetzt aber keine individuelle Rechtsberatung. Hierfür ist die persönliche Einschätzung einer Rechtsanwält:in erforderlich.

Bei der Erstellung des Beitragsbildes kam generative Künstliche Intelligenz unterstützend zum Einsatz.

Wir freuen uns, euch vom 22. – 24. Oktober 2025 auf den #MTM25 begrüßen zu dürfen. Mit der „Media For You“ gibt es auch wieder die beliebte Career-Erlebnismesse zum Thema Jobs & Ausbildung.