KI in Medien und Verlagswesen: EU AI Act und Deepfake-Pflichten

Medienunternehmen, Verlage und Content-Creator nutzen KI für Texterstellung, Bildbearbeitung, personalisierte Empfehlungen und Fake-News-Erkennung. Der EU AI Act bringt spezifische Pflichten für Medien-KI – besonders rund um Deepfakes und synthetische Inhalte.

Kennzeichnungspflicht für KI-generierte Medieninhalte

Art. 50 Abs. 4 EU AI Act ist für Medienunternehmen besonders relevant: KI-generierte oder KI-manipulierte Bild-, Audio- und Videoinhalte müssen als solche maschinenlesbar gekennzeichnet sein. Diese Pflicht gilt für: vollständig KI-generierte Bilder, Videos und Audios, KI-deepgefakte Videos (bestehende Personen in neuen Kontexten), KI-bearbeitete Fotos mit substanziellen Veränderungen, synthetische Stimmen in Podcasts und Videos. Ausnahmen: Satire und Parodie, wenn KI-Ursprung offensichtlich, rein technische Bearbeitung ohne inhaltliche Veränderung (z.B. Rauschreduzierung).

KI-Journalismus: Automatisierte Nachrichtentexte

Vollautomatisierte Nachrichtenerstellung (wie bei Sportergebnissen, Börsenberichten, Wetterberichten) ist weit verbreitet. Anforderungen nach EU AI Act: Wenn Texte in Bereichen des öffentlichen Interesses produziert werden, müssen sie als KI-generiert erkennbar sein (Art. 50 Abs. 2). Praktische Umsetzung: "Dieser Bericht wurde automatisch erstellt"-Hinweis, Kenntlichmachung im Impressum oder Quellenangabe. Pressefreiheit-Aspekt: Der EU AI Act schränkt redaktionelle Entscheidungsfreiheit nicht ein. Die Kennzeichnungspflicht betrifft das Endprodukt, nicht den redaktionellen Prozess.

KI-Empfehlungsalgorithmen und Digital Services Act

Empfehlungsalgorithmen in Online-Medien und sozialen Plattformen unterliegen neben dem EU AI Act auch dem Digital Services Act (DSA). Für große Plattformen (Very Large Online Platforms, VLOP): besondere DSA-Anforderungen zu Empfehlungsalgorithmen, Transparenzberichte über algorithmische Systeme, Option für nutzergesteuertes Ranking ohne Profiling. EU AI Act und DSA sind komplementär: DSA regelt Plattformverantwortung, EU AI Act regelt die KI-Systeme selbst. Für Verlage mit eigenen Empfehlungssystemen: Prüfen Sie, ob Sie VLOP-Status haben.

Urheberrecht und KI-Training mit Medieninhalten

Eine der umstrittensten Fragen für Medienunternehmen: Dürfen KI-Anbieter ihre Inhalte für das Training nutzen? EU AI Act Art. 53 Abs. 1 lit. d: GPAI-Anbieter müssen eine "hinreichend detaillierte Zusammenfassung der für das Training verwendeten Inhalte" veröffentlichen. EU-Urheberrechtsrichtlinie (DSM-Richtlinie, 2019): Text and Data Mining für KI-Training kann unter Ausnahmen fallen, aber Rechteinhaber haben Opt-Out-Rechte. In der Praxis: Viele Verlage (NYT, ARD, Spiegel) haben bereits Klagen gegen KI-Unternehmen wegen unerlaubter Nutzung ihrer Inhalte eingereicht. Stellen Sie sicher, dass Ihre robots.txt und Nutzungsbedingungen Opt-Out-Rechte klar kommunizieren.

Praxistipps für Medienunternehmen

Sofortmaßnahmen: (1) KI-Tools inventarisieren: Welche KI nutzen Sie für Content-Erstellung, -Bearbeitung, -Personalisierung? (2) Kennzeichnungs-Workflow für KI-generierte Inhalte implementieren, (3) Redaktionelle KI-Policy erstellen (was darf KI erstellen? Was muss menschlich geschrieben sein?), (4) Technische Kennzeichnung implementieren (Wasserzeichen, C2PA-Standard für Medienverifikation), (5) Rechtliche Prüfung: Wie sind Ihre Inhalte gegen KI-Training geschützt? (6) Schulung der Redaktion zu KI-Möglichkeiten und Compliance-Anforderungen. Beachten Sie auch: Presserat-Richtlinien und Landesmediengesetze zu KI-Inhalten.

Ist Ihr KI-System EU AI Act-konform?

Kostenlos prüfen in 10 Minuten — spezifisch für Ihr Unternehmen und Ihre Branche.

Jetzt Risiko prüfen →