Ein KI-generierter Bildausschnitt in einer Nachrichtensendung – und ein öffentlich-rechtlicher Sender gerät unter Druck. Nach dem scharf kritisierten und mittlerweile gelöschten Beitrag im „heute journal“ vom Sonntag hat sich das ZDF gestern offiziell entschuldigt. In der Abendausgabe vom 17.02.2026 (Mediathek) erklärte Nachrichten-Chefin Anne Gellinek in einem ca. 2-Minuten-Beitrag die Fehler und bitte um Entschuldigung.
Kulturstaatsminister Wolfram Weimer nennt in einem neuen Interview mit Welt TV den Vorfall einen „unangenehmen Vorgang“, der der Glaubwürdigkeit schade, sieht die Angelegenheit nach der Entschuldigung jedoch als abgeschlossen. Dennoch bleibt nach dem ersten echten KI-Fake-Skandal in der deutschen Medienlandschaft die Frage: Wie belastbar sind die redaktionellen Kontrollmechanismen im öffentlich-rechtlichen Rundfunk – und welche Standards gelten künftig im Umgang mit KI im Nachrichtenjournalismus?
Fehler eingeräumt – aber zu spät?
Auslöser war ein Beitrag über Einsätze der US-Migrationsbehörde ICE, in dem auch KI-generierte Bilder auftauchten. Nach öffentlicher Kritik räumte das ZDF zwei Fehler ein: Erstens seien KI-Bilder genutzt worden, die – selbst mit Kennzeichnung – im Nachrichtenkontext unzulässig seien, sofern nicht konkret über KI-Fälschungen berichtet wird. Zweitens sei reales Material aus dem Jahr 2022 in einen aktuellen Zusammenhang gestellt worden.
Zunächst sprach der Sender von einem technischen Übertragungsfehler, später folgte die Klarstellung, dass der Einsatz grundsätzlich nicht zulässig gewesen sei. Der Beitrag wurde in der Mediathek überarbeitet, später vollständig gelöscht, danach wieder mit einer Lücke versehen neu eingestellt. Gerade dieser kommunikative Verlauf wirft Fragen auf: Warum wird vollständige Transparenz erst hergestellt, wenn öffentliche Kritik entsteht? Und wie greifen interne Freigabeprozesse in einem Format, das besonderen Wert auf Seriosität legt?
Gewinnen in der Plattform-Ökonomie
Weimers Einordnung – pragmatisch, aber verkürzt
Weimer bezeichnete den Vorgang als „unangenehm“, verwies auf Fehlerquoten in vielen Redaktionen und sah mit der Entschuldigung die Sache als erledigt. Diese Deutung wirkt bewusst deeskalierend – blendet aber aus, dass öffentlich-rechtliche Sender eine besondere Rolle einnehmen. Sie finanzieren sich aus verpflichtenden Beiträgen und stehen unter erhöhtem Legitimationsdruck. Der Anspruch an Transparenz und Sorgfalt ist entsprechend hoch, zumal der heute journal nach der Tagesschau die zweitwichtigste Nachrichtensendung in Deutschland ist.
Ein schlichtes „Fehler passieren“ greift daher zu kurz. Der Fall berührt Grundsatzfragen zur Integrität öffentlich-rechtlicher Berichterstattung in einer Zeit, in der generative KI die Produktionsbedingungen rasant verändert.
KI im Newsroom – Chance und Risiko zugleich
KI hält in nahezu allen Redaktionen Einzug – von automatisierten Texten über Bildbearbeitung bis zu Rechercheprozessen. Doch im Nachrichtenjournalismus gilt eine unverrückbare Norm: Authentizität. Werden KI-generierte Bilder zur Illustration realer Ereignisse genutzt, entsteht eine problematische Grauzone. Selbst eine Kennzeichnung kann manipulativ wirken, wenn visuelle Eindrücke Emotionen erzeugen, die sich faktisch nicht belegen lassen.
Das ZDF erklärte später selbst, dass eine Kennzeichnung in diesem Fall nicht ausgereicht hätte. Damit gesteht der Sender ein, dass der Fehler nicht nur technischer, sondern redaktioneller Natur war. In einer Phase, in der der öffentlich-rechtliche Rundfunk wegen Beitragshöhe, Programmauftrag oder politischer Ausrichtung unter Druck steht, wird jeder handwerkliche Fehler schnell strukturell gedeutet.
Vertrauen im Wettbewerb der Informationsräume
In einer Medienlandschaft, die zunehmend von Social Media, Fragmentierung und KI-gestützter Desinformation geprägt ist, gilt verlässliche Nachrichtenproduktion als stabilisierendes Element. Wenn jedoch ein Flaggschiffformat wie das „heute journal“ KI-Bilder in einem politischen Beitrag nutzt, verwischt das die Grenze zu Praktiken, vor denen öffentlich-rechtliche Medien selbst regelmäßig warnen.
Die entscheidende Frage ist daher nicht, ob der Vorgang „abgehakt“ ist, sondern ob er Anlass für eine transparente Debatte über Kontrollmechanismen, KI-Richtlinien und redaktionelle Verantwortung bietet. Wer gesellschaftlich verlässliche Standards einfordert, muss sie sichtbar einhalten.
Fazit: Der erste KI-Skandal in Deutschlands Nachrichtenlandschaft
Weimers Einschätzung mag politisch beruhigend wirken. Doch der Fall zeigt, wie sensibel der KI-Einsatz im Nachrichtenbereich ist – besonders im öffentlich-rechtlichen Rundfunk. Eine Entschuldigung ist notwendig, aber nicht ausreichend. Entscheidend wird sein, ob der Sender strukturelle Konsequenzen zieht und seine Standards nachvollziehbar schärft. Vertrauen bleibt die zentrale Währung im Nachrichtenmarkt – und sie ist angesichts künstlicher Bilder wertvoller denn je.


