Eine breit angelegte Studie europäischer Rundfunkanstalten zeigt, dass generative KI-Assistenten Nachrichteninhalte in 45 % der Fälle fehlerhaft wiedergeben – unabhängig von Sprache, Herkunftsland oder Plattform. Koordiniert wurde die Untersuchung von der European Broadcasting Union (EBU), federführend war die BBC.
Die Ergebnisse wurden auf der EBU News Assembly in Neapel vorgestellt und beruhen auf der bislang größten Untersuchung dieser Art: 22 öffentlich-rechtliche Medienhäuser aus 18 Ländern analysierten mehr als 3.000 Antworten der vier KI-Modelle ChatGPT, Copilot, Gemini und Perplexity. Die Bewertung erfolgte durch professionelle Journalisten und umfasste Kriterien wie inhaltliche Genauigkeit, Quellenangaben, Kontextualisierung und Trennung von Meinung und Fakten.
Vier von zehn Antworten mit groben Mängeln
Die Auswertung zeigt: Fast jede zweite Antwort enthielt mindestens einen schwerwiegenden Mangel. 31 % der Ergebnisse wiesen unzureichende, irreführende oder falsche Quellenangaben auf. In 20 % der Fälle wurden sachliche Fehler festgestellt – darunter erfundene Details oder veraltete Informationen.
Besonders negativ schnitt Gemini ab: In 76 % der geprüften Fälle traten signifikante Probleme auf, vor allem aufgrund mangelhafter Quellennachweise. Damit lag das Google-Modell deutlich hinter den anderen getesteten Assistenten zurück.
Gewinnen in der Plattform-Ökonomie
Vertrauensverlust als demokratiepolitisches Risiko
„Diese Fehler sind keine Einzelfälle, sondern strukturell, sprachübergreifend und international“, sagte Jean Philip De Tender, Medien-Direktor der EBU. Die fehlerhafte Darstellung von Nachrichten durch KI-Assistenten gefährde das Vertrauen der Öffentlichkeit in Informationen – mit potenziell weitreichenden Folgen für die demokratische Teilhabe.
Laut dem Digital News Report 2025 des Reuters Institute nutzen bereits 7 % der Online-Nachrichtenkonsumenten KI-Assistenten zur Informationsbeschaffung – bei den unter 25-Jährigen liegt dieser Wert sogar bei 15 %. Damit übernehmen die Tools zunehmend die Rolle klassischer Suchmaschinen.
Toolkit für bessere KI-Antworten
Begleitend zur Studie wurde ein „News Integrity in AI Assistants Toolkit“ veröffentlicht. Es soll Medienhäuser und Entwickler bei der Optimierung von KI-Antworten unterstützen. Thematisiert werden unter anderem Kriterien für gelungene News-Zusammenfassungen sowie typische Fehlerquellen.
Gleichzeitig fordern EBU und ihre Mitglieder eine strengere Durchsetzung bestehender EU-Vorgaben zur Informationsintegrität, digitalen Diensten und Medienvielfalt. Auch eine fortlaufende, unabhängige Überwachung der KI-Modelle sei essenziell – angesichts der rasanten Entwicklung generativer KI.
Ausbau früherer BBC-Studie
Die nun vorgestellten Ergebnisse bauen auf einer Untersuchung der BBC aus dem Februar 2025 auf, die erstmals gravierende Schwächen generativer KI bei der Verarbeitung von Nachrichten aufzeigte. Die aktuelle Studie belegt nun, dass die Probleme nicht auf einzelne Länder, Sprachen oder Plattformen beschränkt sind – sondern systematisch auftreten.


