Generative KI-Suchmaschinen gewinnen zunehmend an Bedeutung. Laut einer aktuellen Umfrage nutzen fast ein Viertel der Amerikaner solche Tools als Alternative zu klassischen Suchmaschinen. Doch eine Untersuchung des Tow Center for Digital Journalism zeigt, dass diese KI-gestützten Systeme erhebliche Mängel bei der Zitierung von Nachrichteninhalten aufweisen.
KI-gestützte Suche: Zwischen Fehlinformationen und fehlenden Quellenangaben
Während traditionelle Suchmaschinen als Vermittler fungieren und Nutzer zu den Originalquellen weiterleiten, verarbeiten KI-Suchmaschinen Inhalte selbstständig und präsentieren sie in eigenen Antworten. Dies kann dazu führen, dass Nachrichtenquellen übergangen und Fehlinformationen verbreitet werden. Die Forscher des Tow Center testeten acht generative Suchmaschinen und stellten fest, dass sie häufig falsche oder erfundene Zitate lieferten, inkorrekte Links angaben oder Inhalte aus nicht autorisierten Quellen bezogen.
Ein zentrales Problem ist die mangelnde Fähigkeit der Chatbots, ihre Grenzen zu erkennen: Viele Systeme gaben lieber falsche Antworten, als eine Unkenntnis einzugestehen. Besonders kostenpflichtige Premium-Modelle wie Perplexity Pro oder Grok 3 fielen durch besonders selbstbewusst präsentierte Fehlinformationen auf.
Missachtung von Sperrlisten und problematische Quellenverweise
Ein weiteres Problem ist der Umgang mit dem Robot Exclusion Protocol, mit dem Verlage und Nachrichtenwebsites Suchmaschinen das Crawlen ihrer Inhalte verbieten können. Fünf der acht getesteten KI-Suchmaschinen ignorierten dieses Protokoll teilweise oder vollständig. Perplexity Pro lieferte beispielsweise Antworten auf Inhalte, zu denen es offiziell keinen Zugang haben sollte, darunter Artikel von National Geographic.
Selbst wenn KI-Suchmaschinen auf die richtigen Inhalte zugriffen, stellten sie oft falsche oder unvollständige Verweise her. So wurden Artikel fälschlicherweise auf Dritte wie Yahoo News oder AOL zurückgeführt, während der eigentliche Herausgeber leer ausging. Auch das Problem erfundener Links war weit verbreitet: Mehr als die Hälfte der untersuchten Antworten von Gemini und Grok 3 enthielt nicht existierende oder fehlerhafte URLs.
Auch Lizenzabkommen garantieren keine korrekte Quellenangabe
Einige Verlage kooperieren mit KI-Anbietern und erlauben ihnen gegen Lizenzgebühren den Zugriff auf ihre Inhalte. Doch selbst bei solchen Partnerschaften gab es keine Garantie für eine korrekte Zitierung. So hatte der San Francisco Chronicle eine Vereinbarung mit OpenAI, doch ChatGPT konnte nur einen von zehn Artikeln korrekt identifizieren – und auch in diesem Fall fehlte der Link zur Originalquelle.
Trotz der zahlreichen Mängel sehen einige Experten Potenzial für Verbesserungen. Mark Howard, COO von Time, argumentiert, dass KI-Suchsysteme sich stetig weiterentwickeln und in Zukunft präzisere Ergebnisse liefern könnten. Kritiker hingegen warnen davor, dass der Schaden für Verlage und Journalisten bereits jetzt beträchtlich ist, da ihre Inhalte zwar von KI-Systemen genutzt, aber kaum zurückverlinkt werden.
Fazit
Die Studie des Tow Center zeigt, dass generative Suchmaschinen erhebliche Schwächen im Umgang mit journalistischen Quellen haben. Viele Systeme präsentieren unzuverlässige Informationen mit großer Selbstsicherheit, ignorieren Schutzmechanismen von Nachrichtenwebsites und liefern ungenaue oder falsche Quellenangaben. Während einige Medienunternehmen auf Kooperationen mit KI-Firmen setzen, bleibt unklar, ob diese Partnerschaften tatsächlich zu einer besseren Sichtbarkeit und korrekteren Zitierung ihrer Inhalte führen.