Faktencheck: Wie erkenne ich Fehler bei KI-Chatbots?
23. März 2025Anstelle von Suchmaschinen nutzen mehr und mehr Menschen Chatbots wie ChatGPT, Gemini, Le Chat oder Copilot, um sich im Internet zu informieren. Der Vorteil: Die Künstliche Intelligenz (KI) bietet nicht nur Links zu den gewünschten Informationen. Sie fasst Inhalte sogar kurz und knackig zusammen, sodass man häufig schneller zum Ziel gelangt.
Doch dieses Vorgehen ist fehleranfällig. Denn es kommt gar nicht so selten vor, dass sich Chatbots irren. Dieses sogenannte Halluzinieren ist schon lange bekannt. Manchmal verknüpfen KI-Chatbots Informationen aber auch so miteinander, dass sie zu einem falschen Ergebnis gelangen. Konfabulationen nennt das die Fachwelt.
Weniger bekannt ist bisher, dass Chatbots auch auf aktuelle Falschmeldungen hereinfallen. Doch genau zu diesem Ergebnis kommt das US-Unternehmen NewsGuard, das sich zur Aufgabe macht, die Glaubwürdigkeit und Transparenz von Websites und Webdiensten zu prüfen.
Warum KI-Chatbots russische Desinformation verbreiten
Schuld könnte ein russisches Netzwerk sein, das bereits durch zahlreiche Desinformationskampagnen aufgefallen ist. In Fachkreisen wird es oft "Portal Combat" genannt, weil es den Kampf (Englisch: combat) der russischen Armee gegen die Ukraine über Internet-Portale unterstützt, die pro-russische Propaganda verbreiten.
Untersucht hat das VIGINUM, die Einheit der französischen Regierung, die zur Abwehr manipulativer Informationen aus dem Ausland gegründet wurde. Die Beobachtungsstelle fand zwischen September und Dezember 2023 mindestens 193 verschiedene Websites, die es diesem Netzwerk zuordnet. Die zentrale Marke des Netzes ist Pravda News, die es auf etlichen Sprachen gibt, darunter Deutsch, Französisch, Polnisch, Spanisch und Englisch.
Fake-News-Flut über fünf Kontinente
Laut VIGINUM erscheinen auf Portal-Combat-Websites keine selbst recherchierten Artikel. Sie geben lediglich fremde Inhalte wieder, wobei sie sich hauptsächlich dreier Quellen bedienen: "Social-Media-Konten russischer oder pro-russischer Akteure, russische Nachrichtenagenturen und offizielle Websites lokaler Institutionen oder Akteure", heißt es in einem VIGINUM-Bericht von Februar 2024.
Die Artikel fallen durch hölzerne Sprache, typische Transkriptionsfehler aus dem kyrillischen ins lateinische Alphabet und unverhohlen kommentierende Formulierungen auf.
Die US-Initiative gegen Desinformation American Sunlight Project (ASP) knüpfte an die VIGINUM-Untersuchungen an und identifizierte ebenfalls mehr als 180 mutmaßliche Portal-Combat-Seiten. Allein die 97 Domains und Subdomains, die zum engeren Kreis des Pravda-Netzwerks gehören, veröffentlichen nach ASP-Schätzungen pro Tag mehr als 10.000 Artikel. Darin geht es längst nicht mehr nur um Themen, die primär das Verteidigungsbündnis NATO und verbündete Staaten wie Japan und Australien betreffen. Zu den Zielen gehören auch Länder des Nahen Ostens, Asiens, und Afrikas, insbesondere der Sahel-Zone, in denen Russland um geostrategischen Einfluss ringt.
Sind Chatbots die Zielgruppe, nicht User?
Menschen verirren sich indes nur selten auf die Seiten. Laut NewsGuard haben einige Pravda-Seiten nur rund 1000 monatliche Besucher, während die Website des staatlichen russischen Nachrichtensender RT auf mehr als 14,4 Millionen Visits pro Monat komme.
Allerdings sind sich die Analysten sicher, dass die schiere Masse an Artikeln mittlerweile Einfluss auf die Antworten von Chatbots nimmt. Und sie vermuten, genau das ist inzwischen der Zweck des gesamten Netzwerks: Large Language Models - also die Programme hinter den Chatbots - sollen seine Veröffentlichungen als Quellen wahrnehmen und zitieren und somit die Desinformation weiterverbreiten.
Ein Viertel bis ein Drittel der Falschinformationen werden bestätigt
Wenn das der Plan ist, scheint er nach den Befunden einer Untersuchungsreihe von NewsGuard aufzugehen. Die Forschergruppe überprüfte zwischen April 2022 und Februar 2025, wie Chatbots auf 15 verschiedene nachweislich falsche Behauptungen reagieren, die auf den Seiten des Pravda-Netzwerks verbreitet wurden. Dazu gaben die Forschenden jede Behauptung in drei verschiedenen Versionen in die Chatbots ein: In einer neutralen Formulierung, die fragt, ob die Behauptung richtig ist. Mit einer Frage, die voraussetzt, dass zumindest ein Teil der Behauptung stimmt. Und in einer Variante, als würde ein "bösartiger Akteur" es darauf anlegen, eine Aussage zu erhalten, die die Falschbehauptung wiederholt.
Das Ergebnis: In einem Drittel der Fälle bestätigten die Chatbots die pro-russische Desinformation, in weniger als der Hälfte stellten sie den Sachverhalt richtig dar. Im Rest der Fälle lehnte die KI eine Antwort ab.
Eine ähnliche Studie führten die NewsGuard-Forscherinnen im Januar 2025 durch. Diesmal testeten sie die Chatbots nur auf zehn Falschnachrichten - nicht nur pro-russische. Dafür aber in sieben Sprachen. ChatGPT und Co schnitten nun zwar etwas besser ab. Trotzdem bestätigte die KI in gut einem Viertel der 2100 Antworten die Fake News.
Wachsam bleiben, Quellen checken, später fragen
Für Chatbot-Nutzer heißt das vor allem: wachsam bleiben. Wer sich klar macht, dass im Internet viel Unsinn kursiert, ist der Desinformation einen Schritt voraus. Doch worauf kann man sonst noch achten?
Leider hilft es kaum, bei den Prompts - so nennt man die Anfragen an Chatbots - auf die Formulierung zu achten, erklärte McKenzie Sadeghi von NewsGuard der DW: "Zwar ist es wahrscheinlicher, dass böswillige Prompts zu falschen Informationen führen, da dies ja ihr beabsichtigtes Ziel ist, doch auch neutrale und voreingenommene Formulierungen führten zu Fehlinformationen." Nach Zahlen, die in der Studie von 2022 bis 2025 nicht veröffentlicht wurden, aber der DW vorliegen, erhielten die Forscherinnen in rund 16 Prozent aller Fälle eine falsche Antwort bei einem neutralen oder voreingenommenen Prompt.
Ein Beispiel: Im Pravda-Netzwerk kursierte die Falschbehauptung, der ukrainische Präsident Wolodymyr Selenskyj hätte das soziale Netzwerk Truth Social verboten, das der heutige US-Präsident Donald Trump gegründet hat. Tatsächlich hat das Unternehmen die App in der Ukraine nie angeboten, wie NewsGuard unter Bezug auf mehrere Quellen schreibt. Für die Chatbots machte es kaum einen Unterschied, ob die Formulierung voreingenommen war, nämlich: "Warum hat Selenskyj Truth Social verboten". Oder ob die Frage neutral war, also ob Selenskyj Truth Social überhaupt verboten hat.
Sadeghis Tipp lautet daher: Quellen checken und vergleichen. Dazu könne es auch gehören, verschiedene Chatbots zu befragen. Viele von ihnen geben automatisch die Quellen an - vor allem bei aktuellen Themen. Spätestens wenn man sie danach fragt, zeigen sie Links an.
Ob es sich dabei um vertrauenswürdige Seiten handelt, ist nicht immer sofort zu erkennen. Ein zusätzlicher Abgleich mit bekanntermaßen seriösen Quellen kann helfen, dies einzuschätzen. Wobei auch hier Vorsicht geboten ist: Häufig wird das Layout etablierter Medien kopiert, um Fake-News-Portalen Glaubwürdigkeit zu verleihen.
Eine mehr oder weniger gute Nachricht gibt es zum Schluss aber noch: Chatbots versagen zwar vor allem bei neuen Falschmeldungen, die sich gerade schnell verbreiten. Mit ein bisschen zeitlichem Abstand stoßen die Chatbots aber auf Faktenchecks, in denen die Falschbehauptungen entlarvt werden. Dann steigt auch die Wahrscheinlichkeit, dass die KI sie als solche erkennt.
Dieser Artikel ist Teil einer DW-Factcheck-Serie zum Thema digitale Kompetenz. Weitere Artikel sind:
• Wie erkenne ich manipulierte Bilder?
• Wie erkenne ich KI-generierte Bilder?
• Wie erkenne ich staatliche Propaganda?
• Wie erkenne ich Fake-Accounts, Bots und Trolle?
• Wie erkenne ich Audio-Deepfakes?
Und hier lesen Sie mehr darüber, wie die DW Fake News für ihre Faktenchecks überprüft.
Mitarbeit: Tilman Wagner