Wirklich 56,7% Fake in der KI đŸ€–? =der grosse Test=
Du wirst es kaum glauben, wie oft die KI daneben liegt.
Die 10 fĂŒhrenden KI-Tools gaben im August 2025 in mehr als einem Drittel der FĂ€lle — 35 Prozent — falsche Informationen zu aktuellen Nachrichtenthemen wieder, gegenĂŒber 18 Prozent im August 2024.
Weiter unten liest du, dass der grĂ¶ĂŸte Anteil von Falschinformationen im Test wesentlich höher ist.
Der Testablauf:
Es wurden den verschiedenen KI =10= nachweislich falsche Behauptungen vorgelegt. Zu jeder falschen Behauptung wurde 3 Arten von Fragen gestellt:
a) eine neutrale,
b) eine suggestive, die die Falschbehauptung als gegeben setzt,
c) Eine Frage, die gezielt versucht, Schutzmechanismen gegen Falschbehauptungen zu umgehen
Genauere Angaben zur Methodik sind im unten genannten Artikel von newsguardtech verlinkt.
Ergebnisse
1) Zu den Falschinformationen
Die meisten Falschinformationen bekrÀftigte demnach die KI Inflection (56,7 Prozent), gefolgt von Perplexity (46,7 Prozent), Meta AI und ChatGPT (je 40 Prozent), Copilot und Mistral (je 36,7 Prozent), Grok und You.com (je 33,3 Prozent). Vergleichs­weise gut stehen Gemini (16,7 Prozent) und Claude (10 Prozent) da.
Claude ist auch der einzige Chatbot in der Studie, der sein relativ gutes Ergebnis aus dem Vorjahr gehalten hat. Besonders auffĂ€llig ist dagegen die Entwick­lung bei Perplexity: Im August 2024 bestĂ€tigte die KI kein einziges Mal eine Falschaussage − ein Jahr spĂ€ter fast jedes zweite Mal.
Sechs von zehn Modellen – darunter Mistral, Claude, Inflection’s Pi, Copilot, Meta und Perplexity – wiederholten die Falschbehauptung als Fakt.
2) Zu den Nicht-Antworten
Die auffÀlligste Verbesserung seit Beginn der NewsGuard-Audits ist die sinkende Quote von Nicht-Antworten: von 31 Prozent im August 2024 auf null Prozent im August 2025.
Anfangs weigerten sich viele Chatbots, auf Fragen zu Wahlen oder aktuellen Ereignissen zu antworten, entweder wegen fester Wissensgrenzen (Cutoffs) oder wegen strikter Richtlinien, heikle Themen zu vermeiden.
Im Jahre 2024 gab es bei den verschiedenen KI die Devise „lieber keine Antwort als eine falsche Antwort“.
Im Jahr 2025 erhielten die KI einen Echtzeit-Zugriff auf das Internet. Damit ist das Ziel der verschiedenen Bots, unbedingt eine Antwort zu geben. Dieses Bestreben fĂŒhrt zur verstĂ€rkten Nutzung von zweifelhaften Quellen, die nicht verifiziert werden.
Am 22. Juni 2025 schreibt „barchart“ zum Thema (Zitat):
OpenAI CEO Sam Altman made remarks on the first episode of OpenAI’s new podcast regarding the degree of trust people have in ChatGPT. Altman observed, “People have a very high degree of trust in ChatGPT, which is interesting, because AI hallucinates. It should be the tech that you don't trust that much.”
Übersetzt mit Google-Übersetzer:
OpenAI-CEO Sam Altman Ă€ußerte sich in der ersten Folge des neuen Podcasts zum Vertrauen der Nutzer in ChatGPT. Altman bemerkte: „Die Menschen vertrauen ChatGPT sehr stark, was interessant ist, denn KI halluziniert. Eigentlich sollte man der Technologie nicht so sehr vertrauen.“
Anhang: 2 Grafiken:
(1) Fehlerquoten
(2) Falschinformationen
Ziehe jeder seine Schlussfolgerungen.
Selbst werde ich weiterhin Zahlen, Daten und Fakten aus Antworten der KI separat ĂŒberprĂŒfen, bevor ich diese verwende und verbreite.
Meine Quellen:
Grafiken aus dem Beitrag von „newsguardtech“
--Ende--
4
8 comments
Heinz Braasch
5
Wirklich 56,7% Fake in der KI đŸ€–? =der grosse Test=
powered by
Kundensog mit 💖 & KI
skool.com/integral-business-awareness-1145
Mit Neukundengewinnung und -bindung Deine Community als wertvollen und geschĂŒtzten Treffpunkt fĂŒr Deine Mitglieder grĂŒnden, aufbauen und vergrĂ¶ĂŸern 🚀
Build your own community
Bring people together around your passion and get paid.
Powered by