Wirklich 56,7% Fake in der KI 🤖? =der grosse Test=
Du wirst es kaum glauben, wie oft die KI daneben liegt.
Die 10 führenden KI-Tools gaben im August 2025 in mehr als einem Drittel der Fälle — 35 Prozent — falsche Informationen zu aktuellen Nachrichtenthemen wieder, gegenüber 18 Prozent im August 2024.
Weiter unten liest du, dass der größte Anteil von Falschinformationen im Test wesentlich höher ist.
Der Testablauf:
Es wurden den verschiedenen KI =10= nachweislich falsche Behauptungen vorgelegt. Zu jeder falschen Behauptung wurde 3 Arten von Fragen gestellt:
a) eine neutrale,
b) eine suggestive, die die Falschbehauptung als gegeben setzt,
c) Eine Frage, die gezielt versucht, Schutzmechanismen gegen Falschbehauptungen zu umgehen
Genauere Angaben zur Methodik sind im unten genannten Artikel von newsguardtech verlinkt.
Ergebnisse
1) Zu den Falschinformationen
Die meisten Falschinformationen bekräftigte demnach die KI Inflection (56,7 Prozent), gefolgt von Perplexity (46,7 Prozent), Meta AI und ChatGPT (je 40 Prozent), Copilot und Mistral (je 36,7 Prozent), Grok und You.com (je 33,3 Prozent). Vergleichs­weise gut stehen Gemini (16,7 Prozent) und Claude (10 Prozent) da.
Claude ist auch der einzige Chatbot in der Studie, der sein relativ gutes Ergebnis aus dem Vorjahr gehalten hat. Besonders auffällig ist dagegen die Entwick­lung bei Perplexity: Im August 2024 bestätigte die KI kein einziges Mal eine Falschaussage − ein Jahr später fast jedes zweite Mal.
Sechs von zehn Modellen – darunter Mistral, Claude, Inflection’s Pi, Copilot, Meta und Perplexity – wiederholten die Falschbehauptung als Fakt.
2) Zu den Nicht-Antworten
Die auffälligste Verbesserung seit Beginn der NewsGuard-Audits ist die sinkende Quote von Nicht-Antworten: von 31 Prozent im August 2024 auf null Prozent im August 2025.
Anfangs weigerten sich viele Chatbots, auf Fragen zu Wahlen oder aktuellen Ereignissen zu antworten, entweder wegen fester Wissensgrenzen (Cutoffs) oder wegen strikter Richtlinien, heikle Themen zu vermeiden.
Im Jahre 2024 gab es bei den verschiedenen KI die Devise „lieber keine Antwort als eine falsche Antwort“.
Im Jahr 2025 erhielten die KI einen Echtzeit-Zugriff auf das Internet. Damit ist das Ziel der verschiedenen Bots, unbedingt eine Antwort zu geben. Dieses Bestreben führt zur verstärkten Nutzung von zweifelhaften Quellen, die nicht verifiziert werden.
Am 22. Juni 2025 schreibt „barchart“ zum Thema (Zitat):
OpenAI CEO Sam Altman made remarks on the first episode of OpenAI’s new podcast regarding the degree of trust people have in ChatGPT. Altman observed, “People have a very high degree of trust in ChatGPT, which is interesting, because AI hallucinates. It should be the tech that you don't trust that much.”
Übersetzt mit Google-Übersetzer:
OpenAI-CEO Sam Altman äußerte sich in der ersten Folge des neuen Podcasts zum Vertrauen der Nutzer in ChatGPT. Altman bemerkte: „Die Menschen vertrauen ChatGPT sehr stark, was interessant ist, denn KI halluziniert. Eigentlich sollte man der Technologie nicht so sehr vertrauen.“
Anhang: 2 Grafiken:
(1) Fehlerquoten
(2) Falschinformationen
Ziehe jeder seine Schlussfolgerungen.
Selbst werde ich weiterhin Zahlen, Daten und Fakten aus Antworten der KI separat überprüfen, bevor ich diese verwende und verbreite.
Meine Quellen:
Grafiken aus dem Beitrag von „newsguardtech“
--Ende--
4
8 comments
Heinz Braasch
5
Wirklich 56,7% Fake in der KI 🤖? =der grosse Test=
powered by
Kundensog mit 💖 & KI
skool.com/integral-business-awareness-1145
Mit Neukundengewinnung und -bindung Deine Community als wertvollen und geschützten Treffpunkt für Deine Mitglieder gründen, aufbauen und vergrößern 🚀
Build your own community
Bring people together around your passion and get paid.
Powered by