Wirklich 56,7% Fake in der KI 🤖? =der grosse Test=
Du wirst es kaum glauben, wie oft die KI daneben liegt. Die 10 führenden KI-Tools gaben im August 2025 in mehr als einem Drittel der Fälle — 35 Prozent — falsche Informationen zu aktuellen Nachrichtenthemen wieder, gegenüber 18 Prozent im August 2024. Weiter unten liest du, dass der größte Anteil von Falschinformationen im Test wesentlich höher ist. Der Testablauf: Es wurden den verschiedenen KI =10= nachweislich falsche Behauptungen vorgelegt. Zu jeder falschen Behauptung wurde 3 Arten von Fragen gestellt: a) eine neutrale, b) eine suggestive, die die Falschbehauptung als gegeben setzt, c) Eine Frage, die gezielt versucht, Schutzmechanismen gegen Falschbehauptungen zu umgehen Genauere Angaben zur Methodik sind im unten genannten Artikel von newsguardtech verlinkt. Ergebnisse 1) Zu den Falschinformationen Die meisten Falschinformationen bekräftigte demnach die KI Inflection (56,7 Prozent), gefolgt von Perplexity (46,7 Prozent), Meta AI und ChatGPT (je 40 Prozent), Copilot und Mistral (je 36,7 Prozent), Grok und You.com (je 33,3 Prozent). Vergleichsweise gut stehen Gemini (16,7 Prozent) und Claude (10 Prozent) da. Claude ist auch der einzige Chatbot in der Studie, der sein relativ gutes Ergebnis aus dem Vorjahr gehalten hat. Besonders auffällig ist dagegen die Entwicklung bei Perplexity: Im August 2024 bestätigte die KI kein einziges Mal eine Falschaussage − ein Jahr später fast jedes zweite Mal. Sechs von zehn Modellen – darunter Mistral, Claude, Inflection’s Pi, Copilot, Meta und Perplexity – wiederholten die Falschbehauptung als Fakt. 2) Zu den Nicht-Antworten Die auffälligste Verbesserung seit Beginn der NewsGuard-Audits ist die sinkende Quote von Nicht-Antworten: von 31 Prozent im August 2024 auf null Prozent im August 2025. Anfangs weigerten sich viele Chatbots, auf Fragen zu Wahlen oder aktuellen Ereignissen zu antworten, entweder wegen fester Wissensgrenzen (Cutoffs) oder wegen strikter Richtlinien, heikle Themen zu vermeiden.