Eine aktuelle Studie der BBC zeigt, dass führende KI-Assistenten wie ChatGPT, Google Gemini, Microsoft Copilot und Perplexity erhebliche Schwierigkeiten haben, Nachrichtenartikel zusammenzufassen. Von einer Stichprobe von 100 BBC-Artikeln enthielten mehr als die Hälfte der von KI generierten Zusammenfassungen bemerkenswerte Fehler.
Wichtigste Erkenntnisse:
- Faktische Ungenauigkeiten: 19 % der Antworten enthielten falsche Informationen, wie z. B. falsche Daten oder Zahlen.
- Veränderte Zitate: 13 % der Zitate wurden entweder im Vergleich zur Originalquelle verändert oder waren im zitierten Artikel nicht vorhanden.
- Veraltete Informationen: Einige KIs erwähnten politische Persönlichkeiten wie Rishi Sunak und Nicola Sturgeon als noch im Amt, obwohl sie ihre Positionen bereits verlassen hatten.
- Fehlender Kontext: Im Fall der verurteilten Krankenschwester Lucy Letby erwähnten einige KIs ihre Schuld nicht, was den Eindruck erweckte, ihre Schuld oder Unschuld sei eine Frage der Meinung.
Unter den getesteten KIs verursachte Google Gemini die größten Bedenken: 46 % der Antworten wurden aufgrund von Genauigkeitsproblemen beanstandet.
Diese Ergebnisse verdeutlichen die aktuellen Herausforderungen, denen sich KIs bei der Verarbeitung und Zusammenfassung von Informationen stellen müssen. Deborah Turness, CEO von BBC News, äußerte Bedenken hinsichtlich der potenziellen Risiken von Fehlinformationen durch diese Tools und forderte eine Zusammenarbeit zwischen Technologieunternehmen, Medien und Regierungen, um die Genauigkeit der von KI erstellten Inhalte zu verbessern.