Es gibt viele Menschen, die befürchten, dass wir mit KI-generierten Inhalten überschwemmt werden, die auf bereits KI-generierten Informationen beruhen und nicht unbedingt korrekt sind. Ein großartiges Beispiel dafür hat gerade The Guardian in einem aktuellen Bericht über den Vergleich zwischen ChatGPT und Grok gegeben.
In dem Artikel wurde bewusst die Beziehung zwischen dem neuesten von OpenAI verwendeten Modell und Grokipedia analysiert. Grokipedia ist die derzeit größte generative KI-Informationsplattform der Welt. Hier werden Artikel in ähnlicher Weise wie bei Wikipedia angeboten, nur dass Grok sie auf der Grundlage von Informationen erstellt, die es im Internet findet und für maßgebend hält - wenn es Wikipedia nicht wörtlich kopiert.
Die Plattform sorgt oft für Gesprächsstoff, da in der Datenbank regelmäßig kontroverse - oder schlichtweg falsche - Behauptungen auftauchen. Sie ist nicht weit von Grokipedia entfernt, wenn es darum geht, gegen historische Lügen und Unwahrheiten zu kämpfen. Schließlich ist der Hauptanspruch in diesem Zusammenhang, dass hier zu jedem Thema die reine Wahrheit präsentiert wird und dass die Fakten nicht verzerrt werden, um sie politisch korrekt zu machen.
Man könnte jetzt noch lange darüber schreiben, bei wie vielen Themen die Wörterbücher von Grokipedia zu irren scheinen. Wo es angebracht ist, hätte man den Inhalt von Grokipedia manuell manipulieren können, um die richtigen "Fakten" anzuzeigen. Und OpenAI verlässt sich eindeutig auf Grokipedia als gute Quelle für das GPT-5.2-Modell, das das neueste und fortschrittlichste verfügbare Modell ist.
Der Guardian hat versucht, die wichtigsten Punkte aufzulisten, bei denen Grokipedia nach allgemeiner Auffassung lügt oder zumindest keine allgemein anerkannten Informationen wiedergibt. Es gibt einige weithin bekannte Bereiche, in denen die Geschichte gefälscht wurde, wie die Belagerung des US-Kapitols, die Medienkampagne gegen Donald Trump oder die HIV/AIDS-Epidemie. Diese scheinen von OpenAI erfolgreich herausgefiltert worden zu sein, denn das Unternehmen verfügt über ein internes System zur Überprüfung der Fakten. Aber es hat nicht immer gut funktioniert.
Der Guardian fand heraus, dass die Plattform von OpenAI Grokipedia zu Themen wie der Situation im Iran und der Leugnung des Holocaust zitierte.
Diese Untersuchung war auch deshalb interessant für den Guardian, weil sie Themen untersuchten, die sie selbst widerlegt hatten, und ChatGPT hatte einen Versuch dazu. Zuvor wurde auch berichtet, dass Sir Richard Evans falsche Informationen in seinem eigenen Glossar gefunden hatte, aber ChatGPT hatte kein Problem damit, diese Falschaussagen von Grokipedia zu "lernen".
Alle generativen KI-Tools werden nach den höchstmöglichen Standards entwickelt, und es werden so viele Informationen wie möglich zur Verfügung gestellt, um sie zu unterrichten. Es hat bereits Probleme damit gegeben, dass die verschiedenen Sprachmodelle unbelegte Daten aufnehmen, wenn sie gelehrt werden, aber diese Daten stammen normalerweise von Menschen. Das "Lernen" von Grokipedia ist eine weitere Gefahrenquelle.
Die Halluzinationen und Ungenauigkeiten, die in allen Modellen vorkommen, können von den Systemen ohne weiteres als zuverlässige Daten behandelt werden, wenn sie durch ihre Faktenkontrollsysteme schlüpfen. Nicht nur ChatGPT hat Probleme. The Guardian berichtete, dass auch Claude Beispiele für problematische Antworten von Grokipedia hatte, die aber weniger häufig vorkamen.