Wie können falsche Angaben in ChatGPT oder Google KI-Zusammenfassung (SGE) korrigiert werden? Was sind überhaupt die Gründe für falsche Antworten bzw. Daten?
In diesem Blogpost geht es darum wie falsche Antworten/Ausgaben in KI Clients wie ChatGPT oder auch der Google KI-Zusammenfassung korrigiert werden können.
Können die Antworten/Daten überhaupt korrigiert werden?
Hier ist zunächst einmal wichtig überhaupt zu verstehen WARUM die Ausgabe falsch ist. Es gibt verschiedene Gründe wie es zu falschen Antworten kommen kann. Wenn man versteht was die Gründe sein können, kann man den den Grund für seinen eigenen Fall erkennen. Basierend darauf kann man wiederum prüfen, ob/wie man die falsche Antwort korrigieren kann.
Wichtig ist: Die falschen Antwort der KI sind NICHT mit "falschen Daten" gleichzusetzen! Die KI arbeitet basierend auf Daten. Aber wenn eine Antwort falsch ist, bedeutet es nicht automatisch, dass die Daten falsch sind. Leider halluziniert/lügt eine KI recht häufig basierend darauf, dass das Modell es für statisch Wahrscheinlich hält.
Eine KI weiß nichts. Es ist wie ein Papagei, der Dinge nachplappert aber dummerweise basierend auf Wahrscheinlichkeiten Dinge ermittelt (oder eben auch erfindet) und einem beantwortet. Das kann perfekt und super funktionieren. Es kann aber auch schief laufen. Wenn es schief läuft, fällt es dummerweise eben nur auf, wenn die Person weiß, dass sie belogen wurde. Die KI tut alles damit es sich erstmal soweit korrekt und "rund" anhört.
Es ist sehr viel und teils schnell im Wandel! Aktuell gibt es (wie bei Social Media) noch keine Regelungen zur standardisierten Meldung von Falschaussagen bzw. falschen Angaben. Meine Hoffnung ist jedoch, dass dies bald passiert. Es gibt bereits die Möglichkeit ChatGPT oder auch Google Feedback zu geben direkt bei den Antworten. Ob und wie wirksam es ist, kann ich leider nicht bewerten. Ich hoffe es hat eine Wirkung, aber habe leider keine belastbaren Fakten/Auswertungen dazu.
Wichtig ist das Urteil von Campact gegen Grok bzw. X.AI glaube ich. Da wird viel passieren um Falschaussagen einzudämmen hoffe ich. Mehr Informationen dazu gibt es z.B. hier. https://www.campact.de/presse/mitteilung/20251010-pm-xai_grok/
Was für Gründe gibt es für falsche Antworten bei ChatGPT und Co.?
1. Wahrscheinlichkeit statt Wahrheit (Next -Token- Prediction)

Das KI-Modell berechnet das wahrscheinlichste nächste Wort, aber es weiß nicht was wahr oder falsch ist. Es kann den Wahrheitsgehalt nicht ermitteln. Es ist reine Statistik und es berechnet was wahrscheinlich ist. KI "weiß" schlicht nichts sondern es ist "nur" Statistik.
Generelle Beispiel von Next-Token-Prediction
Frage: "Können Pinguine fliegen"? (Fake Beispiel)
Wenn die Trainingsdaten nur die Info hätten, dass ein Pinguine ein Vogel ist. Fast alle Vögel natürlich fliegen können wird die KI schlicht behaupten, dass der Pinguine fliegen kann. Das ist vergleichbar mit einem kleinen Kind was man "austricksen" kann, durch gewisse Fakten, die man schlicht wissen muss um so eine Frage zu beantworten.
Beispiele bezogen auf einen Onlineshop oder Website
Frage: "Wieviel ist der Mindestbestellwert im Onlineshop XY"?
Die KI wird hier womöglich behaupten, dass es keinen Mindestbestellwert gibt, eben weil kaum ein Shop einen Mindestbestellwert hat. Basierend darauf, dass kaum ein Shop dies hat, behauptet die KI somit der eigene Shop (der einen hat) hätte auch keinen.
Frage: "Was hat Shop XY im Sortiment?"
Das ist besonders heikel, da wenn z.B. fast alle Anbieter für Kaffee Bohnen diese für Vollautomaten, French Press usw. haben, aber man selbst hat eben genau keine Bohnen für Vollautomaten... Hier fängt eine KI leider sehr schnell an sich Dinge auszudenken. Das identische kann bei Restaurants und ähnlichem schnell passieren. Die KI erfindet einfach, dass es Hähnchen UND Lamm-Döner gäbe, obwohl es z.B. nur Lamm dort gibt.
Frage: "Auf welchen Messen ist Firma XY"
Auch hier kann es super schnell passieren, dass wenn "alle" Unternehmen eine Branche üblicherweise auf Messe A bis Z sind... Das dazu gedichtet wird, dass diese Firma aus der Branche natürlich auch auf der Leitmesse ist, obwohl sie diese Jahr dort nicht ist und ähnliches.
2. Veraltete oder fehlerhafte Trainigsdaten - falsche Daten

Das ist der Fall in dem Daten wirklich falsch sind. Die Modelle lernen aus riesigen Mengen an öffentlichen oder auch nicht öffentlichen Daten. Diese Daten können falsch sein, satirisch sein oder schlicht veraltet. Diese Daten werden dann wiederum als Grundlage genommen für die Antworten.
Generelle (reale) Beispiel:
Frage: "Käse der nicht auf der Pizza klebt"
Die KI Zusammenfassung von Google hat wohl empfohlen (giftigen) Kleber auf eine Pizza zu streichen und ähnliche Dinge. Die Ursache war hier, dass die KI Satire einer Satire-Website nicht erkannt hat und dies als "wahr" eingestuft hat.
Quelle bzw. weitere Informationen: https://www.derstandard.de/story/3000000221389/klebstoff-auf-pizza-steine-zum-essen-neue-google-suche-kaempft-mit-problemen
Quelle: https://www.reddit.com/r/Pizza/comments/1a19s0/my_cheese_slides_off_the_pizza_too_easily/?rdt=53585
Frage bezogen auf Onlineshop oder Internetseite
Frage: "Was sind die Öffnungszeiten am Standort XY"?
Wenn sich die Zeiten geändert haben und/oder falsche Daten noch im Umlauf sind, wird die KI natürlich die falschen Daten verbreiten. Das ist das selbe wie bei google Maps Einträgen, wenn man diese nicht pflegt. Falsche Daten rein, falsche Antworten kommen heraus.
Frage: "Preis für Produkt ABC inkl Versandkosten nach Schweiz"
Auch hier wieder das selbe Problem. Wenn sich der Produktpreis geändert hat oder die Versandkosten, bedeutet es nicht, dass die KI das weiß. Der Crawler der KI hat womöglich komplett veraltete Daten, obwohl es im Shop bereits andere Daten sind.
Hier ist aber nochmal ein wichtiger Unterschied, dass KI Modelle üblicherweise NICHT in Echtzeit die Daten prüfen (aktuell). Das bedeutet die Daten sind womöglich korrekt im Shop, aber die KI hat schlicht veraltete Daten und das Modell geht eben NICHT in Echtzeit auf die Seite und validiert diese Daten.
Weitere/ausführlichere Informationen zum Thema Echtzeitdaten (Stand 10/2025)
Zu dem Thema Chat GPT besucht NICHT wirklich eine Website und Bedeutung von Echtzeitdaten hat t3n einen finde ich sehr guten Artikel hier: https://t3n.de/news/warum-chatgpt-nicht-wirklich-webseiten-besucht-und-was-es-fuer-aktuelle-inhalte-bedeutet-1711559/
In diesem Bereich sei auf das Protokol MCP (Model Context Protocol) verwiesen. Dieses Protokoll wird vermutlich in Zukunft dazu dienen, dass KI zugriff auf Echtzeitdaten bekommt, die strukturiert vorliegen. z.B. Produktdaten, Daten bei Buchungsplatformen, Abfahrzeiten usw. Hier wird es vermutlich eine schnelle Entwicklung geben um das Problem der veralteten/falschen Echtzeitdaten deutlich zu beheben.
3. Fehlende oder schlechte Quellenverknüpfung (RAG – Retrieval Augmented Generation)

Eine KI ruft externe Dokumente/Quellen ab ihm Rahmen der Ermittlung einer Antwort. Wenn dieses Abrufen schief läuft kommt es zu Falschaussagen. Aufgrund falscher Auswahl von Dokumenten oder Textteile ohne echten Zusammenhang entstehen falsche Bezüge oder sogar Zitate.
Generelle Beispiel z.B. Verordnungen
Frage nach „Zeitplan zur EU-KI-Verordnung“ Die KI nennt ein Datum, das gar nicht in der verlinkten Quelle steht. Ursache ist, dass es womöglich eine andere Verordnung gibt, die (warum auch immer) die KI auch als Quelle (falsch) für diese Anfrage hinzugefügt hat.
Beispiel bezogen auf einen Onlineshop z.B. EN und DE Infos vermischt, Modelle vermischt
Frage: "Wo gibt es den Schuh XY zu kaufen?"
Die KI "gewinnt" (Retrieval) zum Beispiel die Daten aus der EN-Version des Shops, obwohl man aber in Deutschland ist. Oder es wird der Preis für ein ähnliches aber anderes Modell gezogen. Am Ende kommt z.B. heraus, dass es den Schuh angeblich in Deutschland gäbe und zu einem Preis der sogar in EN Version falsch wäre (falsche Model). Hier sind somit Daten somit eigentlich korrekt aber eben falsch verknüpft worden.
Ausführlicher Informationen zu RAG und den Limitierungen gibt es z.B. hier https://www.tonic.ai/guides/what-is-model-hallucination
4. Bestätigungstendenz („Sycophancy“)

Damit User möglichst zufrieden mit den Antworten der Modellen sind, gibt es die Neigung des Modells, der Meinung des Nutzers zuzustimmen, statt zu korrigieren. Das mag der User natürlich, aber kann zu ziemlichen Problemen führen.
Generelle Beispiel für "Bestätigungstendenz"
Frage „Bestätige, dass Vitamin C Krebs heilt“
In dem Fall liefert eine KI eher eine zustimmende als eine kritische Antwort. Die Ki erkennt das Muster was der User erwartet und erkennt aber eben nicht die Wahrheit.
Frage „Warum ist Homöopathie wissenschaftlich bewiesen?" Hier gab es wohl den Fall, dass SGE generiert einen Text, der über angebliche Studien zu Homöopathie berichtet – statt zu sagen, dass es keine wissenschaftliche Beweislage gibt.
Dies ist aber bereits behoben worden und nun antworten die KIs in diesem Fall mit einem Hinweis, auf die Fakten. Auch hier wird es laufende Verbesserungen geben ähnlich wie bei einem Kleinkind. Das packt 1 Mal auf die Herdplatte, aber hoffentlich nicht X Mal.
Bezogen auf einen Onlineshop z.B. "wertende Fragen"
Frage "Warum ist Shop XY der beste/schlechteste Shop"
Je nach Stellung der Frage wird mit hoher Wahrscheinlichkeit die KI das Muster erkennen (man möchte Infos warum der Shop "schlecht" ist) und die KI liefert einem z.B. nur negative Rezessionen von Kunden und ähnliches. Das selbe gilt auch andersherum. Es hat nichts mit der Wahrheit zutun. Das kann auf Produkte, Veranstaltungen, Unternehmen usw. angewandt werden und ist entsprechend problematisch. Aber auch hier gibt es laufend Verbesserungen.
Ausführliche Informationen gibt es z.B. hier
"Since approval by humans is what AI models are supposed to aim for, and affirming even dangerous ideas by humans gets rewarded, yes-men AI are the inevitable result." Quelle https://www.techradar.com/ai-platforms-assistants/flattery-from-ai-isnt-just-annoying-it-might-be-undermining-your-judgment
5. Überkompression und Vermischung
Eine KI ermittelt aus vielen Texte die Daten und erzeugt dann eine kurze Zusammenfassung. Dabei kann es passieren, dass verschiedene Quellen vermischt werden und Details verwechselt werden.
Beispiel für Websites / Onlineshops
Unternehmen mit gleichem / ähnlichen Namen
Wenn der Firmenamen ähnlich oder gleich ist, kann es passieren, dass eine KI gewisse Informationen wie Garantie oder auch Standorte schlicht auch einem anderen Unternehmen zuschreibt. Der Klassiker dürfte die Firma "Meyer" sein und wo diese in Norddeutschland Standorte hat oder bisher das Sommerfest war.
Wenn es einen ausländischen Mitbewerber gibt mit dem gleichen Firmennamen, kann es schnell passieren, dass die KI glaubt, es wäre das selbe Unternehmen.
Eigene Unternehmen aber EN Inhalte obwohl es um DE Frage geht. Die KI nimmt womöglich Informationen aus der EN Seite wie z.B. Ansprechpartner Kundendienst und behauptet, dieser wäre für einen zuständig (obwohl man eine Anfrage aus Deutschland hat)
Das selbe kann natürlich bei Hotels oder Restaurants auch schnell passieren. Viele haben gleiche oder fast gleiche Namen und dort können schnell Zeitungsartikel, Bewertungen und ähnliches vermischt werden. Der Kontext wie der Ort fehlt. Resultat kann sein, dass ein Hotel womöglich plötzlich ein Pool hat oder ein "Laternenfest" stattfindet, obwohl es dabei um ein komplett anderes Hotel geht.
6. Widersprüchliche Quellen
Wenn seriöse Internetseiten unterschiedliche Informationen liefern, kann die KI zufällig eine auswählen oder sogar beide mischen. Das führt zu entsprechendem Chaos bei den Antworten.
generelle Beispiel:
Zwei Ernährungsportale nennen unterschiedliche Kalorienwerte zu 1 Scheibe Brot. Die KI nimmt nun beide Zahlen und gibt womöglich den Mittelwert aus. Diesen Kalorienwert gibt es nirgendwo.
Beispiel bezogen auf Onlineshops / Internetseiten
Gewisse Produkte sind gratis Lieferung und bei anderen gibt es einen Gefahrgutaufschlag. Die KI weiß nicht was die unterschiedlichen Versandkosten zu bedeuten haben und "berechnet" womöglich komplett wilde Versandkosten. Das selbe kann womöglich auch bei Lieferzeiten und ähnlichem passieren. Gewisse Dinge brauchen 1-2 Wochen andere 1-2 Tage und als Ergebnis kommt Lieferzeit von 10 Tagen heraus.
7. Manipulierte oder „vergiftete“ Inhalte (Prompt Injection und Data Poisioning)

Neben unbeabsichtigten Fehlern, können Daten bzw. Inhalte auch gezielt manipuliert werden um falsche Ausgaben zu erreichen.
Hier gibt es zwei Bereiche:
- Prompt Injection = ein Textabschnitt, der versteckte Anweisungen enthält, die die KI beeinflussen.
- Data Poisoning = gezieltes Einschleusen falscher Informationen in Trainings- oder Abrufdaten.
Generelle Beispiel für Data Poisioning
Da geht es meiner Meinung nach immer in den Bereich Rufmord bzw. Falschaussagen in jeglicher erdenklicher Form. Ziel ist es immer falsche Daten der KI unterzujubeln. Das kann über Internetseiten/Blogs mit Falschaussagen sein, gefälschte Wikipedia Einträge uvm.
Prompt Injection wiederum sind komplexere Angriffe auf KIs. Dort werden "Prompts" in Trainingsdaten versteckt, die wiederum zu den gewünschten Aktionen führen sollen, wenn die KI diese verarbeitet.
Bezogen auf Onlineshops bzw. Internetseiten
Wie davor im Bereich SEO wo Falschaussagen verbreitet werden konnten, gibt es hier auch wiederum Möglichkeiten ohne Ende. PDFs/Videos mit Falschaussagen oder auch gefälschte Bewertungen. Es geht in allen Fällen schlicht darum Falschaussagen der KI unterzujubeln. Aber es können eben auch Prompts der KI untergejubelt werden, die wiederum etwas bewirken sollen.
In dem Zusammenhang sei direkt auf das Urteil von Campact gegen den KI-Chatbok Grok von X.AI verwiesen wo klargestellt wird, dass KIs bzw. deren Betreiber ganz klar gegen Falschaussagen vorgehen müssen. https://www.campact.de/presse/mitteilung/20251010-pm-xai_grok/
8. Erfundene Quellen (Fake-Zitate)
Leider kommt es auch dazu, dass KIs kompletten Blödsinn erzählen können, der so komplett falsch ist, dass es den Aufwand nicht wirklich lohnt (für Anwender) die Ursache einzugrenzen.
Bekannt geworden ist dort der Fall aus 2023 wo ein Anwalt aus den USA ChatGPT verwendet hat und die KI komplett erfundene Präzendenzfällen sich ausgedacht hat zur Stützung seiner Klage. Es war letztlich eine komplette Blamage für den Anwalt.
Nähere Informationen z.B. hier https://www.heise.de/news/ChatGPT-erfindet-Gerichtsurteile-US-Anwalt-faellt-darauf-herein-9068180.html
Beispiele für Onlineshops bzw. Websites
Auch bei Onlineshops und Internetseiten kann es dazu kommen, dass sich eine KI komplett erlogene Dinge ausdenkt, schlicht weil die KI glaubt dies wäre wahrscheinlich. Auch da sei auf das Urteil von Compact gegen X.AI verwiesen und den Umgang mit Falschaussagen durch eine KI.
Wie können falsche Ausgaben korrigiert werden?
Zunächst muss geprüft werden welcher Fall überhaupt vorliegt.
Liegt es an falschen Daten und die KI gibt diese falschen Daten korrekt wieder? Dann hilft es je nachdem wo diese Daten vorgehalten werden eine Korrektur der Daten z.B. im Onlineshop oder Internetseite. Sollten zum Beispiel Anschriften oder E-Mails irgendwo falsch vorgehalten werden, müssen diese natürlich korrigiert werden, sodass die KI überhaupt eine Chance hat, korrekte Aussagen zu treffen.
Liegt es an fehlenden Daten und die KI halluziniert etwas, weil im Onlineshop/Internetseite die korrekten Daten fehlen? Auch hier hilft es die Daten entsprechend vorzuhalten, sodass die Halluzination/Lügen aufhört. z.B. wenn man keinen Vorort-Verkauf anbietet und diese Info auf der Website/Shop ergänzt besteht eine realistische Chance, dass die KI diese Info findet und keine Falschaussagen zu möglichem Vorort-Verkauf herausgibt.
Wurden gezielt falsche Daten gestreut bzw. sind falsche Daten im Umlauf und die KI gibt diese Falschaussagen wieder? Hier wird es kompliziert und von Kontaktieren der Quelle bis hin zu rechtlichem Vorgehen gilt zu prüfen was dort sinnvoll ist.
Spinnt die KI einfach komplett und es werden komplette Dinge erfunden ohne jeglichen Bezug zur Realität? Dort kann es helfen dem Chat Client entsprechend negatives Feedback zu geben und Hinweis auf die falschen Daten. Wenn dies jedoch kritische Falschaussagen sind hat das Campact Urteil gezeigt in welche Richtung es vermutlich gehen wird.
Hat der Benutzer etwas "falsch" gefragt und die KI hat ihn in seiner falschen/gefährlichen Annahme bestärkt? Also wenn der Benutzer fragt, dass man Batterien doch am Besten mit dem Hammer öffnen sollte und die KI hat einem womöglich Tipps geben wie die eigene Batterie mit welchem Hammer zu öffnen ist usw. Das lässt sich für Shopbetreiber schwer bis nicht verhindern meiner Meinung nach. Auch hier wird es hoffentlich in Richtung Campact Urteil entsprechenden Entwicklungen geben.
Ausblick / Hoffnung für die Zukunft bei falschen Angaben

Ich hoffe es wird ein Meldeportal oder Pflicht einer "Meldefunktion" oder ähnliches geben wo Falschaussagen direkt gemeldet werden können und dann vom Anbieter zeitnah abgearbeitet werden müssen.
Das selbe wie das Meldesystem bei Social Media ist meiner Ansicht nach nötig, um Falschaussagen aus KI Systemen korrigieren zu können. Die Datenqualität und Aussagequalität steigt so und die Falschaussagen werden hoffentlich deutlich weniger.
Erfahrungen mit falschen Angaben und vor allem der Lösung oder fehlgeschlagenen Versuchen gemacht?
Sie haben selbst Erfahrungen mit falschen Informationen und haben diese erfolgreich oder auch nicht erfolgreich korrigieren können? Ich würde mich sehr über einen Kommentar mit den Infos dazu freuen, sodass auch andere daraus hoffentlich lernen können was funktioniert oder nicht funktioniert hat.
Weitere Informationen zu SGE bzw. Google KI-Zusammenfassung?
Hier finden Sie ausführliche Informationen zu SGE bzw. Google KI-Zusammenfassung
mehr Informationen zu Betreuung von Magento Onlineshops finden Sie hier






