Google Snippets, die hervorgehobenen Antworten bei der Google-Suche, zeigen manchmal falsche oder unsinnige Informationen an. Und im KI-Zeitalter scheint das eher zu- als abzunehmen.
Ein aktuell prominentes Beispiel (könnt ihr selbst ausprobieren): „what countries in africa start with k“. Google antwortete fälschlicherweise „Keines“, weil genau das jemand bei Hacker News – als ChatGPT-generierter Text gekennzeichnet – gepostet hatte. Wie kann das passieren?
Laut Newsletter-Autor Henk van Ess ist das kein Bug, sondern ein Feature. Google entfernt Snippets, die gegen Richtlinien verstoßen. Doch wenn eine Antwort zwar falsch, aber harmlos ist, greift Google nicht ein.
Früher stammten Snippets aus Webseiten. Heute verwendet Google KI und das Konzept des Konsens: Mehrere glaubwürdige Quellen müssen übereinstimmen. Nun spotten viele über KI-Halluzinationen. Registriert Google’s KI diesen Konsens, kann sie Falschinformationen als Fakten präsentieren.
Stellen Sie sich die KI von Google als eine Art Bibliothekar des Internets vor, der die Weisheiten des Internets schnell auf mundgerechte Karteikarten katalogisiert, die als Featured Snippets bekannt sind. Während die Geschichten über KI-Pannen immer mehr Seiten füllen, übt unser Bibliothekar weder Kritik noch korrigiert er. Der Bibliothekar zählt einfach den Konsens zusammen, und wenn die Erzählung von KI-Fehlern laut genug ist, wird sie an die Pinnwand der Fakten geheftet.
Henk van Ess
Dies könnte van Ess zufolge eine Echo-Kammer verstärken: Die Konsens-Suche blendet Minderheitenmeinungen aus. Die Hilfsbereitschaft verhindert nützliche Zufallsfunde. Und Sprachbarrieren fallen, aber nur für die Mehrheitsmeinung.
Google sollte angesichts der noch weiteren Verbreitung von KI-Erzeugnissen also offenbar ganz dringend die Regeln überdenken, die für die Rich Snippets gelten, um einerseits Meinungsvielfalt zu erhalten, aber andererseits Nutzer vor Fehlinformationen zu schützen.
Bei KI-Bildern unternimmt Google schon Anstrengungen, Bilder entsprechend zu kennzeichnen. Bei Texten ist es aber eigentlich unmöglich, sie als eindeutig KI-generiert nachzuweisen.
Ich habe deine Frage sowohl auf Englisch wie auf Deutsch an GPT 3.5 gestellt: Tatsächlich gab es bei der englischen Frage ein kleines Problem.
Some countries in Africa that start with the letter „K“ include:
1. Kenya
2. Comoros (Union of the Comoros)
Please note that these are not all the countries, just a few examples.
Ich: Warum Comoros, da ist vorne ein C?
ChatGPT
Entschuldige meinen Fehler. Du hast natürlich recht. Das Land, das mit „K“ beginnt, ist Kenia. Wenn du weitere Fragen hast oder Hilfe benötigst, stehe ich zur Verfügung.
Ende des Dialogs.
Fazit: Der Fehler liegt beim Google-Algorithmus, nicht beim „KI-Blödsinn“. Und das hat wenig mit künstlicher Intelligenz und mehr mit natürlicher Dummheit zu tun.