Skip to main content

Google AI Overviews zeigt rassistische Antworten: Foren als Quellen ein Problem

In den Google AI Overviews werden rassistische Antworten angezeigt. Dies wird durch die Übernahme von Inhalten aus Foren verursacht.

Problematik der Quellen

In den letzten Tagen wurde viel über falsche, lustige und bizarre Antworten in den Google AI Overviews berichtet. Ein besonders problematisches Beispiel ist die Anzeige rassistischer Antworten. Dies zeigt sich am Beispiel, das Lily Ray auf Twitter geteilt hat. Die Quellen stammen aus Quora-Beiträgen von 2015 und 2016.

Zwei Hauptprobleme

Erstens greift Google immer mehr auf Foren als Suchergebnisse zurück, auch in sensiblen Bereichen. Dies führt dazu, dass persönliche Meinungen ungefiltert auf den Suchergebnisseiten erscheinen. Zweitens scheinen viele der Schutzmechanismen, die Google für die Suche anwendet, in den AI Overviews nicht zu greifen. Dies erhöht die Gefahr, dass rassistische Inhalte in den Antworten erscheinen.

Notwendige Maßnahmen

Auch wenn die oben gezeigte Antwort jetzt nicht mehr reproduzierbar ist und Google angekündigt hat, die AI Overviews für problematische Fragen abzuschalten, bleibt das Risiko bestehen. Rassistische und populistische Inhalte dürfen dort nicht erscheinen. Google muss dies in den Griff bekommen und die Gewichtung von Foren in der Suche deutlich reduzieren. Nutzergenerierte Inhalte erhöhen das Risiko, dass extreme Meinungen auf den Suchergebnisseiten erscheinen.