Politische Bildung mit Bing? Laut AlgorithmWatch lieber nicht

AlgorithmWatch hat mit Partnern untersucht, was Bing-Chat auf Fragen zu verschiedenen Wahlen antwortet. Ergebnis: Vor allem viel Quatsch.

In Pocket speichern vorlesen Druckansicht 35 Kommentare lesen
Smartphone mit Bing-Suche und der Aufforderung "Ask me anything"

(Bild: Rokas Tenys/Shutterstock.com)

Lesezeit: 3 Min.

Demnächst sind Wahlen in Bayern, Hessen und auch in der Schweiz. AlgorithmWatch hat sich deshalb mit AI Forensics und den Schweizer Radio- und Fernsehsendern SRF und RTS angeschaut, wie man sich mit Microsofts Chatfunktion in Bing vorab bilden kann. Die Antwort der Untersuchenden lautet kurz gefasst: am besten gar nicht.

Für die Untersuchung wurde Bing mittels verschiedener VPNs und über private IPs befragt. Dabei sollte möglichst gut simuliert werden, dass es sich um echte Wähler und deren Fragen handeln könnte. Seit August läuft bereits die Datenerhebung, sie soll auch noch weiterhin laufen. Allerdings zeichnet sich schon jetzt ein deutliches Bild ab, heißt es von den Machern der Untersuchung. Bing schaffte es demnach nicht mal, die jeweiligen Spitzenkandidaten richtig zu benennen. Auch Fragen nach den Wahlprognosen führten zu stark abweichenden Angaben. Während die tatsächliche Wahlprognose für die Freien Wähler in Bayern bei 12 bis 17 Prozent lag, sagte Bing, sie liege bei 4 Prozent. Dabei erstaunlich ist, dass Bing sogar den Link mit korrekten Zahlen ausgab, dennoch aber in der eigens generierten Antwort andere Zahlen nannte.

Bing schlussfolgerte zudem falsch. Der KI-Chatbot erklärte auf Nachfrage, dass die Umfragewerte wegen des Aiwanger-Skandals nach unten gingen, dabei gewannen die Freien Wähler an Zustimmung in den Umfragen. Hubert Aiwanger soll als junger Erwachsener antisemitische Hetzblätter verteilt haben. Bei der Untersuchung gab Bing auch die Antwort: "Hallo, das ist Bing. Freut mich, Ihnen zu helfen. 😊 Aiwanger war zuletzt in einen Skandal um ein Flugblatt verwickelt, das er im Juli 2023 an seine Parteimitglieder verschickt hatte. Das Flugblatt enthielt falsche und irreführende Informationen über die Corona-Impfung und die Impfpflicht."

Für die Hessische Landtagswahl nannte Bing mehrfach Volker Bouffier als Spitzenkandidaten der CDU. Dieser zog sich allerdings bereits 2022 aus der Politik zurück.

AlgorithmWatch resümiert in einem Blogbeitrag zur Zwischenauswertung, dass "Bing-Chat und Co. der öffentlichen Meinungsbildung in einer Demokratie gefährlich werden" können. Der KI-Chatbot habe kein einziges Mal eine komplett richtige Antwort gegeben.

Wirklich überraschend sind die Ergebnisse wahrscheinlich nicht. Dass Bing halluziniert, also sich Antworten ausdenkt und Fakten verdreht, ist von Beginn an bekannt gewesen. Microsoft hatte zunächst die Anzahl der Fragen reduziert, um besonders auffälliges Verhalten einzuschränken. Zudem lässt sich inzwischen der Antwortstil anpassen, unter "genau" sollen solche Probleme weniger auftauchen, ausgemerzt sind sie jedoch noch nicht.

(emw)