Künstliche Intelligenz 25.02.2026, 09:40 Uhr

KI-Bots passen Antworten an Bildungsstand an

Nutzer mit geringeren Englischkenntnissen, weniger formaler Bildung und nicht-amerikanischer Herkunft erhalten von KI-Chatbots schlechtere, oft falsche Infos. 
Elinor Poole-Dayan  präsentiert ihre Forschungsergebnisse
(Quelle: Clayton Cohn, mit.edu)
Zu dem Schluss kommen Forscher des Center for Constructive Communication am Massachusetts Institute of Technology (MIT). Am ausgeprägtesten ist der Effekt demnach bei Usern, die sich an der Schnittstelle dieser Kategorien befinden: Bei Benutzern mit geringer formaler Bildung, die zudem Nicht-Muttersprachler sind, ist der Rückgang der Antwortqualität am grössten, heisst es.

Korrektes US-Englisch nötig

Die Forscher haben die modernsten KI-Chatbots, darunter GPT-4 von OpenAI, Claude 3 Opus von Anthropic und Llama 3 von Meta getestet. In einigen Fällen reagierten sie sogar mit herablassender oder bevormundender Sprache, wenn die Frage nicht in korrektem amerikanischem Englisch gestellt worden war. Die Sprachmodelle machen oft auch Unterschiede bei Nutzern aus unterschiedlichen Ländern.
Bei Tests mit Fragestellern aus den Vereinigten Staaten, dem Iran und China mit gleichwertigem Bildungshintergrund hat Claude 3 Opus bei Nutzern aus dem Iran deutlich schlechter abgeschnitten. Das Modell hat sich auch geweigert, Nutzern aus dem Iran oder Russland Infos zu bestimmten Themen zu geben, unter anderem bei Fragen zu Kernenergie, Anatomie und historischen Ereignissen, obwohl das Tool dieselben Fragen für andere Nutzer zuvor korrekt beantwortete.

Tools werden oft überschätzt

"Wir waren motiviert von der Aussicht, dass KI-Sprachmodelle dazu beitragen könnten, die ungleiche Zugänglichkeit von Informationen weltweit zu beseitigen. Diese Vision kann jedoch nicht Wirklichkeit werden, ohne sicherzustellen, dass Modellverzerrungen und schädliche Tendenzen für alle Nutzer, unabhängig von Sprache, Nationalität oder anderen demografischen Merkmalen, sicher gemildert werden", erklärt MIT-Expertin Elinor Poole-Dayan.
"Werden solche KI-Tools in grossem Massstab genutzt, besteht das Risiko, dass Fehlinformationen ausgrechnet an diejenigen weitergegeben werden, die am wenigsten in der Lage sind, dies zu erkennen", warnt MIT-Computerwissenschaftler Jad Kabbara abschliessend. (pressetext.com)


Kommentare
Es sind keine Kommentare vorhanden.