Anzeige
Anzeige
Anzeige
Lesedauer 3 Min.

KI-Bots passen Antworten an Bildungsstand an

Nutzer mit geringeren Englischkenntnissen, weniger formaler Bildung und nicht-amerikanischer Herkunft erhalten von KI-Chatbots schlechtere, oft falsche Infos.

Elinor Poole-Dayan  präsentiert ihre Forschungsergebnisse

© (Quelle: Clayton Cohn, mit.edu)

Zu dem Schluss kommen Forscher des Center for Constructive Communication am Massachusetts Institute of Technology (MIT). Am ausgeprägtesten ist der Effekt demnach bei Usern, die sich an der Schnittstelle dieser Kategorien befinden: Bei Benutzern mit geringer formaler Bildung, die zudem Nicht-Muttersprachler sind, ist der Rückgang der Antwortqualität am grössten, heisst es.

Korrektes US-Englisch nötig

Die Forscher haben die modernsten KI-Chatbots, darunter GPT-4 von OpenAI, Claude 3 Opus von Anthropic und Llama 3 von Meta getestet. In einigen Fällen reagierten sie sogar mit herablassender oder bevormundender Sprache, wenn die Frage nicht in korrektem amerikanischem Englisch gestellt worden war. Die Sprachmodelle machen oft auch Unterschiede bei Nutzern aus unterschiedlichen Ländern.

Bei Tests mit Fragestellern aus den Vereinigten Staaten, dem Iran und China mit gleichwertigem Bildungshintergrund hat Claude 3 Opus bei Nutzern aus dem Iran deutlich schlechter abgeschnitten. Das Modell hat sich auch geweigert, Nutzern aus dem Iran oder Russland Infos zu bestimmten Themen zu geben, unter anderem bei Fragen zu Kernenergie, Anatomie und historischen Ereignissen, obwohl das Tool dieselben Fragen für andere Nutzer zuvor korrekt beantwortete.

Tools werden oft überschätzt

"Wir waren motiviert von der Aussicht, dass KI-Sprachmodelle dazu beitragen könnten, die ungleiche Zugänglichkeit von Informationen weltweit zu beseitigen. Diese Vision kann jedoch nicht Wirklichkeit werden, ohne sicherzustellen, dass Modellverzerrungen und schädliche Tendenzen für alle Nutzer, unabhängig von Sprache, Nationalität oder anderen demografischen Merkmalen, sicher gemildert werden", erklärt MIT-Expertin Elinor Poole-Dayan.

"Werden solche KI-Tools in grossem Massstab genutzt, besteht das Risiko, dass Fehlinformationen ausgrechnet an diejenigen weitergegeben werden, die am wenigsten in der Lage sind, dies zu erkennen", warnt MIT-Computerwissenschaftler Jad Kabbara abschliessend. (pressetext.com)

Kommentare

Künstliche Intelligenz KI & Trends
Anzeige
Anzeige

Neueste Beiträge

Sunrise passt Roaming-Optionen an
Sunrise packt neu mehr Leistung in die Roaming-Optionen für beliebte Reiseziele in Europa, Nordamerika und vielen weiteren Ländern – zu gleichen oder tieferen Preisen.
3 Minuten
23. Mär 2026
Amazon plant offenbar ein eigenes Smartphone
Amazon entwickelt offenbar ein eigenes Smartphone. Das berichtet Reuters unter Berufung auf Insider im Unternehmen. Es wäre der zweite Anlauf in diesem Segment für den Web-Riesen.
2 Minuten
23. Mär 2026
«ZüriA»
Stadt Zürich lanciert eigene KI-Assistenz
Seit Kurzem steht den Mitarbeitenden der Stadt Zürich mit «ZüriA» eine KI-Assistenz zur Verfügung, die die Bearbeitung von internen, vertraulichen und streng vertraulichen Informationen ermöglicht.
2 Minuten
18. Mär 2026

Das könnte Sie auch interessieren

Künstliche Intelligenz
KI-Tools verhindern das Lernen am Arbeitsplatz
Berufseinsteiger erledigen an ihrem ersten Arbeitsplatz wegen Künstlicher Intelligenz (KI) immer weniger Routineaufgaben und erwerben auch nicht mehr nebenbei spezielle Qualifikationen durch die Zusammenarbeit mit erfahrenen Kollegen.
3 Minuten
Smartphone
Vivo bringt Zeiss-Kameras in die Mittelklasse
Vivo hat zwei Smartphones der neuen V70-Serie gezeigt, die auch nach Deutschland und in die Schweiz kommen könnten. Sie sollen mit Zeiss-Technologie bei den Kameras punkten.
2 Minuten
24. Feb 2026
Forschung
Strahlenresistente Elektronik für das All kreiert
Laut Forschern der Fudan-Universität eignen sich Schichten aus Molybdändisulfid für strahlungsbeständige Elektronik in Raumfahrzeugen.
3 Minuten
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige

Kommentare