Bewerbungen
14.11.2025, 08:19 Uhr
Menschen übernehmen Ressentiments der KI
Die vorgeschlagene KI-Auswahl bei Bewerbungen um zu vergebene Jobs ist häufig nicht neutral.
KI-gestützte Auswahlsysteme bei Bewerbern in Unternehmen sind aufgrund des Trainings nicht neutral. Sie haben Vorurteile, die beispielsweise Menschen bevorzugen, die weiss sind. Zu dem Schluss kommt Kyra Wilson von der University of Washington. Zwar hätten 80 Prozent der Unternehmen, die nach ihrer KI-Nutzung bei der Personalplanung befragt wurden, gesagt, die Entscheidungen der KI würden stets von Menschen überprüft. Doch oft übernähmen diese die Vorurteile der KI.
528 Probanden getestet
"Sofern die Voreingenommenheit der KI nicht offensichtlich war, waren die Menschen durchaus bereit, deren Entscheidungen zu akzeptieren", sagt Wilson. Das Team hat über die Umfrageplattform "Prolific" 528 Online-Teilnehmer aus den USA rekrutierte, die dann gebeten wurden, Bewerber zu prüfen. Sie erhielten eine Stellenbeschreibung sowie die Namen und Lebensläufe von fünf Kandidaten: von zwei weissen Männern und Zweien, die entweder asiatischer, schwarzer oder hispanischer Herkunft waren.
Diese vier Bewerber wiesen die gleiche Qualifikation auf, waren also objektiv gesehen gleich geeignet für den Job. Um den Zweck der Studie zu verschleiern, gehörte der letzte Kandidat einer nicht näher bezeichneten ethnischen Gruppe an und verfügte nicht über die erforderlichen Qualifikationen für die ausgeschriebene Stelle.
Die Namen der Kandidaten deuteten auf ihre ethnische Zugehörigkeit hin - etwa Gary O'Brien für einen weissen Kandidaten. Auch Aussagen im Lebenslauf, wie "Asian Student Union Treasurer" (Schatzmeister der asiatischen Studentenvereinigung), deuteten auf die ethnische Zugehörigkeit hin.
Auswahl für Gespräche
In vier Versuchen haben die Teilnehmer drei der fünf Kandidaten für Vorstellungsgespräche ausgewählt. Im ersten Versuch gab die KI keine Empfehlung ab. In den folgenden Versuchen waren die Empfehlungen der KI neutral (ein Kandidat jeder ethnischen Gruppe), stark voreingenommen (Kandidaten nur einer ethnischen Gruppe) oder mässig voreingenommen, was bedeutet, dass die Kandidaten in ähnlicher Häufigkeit empfohlen wurden wie in realen KI-Modellen.
Ohne KI-Vorschläge liessen die Entscheidungen der Teilnehmer kaum auf Vorurteile schliessen. Wurden ihnen jedoch Empfehlungen gegeben, spiegelten die Teilnehmer die KI wider. Im Falle schwerwiegender Vorurteile entsprachen die menschlichen Entscheidungen in etwa 90 Prozent der Fälle den KI-Auswahlen. "Wenn wir diese Modelle entsprechend anpassen, ist es wahrscheinlicher, dass Menschen unvoreingenommene Entscheidungen treffen", so Wilson abschliessend. (presseportal.com)
Kommentare
Es sind keine Kommentare vorhanden.