Melbourne (pte003/04.12.2020/06:10) – Bei Jobausschreibungen zum Einsatz kommende Künstliche Intelligenz (KI) übergeht oft weibliche Kandidatinnen. Die Algorithmen lernen nämlich von menschlichen Personalchefs häufig unbewussten Sexismus und setzen diesen dann durch, wenn sie vielversprechende Bewerbungen in die nähere Auswahl ziehen sollen. Das ergibt eine Studie der University of Melbourne http://unimelb.edu.au im Auftrag der UniBank http://unibank.com.au .
„Bewertung nach Mustern“
Die Forscher haben ein Panel von 40 Recruitern herangezogen und ihnen die gleichen Bewerbungen gezeigt und dabei nach dem Zufallsprinzip angegeben, ob die Anwärter Männer oder Frauen waren. Die Probanden mussten dann auswählen, wer für eine Einstellung geeignet ist. Das gleiche Experiment hat das Forscher-Team schließlich mit mehreren Algorithmen rekreiert, die schon jetzt bei der Auswahl von Job-Kandidaten zum Einsatz kommen.
Bei den Personalchefs hat sich eine deutliche Tendenz zur Einstellung von männlichen Kandidaten gezeigt. Auch die KI hat Vorurteile offenbart. „Selbst wenn die Namen entfernt wurden, hat die KI Bewerbungen anhand von historischen Mustern bewertet, wo die Präferenz bei Männern liegt. Beispielsweise geben sie Bewerbern mit mehreren Jahren kontinuierlicher Anstellung den Vorzug. Das ist ein automatischer Nachteil für Frauen, die sich für Kinder eine Auszeit genommen haben“, erklärt Marc Cheong, Koautor der Studie.
Unbewusste sexistische Tendenz
Der Studie zufolge müssen Unternehmen Algorithmen genau unter die Lupe nehmen, damit diese nicht alte Vorurteile wieder aufleben lassen. Selbst unterbewusste sexistische Tendenzen bei Menschen können eine KI beeinflussen und unfaire Behandlungen bei Einstellungen verstärken. Vor allem, wenn die Systeme ohne Beaufsichtigung arbeiten, müssen sie möglichst unbefangen bleiben, so die abschließende Forderung der Wissenschaftler.
(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Georg Haas
Tel.: +43-1-81140-306
E-Mail: haas@pressetext.com
Website: www.pressetext.com