
Der neue Blogbeitrag (https://www.statworx.com/content-hub/blog/warum-michael-befoerdert-wird-aisha-aber-nicht-ki-edition) von statworx wirft ein kritisches Licht auf den Einsatz von Künstlicher Intelligenz (KI) in sensiblen Bereichen, z. B. in Bewerbungsverfahren. Unter dem Titel "Warum Michael befördert wird, Aisha aber nicht: KI-Edition" beleuchtet die Autorin Elifnur Dogan, AI Educator in der AI Academy von statworx, eindrücklich, wie unbewusste Vorurteile in Trainingsdaten von KI-Systemen reale Auswirkungen auf das Berufsleben haben können - insbesondere für Personen mit muslimisch klingenden Namen.
Die fiktive Geschichte von Aisha, einer hochqualifizierten Bewerberin, die trotz überzeugender Referenzen eine automatisierte Absage erhält, steht exemplarisch für ein viel größeres Problem: algorithmische Diskriminierung. KI-Systeme, die vermeintlich objektiv entscheiden sollen, reproduzieren oftmals gesellschaftliche Verzerrungen, die in ihren Trainingsdaten verankert sind. Die Forschung belegt, dass große Sprachmodelle wie GPT-4 oder Llama2 muslimische Namen signifikant häufiger mit negativen Rollenbildern assoziieren als westliche Namen.
"Wir erleben hier keine Einzelfälle, sondern systematische Benachteiligung", warnt Dogan. Die Studien zeigen, dass Namen wie Aisha oder Mohammad in KI-generierten Geschichten häufiger als Täter:innen oder Angeklagte dargestellt werden. Solche Verzerrungen setzen sich auch in realen Entscheidungsprozessen fort - sei es bei der Vergabe von Jobs, Krediten oder Wohnraum.
Mit Blick auf den kürzlich verabschiedeten EU AI Act sieht statworx dringenden Handlungsbedarf. Bewerbungs-KIs gelten nun als Hochrisiko-Systeme und unterliegen strengen Anforderungen an Transparenz, Erklärbarkeit und Nichtdiskriminierung. statworx unterstützt Unternehmen bei der Umsetzung dieser Standards mit dem AI Act Quick Check (https://www.statworx.com/ai-act-tool)sowie praxisnahen Schulungsangeboten im Rahmen von statworx ACT! (https://www.statworx.com/statworx-act).
"Der AI Act ist ein wichtiger Schritt, aber keine Allheilmittel", betont Dogan. "Entscheidend ist, dass Unternehmen die Verantwortung übernehmen und sich aktiv mit der Fairness ihrer KI-Systeme auseinandersetzen."
Über statworx
Ansprechpartner:
Tarik Ashry
- PR & Communications Specialist
- mailto:tarik.ashry@statworx.com Camilla Jeck
- Marketing Manager
- mailto:camilla.jeck@statworx.com statworx ist ein führendes Beratungs- und Entwicklungsunternehmen für Daten und KI in der DACH-Region. Das Unternehmen unterstützt Firmen bei der strategischen Ausrichtung auf KI, entwickelt maßgeschneiderte KI-Lösungen und bildet Unternehmen im Bereich Daten und KI weiter.
Weitere Informationen finden Sie unter .
Logo: https://mma.prnewswire.com/media/2608822/5299235/statworx_Logo.jpg
View original content:https://www.prnewswire.com/de/pressemitteilungen/bias-im-recruiting-ki-beratungsunternehmen-statworx-warnt-vor-diskriminierung-durch-ki-302445069.html
Original-Content von: Statworx, übermittelt durch news aktuell
Originalmeldung: https://www.presseportal.de/pm/173428/6025710
© 2025 news aktuell