Neue Forschungsergebnisse offenbaren systematische Diskriminierungsmuster in AI-basierten Gehaltsempfehlungen - mit weitreichenden Konsequenzen für HR-Prozesse.
Wissenschaftler der Technischen Hochschule Würzburg-Schweinfurt (THWS) dokumentierten die Voreingenommenheit führender Sprachmodelle bei Vergütungsempfehlungen. Die Studie untersuchte fünf prominente Large Language Models - darunter Claude 3.5, GPT-4o und Qwen 2.5 - mit identischen Qualifikationsprofilen, wobei ausschließlich das Geschlecht variierte. Die resultierenden Gehaltsvorschläge offenbarten systematische Benachteiligungen weiblicher Kandidaten.
Die gravierendsten Gehaltsdifferenzen manifestierten sich in Recht und Medizin, während Betriebswirtschaft und Ingenieurswissenschaften moderatere Unterschiede zeigten. Lediglich die Sozialwissenschaften generierten annähernd paritätische Vergütungsvorschläge. Die Forschung dokumentiert umfassendere algorithmische Voreingenommenheit: Neben geschlechtsspezifischen Verzerrungen identifizierten die Wissenschaftler systematische Benachteiligungen für Personen mit Migrationshintergrund, People of Color und Geflüchtete.
Selbst bei bewusster Verschleierung persönlicher Merkmale können Large Language Models durch kontextuelle Inferenz demografische Charakteristika ableiten. Diese Fähigkeit zur impliziten Datenextraktion erschwert effektive Diskriminierungsverhinderung erheblich. Nutzer können kaum erkennen, ob ihre Interaktionen von systematischen Verzerrungen beeinflusst werden. Für Unternehmen entstehen erhebliche rechtliche Risikopotenziale: Die dokumentierten Verzerrungen könnten zu AGG-Verstößen führen und Diskriminierungsklagen provozieren. Personalverantwortliche sollten AI-generierte Gehaltsempfehlungen kritisch hinterfragen und durch traditionelle Bewertungsverfahren validieren.
Die THWS-Studie unterstreicht die Dringlichkeit bias-freier Algorithmus-Entwicklung. Solange strukturelle Verzerrungen persistieren, sollten Nutzer AI-Outputs als eine von mehreren Informationsquellen behandeln. Die kritische Reflexion automatisierter Empfehlungen bleibt eine unverzichtbare Qualitätssicherungsmaßnahme. Die dokumentierten Diskriminierungsmuster verdeutlichen: Technologischer Fortschritt allein garantiert nicht gesellschaftlichen Fortschritt - vielmehr bedarf es bewusster Anstrengungen zur Entwicklung gerechter AI-Systeme.