Menschen übertragen geschlechtsspezifische Vorurteile auf Künstliche Intelligenz
17.11.2025
Eine Studie zeigt: Menschen projizieren Rollenbilder auf KI – und behandeln „weibliche“ und „männliche“ Systeme unterschiedlich.
17.11.2025
Eine Studie zeigt: Menschen projizieren Rollenbilder auf KI – und behandeln „weibliche“ und „männliche“ Systeme unterschiedlich.
Laut einer neuen Studie von Forschenden der LMU und des Trinity College Dublin bringen Menschen geschlechtsspezifische Vorurteile in ihre Interaktionen mit Künstlicher Intelligenz (KI) ein. Die kürzlich in der Fachzeitschrift iScience veröffentlichten Ergebnisse sind von erheblicher Relevanz für die Gestaltung, Nutzung und Regulierung interaktiver KI-Systeme.
Die Studie mit über 400 Teilnehmerinnen und Teilnehmern ergab, dass Menschen weiblich gekennzeichnete KI in vergleichbarem Maße ausnutzen wie menschliche Frauen und männlich gekennzeichneter KI in ähnlichem Ausmaß misstrauen wie menschlichen Männern. Insbesondere im Fall von weiblich gekennzeichneter KI stellte die Studie fest, dass Ausbeutung im Mensch-KI-Kontext sogar noch häufiger vorkam als bei der Interaktion mit menschlichen Gesprächspartnerinnen.
Die Studie ist die erste, die die Rolle des Geschlechts von Maschinen in der Zusammenarbeit zwischen Mensch und KI mit einem systematischen empirischen Ansatz untersucht hat.
Dazu spielten die Teilnehmenden wiederholt Runden des „Gefangenendilemmas“ – eines klassischen Experiments der Spieltheorie und Verhaltensökonomik, bei dem sich die Spielenden entscheiden müssen, ob sie sich kooperativ verhalten oder die andere Person ausnutzen. Um zu untersuchen, ob Vertrauen und Kooperationsbereitschaft auch im Kontext Künstlicher Intelligenz vom Geschlecht beeinflusst wird, wurden die Spielpartner jeweils als Mensch oder KI und zusätzlich als männlich, weiblich, nicht-binär oder geschlechtsneutral bezeichnet.
Jurgis Karpus ist Postdoktorand am Lehrstuhl für Philosophy of Mind. | © Jurgis Karpus
Die Ergebnisse zeigen, dass sich geschlechtsspezifische Erwartungen aus Mensch-Mensch-Kontexten auch auf die Zusammenarbeit zwischen Mensch und KI übertragen. Dies hat laut den Forschenden erhebliche Auswirkungen darauf, wie Organisationen interaktive KI-Systeme entwerfen, einsetzen und regulieren sollten.
„Diese Studie weist auf ein wichtiges Dilemma hin“, sagt Dr. Jurgis Karpus, Mitautor der Studie und Postdoktorand am Lehrstuhl für Philosophy of Mind der LMU. „KI-Agenten mit menschenähnlichen Eigenschaften auszustatten, kann die Zusammenarbeit zwischen Menschen und KI fördern, birgt jedoch auch die Gefahr, dass unerwünschte bestehende geschlechtsspezifische Vorurteile aus menschlichen Interaktionen auf Künstliche Intelligenz übertragen und verstärkt werden.“
Da KI zunehmend Teil unseres Alltags werde, sei es wichtig, die Geschlechterdarstellung bei der Gestaltung von KI sorgfältig zu berücksichtigen, um beispielsweise das Engagement der Menschen zu maximieren und Vertrauen in ihre Interaktionen mit automatisierten Systemen aufzubauen, so die Forschenden. Entwicklerinnen und Entwickler interaktiver KI-Anwendungen sollten Vorurteile in menschlichen Interaktionen erkennen und abbauen, um eine Verstärkung schädlicher geschlechtsspezifischer Diskriminierung zu verhindern und vertrauenswürdige, faire und sozial verantwortliche KI-Systeme zu schaffen.
Sepideh Bazazi, Jurgis Karpus & Taha Yasseri: AI’s assigned gender affects human-AI cooperation. iScience 2025