Inland

Diskriminierung von Frauen durch KI: „Wir leben immer noch im Patriarchat“

5. März 2026 12:33:00
Das Allgemeine Gleichbehandlungsgesetz (AGG) soll vor Diskriminierung schützen und laut Koalitionsvertrag in dieser Legislatur reformiert werden. Die Vorsitzende der SPD Frauen, Carmen Wegge, erklärt, warum das nötig ist und welche Rolle KI dabei spielt.
Eine Person mit Computer als Kopf stemmt die Arme in die Hüften und steht vor blauem Hintergrund.

Auch Künstliche Intelligenz (KI) kann diskriminieren - im AGG gibt es hier bislang eine Regelungslücke.

Im Jahr 2006 trat das Allgemeine Gleichbehandlungsgesetz (AGG) in Kraft, das Menschen vor Benachteiligung aufgrund verschiedener Merkmale wie sexueller Orientierung oder Geschlecht schützen soll. Doch seitdem hat sich die Gesellschaft gewandelt. Im Koalitionsvertrag ist deshalb festgeschrieben, dass das AGG reformiert werden soll. Mit einem Positionspapier haben die SPD Frauen im Februar 2026 skizziert, wie sie sich eine solche Reform vorstellen. Für Carmen Wegge, die Vorsitzende der SPD Frauen, ist dabei vor allem ein Punkt entscheidend.

Warum muss das Allgemeine Gleichbehandlungsgesetz (AGG) reformiert werden?

Das hat viele Gründe. Das AGG ist ein tolles Gesetz, das Menschen in Deutschland vor Diskriminierung schützt. Aber in den 20 Jahren, in denen es das AGG gibt, haben wir gemerkt, dass es trotzdem noch Bereiche gibt, für die dieser Schutz nicht greift und wo es Nachbesserungsbedarf gibt.

Wo sehen Sie diesen Nachbesserungsbedarf?

Da haben wir SPD Frauen eine lange Wunschliste. Es müssen noch weitere Merkmale ins AGG aufgenommen werden, wegen der nicht diskriminiert werden darf. Wir sprechen uns dafür aus, dass beispielsweise das Merkmal der familiären Fürsorge aufgenommen wird, also dass Menschen nicht diskriminiert werden dürfen, weil sie neben ihrer Erwerbsarbeit noch Sorgearbeit leisten – also sich zum Beispiel um ein Kind kümmern. 

Das betrifft im Übrigen nicht nur Frauen, sondern auch Männer. Gerade wenn es um Elternzeit geht, trauen sich viele nicht, mehr als zwei Monate zu nehmen – aus Angst, dass sie dann im Beruf Nachteile erfahren. Das ist eine Lücke, die wir im AGG schließen müssen.

„Wir wissen, dass es Formen künstlicher Intelligenz und digitaler Algorithmen gibt, die diskriminieren“

Außerdem sehen Sie Nachbesserungsbedarf im Zusammenhang mit Künstlicher Intelligenz (KI). Was hat das mit dem AGG zu tun?

KI ist ein Phänomen, das uns die letzten Jahre auf vielen Ebenen verstärkt beschäftigt hat. Was das AGG angeht, sehen wir hier eine Regelungslücke. Wir wissen, dass es Formen künstlicher Intelligenz und digitaler Algorithmen gibt, die diskriminieren. Zum Beispiel wenn Arbeitgeber darauf umsteigen, in Bewerbungsprozessen KI zu nutzen – die dann beispielsweise aus eingegangenen Bewerbungen aussuchen soll, wer zum Gespräch eingeladen wird. Da kann es passieren, dass eine KI alle Frauen zwischen 29 und 35 aussiebt, weil die möglicherweise Kinder bekommen könnten.

Gibt es noch andere Fälle der Diskriminierung, die so vorkommen könnten?

Klar. Es könnte auch sein, dass eine KI auf Basis rassistischer Vorurteile Menschen mit bestimmten Nachnamen aussortiert, oder generell Personen, die Kinder haben. Das könnte man mit allen möglichen Vorurteilen so weiterdenken – und das AGG sagt dazu bisher eben nichts.

Für all das müsste eine KI in Vorurteilen denken – als Maschine gilt sie aber doch erst einmal als neutral.

Sie soll angeblich neutral sein, ja, aber tatsächlich kann auch eine KI einen sogenannten Gender Bias haben, also geschlechtsspezifische Vorurteile.

„Zu wenig Frauen sitzen in Positionen, wo sie zum Beispiel tatsächlich Bewerbungsprozesse mitgestalten“

Und wie entsteht dieser Gender Bias?

Jetzt bin ich keine Digitalpolitikerin, aber ich habe mir das erklären lassen. Also zum einen haben wir das große Problem, dass der Berufsstand des Software-Ingenieurs stark männlich geprägt ist. Das bedeutet: Diejenigen, die KI entwickeln, sind meistens Männer. Und denen fehlt im Zweifel die Sensibilität dafür, Gender Bias zu erkennen – einfach, weil sie nicht davon betroffen sind. Außerdem gibt es immer noch ein starkes Machtgefälle innerhalb von Wirtschaft und Arbeit. Zu wenige Frauen sitzen in Positionen, wo sie zum Beispiel tatsächlich Bewerbungsprozesse mitgestalten.

Außerdem gibt es KI-Systeme, die einfach mit Daten gefüttert werden und daraus selber lernen – da hat man dann kaum noch Kontrolle darüber, was am Ende hängen bleibt. Und die stellen dann möglicherweise fest, dass es zum Beispiel kaum Frauen mit Kindern im Unternehmen arbeiten oder in Bewerbungsverfahren nicht ausgewählt werden und schlussfolgern daraus dann, dass sie diese Gruppe eben auch nicht vorschlagen.

Also sind KI-Systeme nicht neutral?

Am Ende reproduziert KI auch einfach die gesellschaftlichen Gegebenheiten, die wir haben. Wir leben immer noch im Patriarchat. Da reicht es nicht, das AGG zu reformieren, sondern wir müssen als Gesellschaft eine andere Perspektive anstreben.

Auf einer rechtlichen Ebene ist KI nicht haftbar – wer trägt dann die Verantwortung für die mögliche Diskriminierung?

Die liegt bei der Person, die die KI einsetzt.

„Viel sexualisierte Gewalt wird durch KI überhaupt erst möglich oder sogar verstärkt“

Gibt es auch Szenarien außerhalb des Berufskontextes, in denen KI sexistisch diskriminieren könnte?

Da gibt es viele, für die dann das AGG nicht mehr greift. Deepfakes, also ohne Einverständnis mit KI erstellte, sexualisierende Bilder von Menschen – insbesondere Frauen – sind da natürlich ein Aspekt – das hat man ja auch in den Debatten um Grok, die KI von Elon Musk, gesehen. 

Aber auch darüber hinaus gibt es viel sexualisierte Gewalt, die durch KI überhaupt erst möglich oder sogar verstärkt wird. Natürlich gibt es auf europäischer Ebene die KI-Verordnung, aber für Deepfakes gibt es darin zum Beispiel keinen Schutz.

Heißt das, es bräuchte auch im digitalen Raum Gewaltschutz?

Auf jeden Fall, wir brauchen dringend ein digitales Gewaltschutzgesetz. Das ist etwas, was wir mit Justizministerin Stefanie Hubig jetzt auch angehen. So ein Gesetz könnte es ermöglichen, Accounts, die Hass und Hetze verbreiten, quasi vom Netz zu nehmen oder zu sperren. 

Auch wie man strafrechtlich besser gegen digitale Gewalt vorgehen kann, muss geregelt werden. Da sind wir dann auch wieder bei den Deepfakes, aber auch für Stalking spielt das eine Rolle, denn auch das spielt sich im digitalen Raum ab – zum Beispiel, wenn Tracking-Apps auf den Handys der Opfer installiert werden. All das muss geregelt werden – im besten Fall noch dieses Jahr.

Weitere interessante Rubriken entdecken

0 Kommentare
Noch keine Kommentare