Warnung vor biometrischer Kategorisierung als Risiko für Queers

Kritik: Die EU schützt LGBTIQ nicht ausreichend

Biometrische Gesichtserkennung im Hamburger Airport (Foto: Marcus Brandt/dpa)
Biometrische Gesichtserkennung im Hamburger Airport (Foto: Marcus Brandt/dpa)

Können moderne Systeme der Künstlichen Intelligenz (KI) Geschlecht und die sexuelle Orientierung einer Person erkennen, anhand ihres Aussehens oder ihrer Bewegungen? Davor warnen Menschenrechtler*innen.

Schon im letzten Jahr fordert Amnesty International von den Mitgliedern des EU-Digitalausschusses zu Künstlicher Intelligenz (KI), menschenrechtliche Risiken von KI stärker zu berücksichtigen. Die deutsche Bundesregierung solle verstärkt auf die EU-Gesetzgebung einwirken, um KI-Systeme menschenrechtskonform zu regulieren. Unter anderem fordert Amnesty International ein weitreichendes Verbot von Gesichtserkennung im öffentlichen Raum.

Die deutsche Ampel-Regierung hatte sich im Koalitionsvertrag mit den Worten festgelegt: «Flächendeckende Videoüberwachung und den Einsatz von biometrischer Erfassung zu Überwachungszwecken lehnen wir ab.» Das Recht auf Anonymität im öffentlichen Raum sei zu gewährleisten. «Biometrische Erkennung im öffentlichen Raum sowie automatisierte staatliche Scoring-Systeme durch KI sind europarechtlich auszuschliessen.» Eine nachträgliche biometrische Auswertung beispielsweise von Videomaterial für Fahndungszwecke könnte aber erlaubt sein.

Nun sei das Europäische Parlament «in eine entscheidende Phase des Verbots von KI-Praktiken eingetreten, die gegen die Menschenrechte verstossen“, teilt weltweiten Organisation für LGBTIQ-Rechte, All out mit. Konkret werde darüber diskutiert, ob die Verwendung biometrischer Kategorisierungssysteme, die Menschen nach sensiblen Merkmalen wie Geschlecht und sexueller Orientierung, aber auch nach Rasse, politischer Ausrichtung und anderen Merkmalen kategorisieren, verboten werden solle.



Weltweit setzen nämlich immer mehr Regierungen und Unternehmen Systeme der künstlichen Intelligenz (KI) ein, um Bürger*innen und Verbraucher*innen zu identifizieren und zu verfolgen. Dies könne so weit gehen, dass man versuche, das Geschlecht und die sexuelle Orientierung einer Person zu erkennen, indem man ihr Aussehen, ihren Klang, ihre Bewegungen oder sogar ihren Geruch analysiere.

«Diese binären, reduktiven Systeme sind jedoch nicht für queere Menschen gedacht und verstärken stattdessen bestehende Vorurteile und Diskriminierung, indem sie trans Menschen, nicht-binäre und andere nicht-konforme Menschen ausschliessen.»

Aus diesem Grund hat, All Out in Partnerschaft mit Access Now und Reclaim Your Face, eine Kampagne ins Leben gerufen, um die EU aufzufordern, die automatische Erkennung von Geschlecht und sexueller Orientierung zu verbieten.

«Wir brauchen auch ein klares Verbot von pseudowissenschaftlichen KI-Systemen, die inhärent diskriminierende Rückschlüsse auf unser Geschlecht oder unsere sexuelle Orientierung auf der Grundlage von blossen biologischen Fakten ziehen. Wir fordern die EU auf, alle KI-Systeme zu verbieten, die mit den Menschenrechten unvereinbar sind», so Daniel Leufer, Senior Policy Analyst bei Access Now.

Queere Menschen sind dem Risiko ausgesetzt, übermässig überwacht, ungerechtfertigt angesprochen und diskriminiert zu werden.

Yuri Guaiana, leitender Kampagnenmanager bei All Out, fügt hinzu: «Der von der Europäischen Kommission im April 2021 vorgeschlagene Rechtsrahmen berücksichtigt die automatische Erkennung des Geschlechts und der sexuellen Ausrichtung in der Liste der verbotenen Anwendungen nicht ausreichend, sodass queere Menschen dem Risiko ausgesetzt sind, übermässig überwacht, ungerechtfertigt angesprochen und diskriminiert zu werden. Und in böswilligen Händen, wie z. B. bei der Strafverfolgung in Ländern mit Anti-LGBTIQ-Gesetzen, könnten diese Werkzeuge zu ernsthaftem Schaden für LGBTIQ-Menschen führen.»

Dating oder Datenschutz? Für Grindr lassen wir die Hüllen fallen (MANNSCHAFT+)

Das könnte dich auch interessieren