taz.de -- Dokumentarfilm „Coded Bias“: Einäugige Maschinen

Menschen können rassistisch und sexistisch sein – so wie die Algorithmen, die uns das Leben erleichtern: Die Hamburger W3 zeigt die Doku „Coded Bias“.

Bild: Zweifelt an der Neutralität der Künstlichen Intelligenz: Joy Buolamwini

Hamburg taz | Eigentlich hatte Joy Buolamwini einen Spiegel erfinden wollen, der Hineinblickende aufmuntert, indem er das gespiegelte Gesicht etwa mit dem einer Lieblingssängerin oder auch eines mutmachenden Löwen kombiniert – mittels Webcam und [1][Gesichtserkennungssoftware]. Dabei stieß [2][die Computerwissenschaftlerin] auf ein Problem: Keine ausprobierte Software erkannte zuverlässig Buolamwinis Gesicht. Die Programme, entwickelt in den Laboren von Google, Amazon oder Microsoft, identifizierten zuverlässig weiße Männer-, aber nicht schwarze oder Frauengesichter.

Eigentlich ganz gut für nicht weiße, nicht männliche Menschen – nicht erkannt zu werden etwa von den vielen Kameras im öffentlichen Raum in einer Stadt wie London. Oder nicht? Kommt darauf an, auch das zeigt Shalini Kantayyas in den USA, England und China entstandene Doku „Coded Bias“, die am Dienstagabend [3][die Hamburger W3 streamt]: Da beobachten Aktivist*innen der [4][britischen NGO „Big Brother Watch“], wie ein Mann sich weigert, sein Gesicht in eine Polizeikamera zu halten, und dafür eine Strafe zahlen soll; dass er ein Recht an seinen biometrischen Daten habe, mögen die Beamt*innen nicht erkennen.

Dass sie damit im Recht sein könnten, ist Teil des Problems. Anders als bei der eigenen DNA oder dem, was so alles im Pass steht, ist vielerorts schlicht nicht geregelt, was der Staat mit aufgezeichneten Gesichtern machen darf – gegenüber den einschlägigen Tech-Riesen willigen die Nutzer*innen ja wenigstens noch so was wie ein in die jeweils irgendwo in den AGB versteckte Klausel. Anders in China, lernen wir: Da müsse, wer das Internet nutzen will, der Gesichtserkennung zustimmen – und der Verarbeitung durch den Staat.

Und im US-Staat Massachusetts soll eine Software der gestressten Justiz helfen: Sie ermittelt die Rückfallwahrscheinlichkeit von Angeklagten, und das eben wiederum erkennbar entlang den Linien von – Hautfarbe und Herkunft. Und längst durchgesetzt haben sich entsprechende Werkzeuge vielerorts auf der Welt bei Job- oder Kreditvergabe oder der Risikoberechnung in den entsprechenden Abteilungen der Versicherungen.

Aber jedes System, so muss angenommen werden, in dem ausreichend hoher Spardruck aufkommt, dürfte anfällig sein für die so viel schnelleren, zuverlässigeren und unterstellt neutraleren Maschinenlösungen: Wo Algorithmen heute schon stapelweise Röntgen- respektive MCT-Bilder auf Auffälligkeiten hin sichten: Warum sollte Kollege KI dann nicht auch bessere, mindestens aber schnellere Entscheidungen treffen, wenn es darum geht, wer ein gespendetes Organ bekommt?

Den Neutralitätsaspekt aber bestreiten, ja: widerlegen etliche der Aktivist*innen, die in dem gelungenen Film auftretend: Die lernende Maschine mag nicht böse sein, aber sie ist auch nicht weniger anfällig für Vorurteile, als es die Menschen sind, die sie ins Werk setzen.

11 May 2021

[1] /Hamburger-gegen-US-Ueberwachungsfirma/!5744733

[2] https://www.media.mit.edu/people/joyab/overview/

[3] https://w3-hamburg.de/veranstaltung/coded-bias/

[4] https://bigbrotherwatch.org.uk/

AUTOREN

Alexander Diehl

TAGS

Datenschutz

Schwerpunkt Überwachung

Bürgerrechte

Schwerpunkt Künstliche Intelligenz

Computer

Schwerpunkt Überwachung

Diskriminierung

Schwerpunkt Rassismus

Hacking

Schwerpunkt Coronavirus

Hacking

ARTIKEL ZUM THEMA

Experte über Firma für Gesichtserkennung: „Einschüchternde Wirkung“

Das US-Unternehmen Clearview speichert in seiner biometrischen Fotodatenbank auch Europäer:innen. Das will die Datenschutzorganisation noyb beenden.

Diskriminierung in Videochats: Eine KI ist auch nur ein Mensch

Die Klangfilter von „Zoom“ und Co lassen Stimmen von Frauen weniger ausdrucksstark erscheinen – und bewirken eine strukturelle Benachteiligung.

Gender Bias bei Übersetzungsoftware: Treffen sich zwei Ärztinnen

Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von männlicher Norm. Sie reproduzieren real existierende Zuschreibungen.

Forscherin über frühe Hackerszene: „Stasi ließ Hacker anfangs gewähren“

Ein Gespräch mit der Historikerin Julia Gül Erdogan über die Bedeutung des Hackens und die frühen Vorläufer der Hackerszene in der BRD und DDR.

Kontaktverfolgung bei Corona: Luca soll es richten

In Hamburg soll die privatwirtschaftliche Luca-App Infektionsketten ermitteln. Dabei hat der Datenschützer Bedenken.

Cyberkriminalität in den USA: 150.000 Sicherheitskameras gehackt

Ein Hacker-Angriff auf Überwachungskameras hat offenbar Einblicke in Gefängnisse und Schulen ermöglicht. Auch Tesla soll betroffen sein.