Tech

Gesichtserkennung: Wenn Roboter zu Rassisten werden

04.01.2017, 10:25

Eigentlich will Richard Lee, 23, nur einen Reisepass beantragen. Doch als er sein Foto kürzlich bei der Passbehörde in Neuseeland hochlädt, wird er für sein asiatisches Aussehen diskriminiert: Sein Bild wird abgelehnt. Von einer Software. Die automatisch erstellte Antwort lautet: Das Foto erfüllt nicht die Kriterien, weil die Augen geschlossen sind.

Doch da irrt sich der Algorithmus: Richard Lees Augen sind deutlich geöffnet auf dem Passfoto. Sie sind nur schmaler, weil seine Eltern aus Taiwan und Malaysia stammen. Aufgewachsen ist Richard Lee aber in Neuseeland.

Lee postet das Ergebnis bei Facebook und macht sich zusammen mit anderen Nutzern lustig über den Rassisten-Roboter, der sein Foto zurückgewiesen hat. Als die Nutzer ihm empfehlen, ein manipuliertes Foto hochzuladen, postet Lee ein Bild von sich mit weit aufgerissenen Comic-Augen und schreibt dazu: "Wünscht mir Glück!"

Posted by Richard Lee on Montag, 5. Dezember 2016

Als es nach mehreren Versuchen immer noch nicht klappt, ruft er bei der Behörde für Innere Angelegenheiten an. Die Mitarbeiter empfehlen ihm, ein neues Foto zu machen. Schließlich akzeptiert die Software die biometrischen Daten.

Richard Lee sieht den Vorfall entspannt. "Ich habe mich nicht diskriminiert gefühlt, da es offensichtlich ein Programmierfehler war", sagt Lee zu bento. Eine Entschuldigung von der Behörde erwarte er nicht. Er habe das Bild bei Facebook gepostet, weil er das alles sehr lustig fand.

(Bild: Richard Lee/@richyfancy)

Lustig ist es spätestens dann nicht mehr, wenn Gesichtserkennungs-Software unschuldigen Personen eine Straftat anhängen will.

Für Afroamerikaner ist die Gefahr in den USA etwa doppelt so hoch wie für Weiße: In 16 Staaten wird dort Kameraüberwachung mit Gesichtserkennung eingesetzt, um nach Straftätern zu fahnden. Dafür dürfen alle Passanten auf der Straße gefilmt werden und mit Führerscheinfotos abgeglichen werden.

Das Problem: Gesichtserkennung ist offenbar extrem anfällig für Fehler. Die Georgetown University hat im Oktober eine Studie veröffentlicht, die der Kamera-Überwachung ein miserables Zeugnis ausstellt (zur Studie).

Demnach hat die Software vor allem bei dunkelhäutigen Personen große Probleme, das Gesicht richtig zu erkennen – und markiert im schlimmsten Fall eine unschuldige Person als verdächtig.

Gesichtserkennungs-Unternehmen sollten daher ihre Systeme dringend auf einen rassistisch verzerrten Algorithmus testen, fordern die Autoren. "Es gibt kein unabhängiges Testverfahren für Fehlerraten aufgrund von Rassenunterschieden", heißt es in der Studie.

Ob Augenpartie, Hautfarbe, Nasenform, Mundgröße oder Kinnform: Immer wieder passiert es, dass Software gescannte Personen aufgrund ihrer Herkunft diskriminiert.

Das kann für Unternehmen ziemlich peinlich werden: Google entschuldigte sich im vergangenen Jahr dafür, dass afroamerikanische Bürger bei einer Foto-App in die Kategorie "Gorilla" einsortiert wurden (SPIEGEL ONLINE). Auch das Fotoportal Flickr ordnete Menschen mit dunkler Hautfarbe versehentlich in die Kategorie "Tier" ein (SPIEGEL ONLINE).

Und der Kamera-Konzern Nikon stolperte vor einigen Jahren über seine automatische Blinzel-Erkennung. Eine Software in Kompaktkameras warnte den Fotografen vor dem Schnappschuss, wenn eine Person die Augen geschlossen hatte. Auf dem Display erschien der Hinweis: "Hat da jemand geblinzelt?" Eine Nutzerin asiatischer Herkunft beklagte sich bei Nikon: Der Hinweis erschien auch bei geöffneten Augen, als sie jemanden aus ihrer Familie fotografieren wollte.

Racist Camera! No, I did not blink... I'm just Asian!

Auch wenn es zunächst so aussieht: An solchen Patzer ist nicht unbedingt die Software schuld – sondern die Entwickler.

Es komme darauf an, mit welchen Trainingsbildern der Algorithmus gefüttert wird, sagt der Informatik-Professor Norbert Jung von der Hochschule Bonn-Rhein-Sieg zu bento.

Jung sagt: "Das geht uns als Menschen ja auch nicht anders: Je nach Umfeld erkennen wir Asiaten schlechter als Europäer und das gilt auch anders herum." Cross-Race-Effekt nennt sich dieses Phänomen in der Wissenschaft.

Doch diese Schwäche lässt sich sowohl bei Menschen als auch bei Software bekämpfen.

Wer die Software mit asiatischen Gesichtern trainiert, bekomme in dieser Bevölkerungsgruppe eben bessere Ergebnisse. Wenn die Entwickler ihre Gesichtserkennung hingegen mit Menschen kaukasischer Herkunft schulen, dann klappt die Gesichtserkennung in Europa zuverlässiger. Es ist also alles eine Frage der Übung und der Trainingsbilder, dann passieren auch weniger Fehler.

Auch in Deutschland wird Gesichtserkennung eingesetzt.

An einigen Flughäfen etwa können sich Passagiere mit ihrem Reisepass vor einer Kamera identifizieren. Laut einem Sprecher des Innenministeriums sind bei diesem System bisher keine Fehler aufgrund ethnischer Unterschiede bekannt. Auch ein Fall wie in Neuseeland sei dem Ministerium nicht aufgefallen. "Bei der Anerkennung von Passbildern sind Unregelmäßigkeiten im Zusammenhang mit schmaleren Augen dem Bundesministerium des Innern bislang nicht berichtet worden."

Doch auch in europäischen Ländern können Fehler passieren; denn Gesichtserkennungs-Konzerne können selbst bestimmen, mit welchen Gesichtern sie ihre Software füttern. Internationale Standards für Trainingsbilder gibt es nicht.

Mit diesen Bildern wehrt sich die amerikanische Künstlerin Tyler Feder gegen Trumps Rassismus (Den ganzen Artikel lest ihr hier):

1/12

Today

Was ist da los? Trump stoppt seine eigenen Leute mit zwei Tweets

04.01.2017, 09:51

Ist das etwa der erste Trump-Artikel mit Happy End?

Es brauchte zwei Tweets, dann änderten die Republikaner ihren Plan: Die unabhängige Ethikbehörde des US-Kongresses soll vorerst doch nicht geschwächt werden. Genau das hatte die Partei von Donald Trump noch am Montag geplant. Keine 24 Stunden später stoppten sie ihr Vorhaben wieder. (SPIEGEL ONLINE)

Grund waren zwei Tweets des künftigen US-Präsidenten: