Rassismus per Software: Darum ist Gesichtserkennung in der Praxis problematisch
:format(webp)/cloudfront-eu-central-1.images.arcpublishing.com/madsack/4E62C4BTMBH5ZHI256ODRCIXFE.jpg)
Gesichtserkennung kommt vor allem in China bereits breit zum Einsatz.
© Quelle: imago images/Jochen Tack
Die Fähigkeit, Gesichter zu erkennen, ist für den Menschen und sein soziales Leben essenziell. Mittlerweile können aber auch Computerprogramme Gesichter identifizieren und zuordnen und somit neue Aufgaben übernehmen. Nicht erst seit der Einführung der Apple-Face-ID spielt die automatisierte Gesichtserkennung eine zunehmend wichtige Rolle. Immer mehr Behörden setzen bei der Analyse von Bildmaterial auf die Unterstützung von Algorithmen. Doch wie funktionieren Gesichtserkennungsprogramme und warum ist ihr Einsatz problematisch?
Wie funktioniert Gesichtserkennungssoftware?
In der Gesichtserkennung, auch Facial Recognition genannt, wird zwischen zwei wesentlichen Funktionen unterschieden. Zum einen sind die Programme in der Lage, ein Gesicht auf einem Foto oder einem Video zu erkennen und zu lokalisieren. Zunächst werden sogenannte Templates, also digitale Modelle, mithilfe eines Gitternetzes erstellt. Dazu scannt die Software das Material und sucht nach menschlichen Merkmalen wie Auge, Nase und Mund.
In einem zweiten Schritt können einige Softwares die Gesichter bestimmten Personen zuordnen und mitunter erkennen, um wen es sich handelt. Dazu misst das Programm zum Beispiel Abstände zwischen einzelnen Gesichtsmerkmalen. Typische Punkte sind dabei die Maße der Nasenflügel, die Augenränder oder die Mund- und Kinnpartie. Für die Identifikation muss mindestens ein Vergleichsbild vorliegen, das zum Abgleich der Merkmale dient. Die Templates werden dann übereinander gelegt und deren charakteristische Eigenschaften verglichen.
Wo kommt Gesichtserkennungssoftware zum Einsatz?
Mittlerweile sind entsprechende Programme weit verbreitet. Technikkonzerne wie Facebook, Google, Microsoft und Amazon haben ihre eigene Lösungen entwickelt und die Forschung in diesem Bereich in den vergangenen Jahren intensiviert. Viele neuere Smartphone-Kameras verfügen zum Beispiel über ein Programm, mithilfe dessen sich Gesichter bei der Aufnahme erkennen und fokussieren lassen. Die sieben deutschen Großflughäfen sind mit einem Easy-Pass-System ausgestattet, das eine automatisierte Passkontrolle über Gesichtserkennung und ohne Anwesenheit von Beamten ermöglicht. Der Reisende benötigt dafür einen E-Pass, auf dem die biometrischen Daten des Passbildes hinterlegt sind. Auch im Bereich der Fahrzeugassistenten kommt die Technik zum Einsatz. So erkennen die Programme beispielsweise Personen auf dem Gehweg und verfolgen ihre Bewegungen. Betritt ein identifizierter Fußgänger die Fahrbahn, so werden automatisch die Bremsen betätigt.
Vor allem Sicherheitsbehörden greifen zunehmend auf Gesichtserkennungssoftware zurück, um nach Menschen zu fahnden oder Straftäter zu identifizieren. So testeten das FBI und Interpol den Einsatz des Programmes Clearview AI. Das Unternehmen verfügt über eine Datenbank aus rund drei Milliarden Bildern, die laut der “New York Times” zumeist aus Profilfotos sozialer Netzwerke stammen und somit eine der umfangreichsten Sammlungen auf dem Markt bilden dürften.
Besonders verbreitet ist der Einsatz von Facial Recognition in China. Dort werden die Menschen mittlerweile biometrisch erfasst, wenn sie eine neue Mobilfunknummer anmelden oder einen Internetvertrag abschließen. Als Grund nennt die chinesische Regierung den Schutz ihrer Bürger. Auch in U-Bahnen oder beim Zugang zum Büro wird der Gesichtsscanner genutzt. Mit dem Gesicht kann sogar bezahlt werden, rund 118 Millionen Menschen haben sich für dieses System registriert. Die geringen Datenschutzhürden in China befeuern zusätzlich die Entwicklung neuer Programme.
Warum ist die Technologie umstritten?
Menschenrechtsorganisationen kritisieren unter anderem die mögliche Massenüberwachung und daraus resultierende Menschenrechtsverletzungen durch Gesichtserkennung. So berichtete die “New York Times”, dass in China mehrere Millionen Kameras für Racial Profiling genutzt werden, um Angehörige der muslimischen Minderheit der Uiguren zu überwachen.
Auch im Zuge der Proteste nach dem gewaltsamen Tod von George Floyd ist die Gesichtserkennung in den Fokus gerückt. US-Aktivisten warnen davor, dass die Softwares für diskriminierende Maßnahmen gegen Schwarze eingesetzt werden können, und fordern auf, die Technologie zu verbieten. Als erste US-Stadt hat die Techmetropole San Francisco diesen Schritt bereits im vergangenen Jahr vollzogen und seinen Behörden den Einsatz von Gesichtserkennung untersagt. Stadtratsmitglied Aaron Peskin, der die Verordnung initiierte, bezeichnete die Überwachung mittels entsprechender Programme als “gefährliche Waffe”.
Ähnlich sieht es auch die Kongressabgeordnete Alexandria Ocasio-Cortez. “Gesichtserkennung ist ein erschreckendes, ungenaues Tool, das Racial Profiling und Massenüberwachung befeuert”, schrieb sie jüngst in einem Tweet. Erste Firmen reagierten in den vergangenen Tagen auf die Bedenken. Das IT-Unternehmen IBM hat zu Beginn der Woche angekündigt, sich gänzlich von dem Geschäftsfeld abzuwenden. Auch Amazon will US-Polizeibehörden künftig den Einsatz der eignen Software untersagen.
Hohe Fehlerquote und Voreingenommenheit
Neben Bedenken über tiefgreifende Eingriffe in die Privatsphäre steht die Technik vor allem für ihre Fehleranfälligkeit in der Diskussion. So haben Wissenschaftler der University of Essex die Gesichtserkennung der Londoner Polizei untersucht. Dort ist eine automatisierte Software seit drei Jahren im Testeinsatz. In 80 Prozent der untersuchten Fälle lag die Software bei der Identifikation einer Person falsch. Innerhalb von acht Monaten konnten lediglich acht gesuchte Personen erkannt werden, im Gegenzug wurden Tausende Menschen ohne ihr Wissen von dem Programm erfasst.
Weitere Fehler werden durch die sogenannten “Algorithmic Biases” also “voreingenommene Algorithmen” verursacht. Ein Experiment der Organisation American Civil Liberties Union aus dem Jahr 2018 zeigt, dass Amazons Programm Rekognition 28 Kongressmitglieder fälschlicherweise mit Personen identifizierte, die wegen eines Verbrechens festgenommen wurden. Dabei wurden überwiegend Mitglieder falsch zugeordnet, die nicht weiß sind.
Algorithmen werden von Menschen trainiert
Eine andere Organisation, die sich für mehr Diversität in der Algorithmusforschung und gegen die Vorverurteilung durch Gesichtserkennung einsetzt, ist die “Algorithmic Justice League”. Sie wurde von Joy Buolamwini, Informatikerin am Massachusetts Institute of Technology, gegründet und lenkt die Aufmerksamkeit auf Diskriminierung durch die unzureichende Programmierung künstlicher Intelligenzen. Im Rahmen einer Studie untersuchte sie dabei die Gesichtserkennungssoftwares von IBM, Microsoft und Face++ und stellte fest, dass die Treffsicherheit der Programme in Bezug auf Hautfarbe und Geschlecht stark variierten. So erkannten die Softwares Bilder von weißen Männern mit einer Fehlerquote von 0,3 Prozent besonders gut. Bei Männern mit dunkler Hautfarbe lag die Fehlerquote bei 6 Prozent, bei schwarzen Frauen lagen die Programme in 30,3 Prozent der Fälle falsch.
“Das ist das Ergebnis von Prioritäten, Vorlieben und zum Teil auch Vorurteilen von denjenigen, die für Technologie verantwortlich sind”, sagte sie bei der Konferenz in München. Seit der Studie hätten viele Firmen an den Programmen gearbeitet, dennoch würden fehlerhafte und unvollständige Trainingsdaten, falsche Annahmen und ein Mangel an Überprüfungen das Risiko von “Algorithmic Bias” weiterhin verstärken. Denn die Einordnung von Bildern und die Erkennung von Gesichtern beruht nicht etwa auf der Neutralität eines Computers, sondern auf menschlichen Vorgaben. Wichtig sei es daher, die Diversität der Gesellschaft auch in den Trainingsdatenbanken der Gesichtserkennung sowie in den Mitarbeitern der Technikunternehmen abzubilden und die Entwickler der Programme für die Thematik zu sensibilisieren.