Rassistische Bildvorschau: Twitter-Algorithmus bevorzugt offenbar weiße Menschen

Der Algorithmus von Twitter sorgt für Diskussionen.

Der Algorithmus von Twitter sorgt für Diskussionen.

Hannover. Hat der Twitter-Algorithmus ein Rassismusproblem? Das zumindest legen Experimente von Twitter-Nutzern nahe, die seit dem Wochenende auf der Plattform veröffentlicht wurden.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Konkret geht es um die Bildervorschau auf der Plattform. Postet man dort ein Foto, das nicht den Standardmaßen des Netzwerks entspricht (zum Beispiel ein Hochformat), so wird dieses zugeschnitten. Die künstliche Intelligenz der Plattform entschiedet dann, welcher Teil des Bildes für die Querformatvorschau besonders interessant ist. Und hier beginnt das Problem.

Algorithmus bevorzugt weiße Menschen

Der Twitter-Nutzer @bascule hat nämlich festgestellt: Sind auf einem Hochformatbild ein weißer und ein schwarzer Mensch abgebildet, so entscheidet sich der Algorithmus in der Vorschau verlässlich für den weißen. Um das zu verdeutlichen, twitterte @bascule ein vertikales Foto, auf dem am oberen Rand der Republikaner Mitch McConnell abgebildet ist – am unteren Rand ist der ehemalige US-Präsident Barack Obama zu sehen. Das Ergebnis: In der Twitter-Vorschau wird nur Mitch McConnell angezeigt.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

In einem zweiten Versuch vertauschte @bascule die Anordnung der Bilder. Diesmal setzte er Obama an den oberen Bildrand und McConnell an den unteren. Gebracht hat das nichts: Wieder ist auf dem Vorschaubild nur McConnell zu sehen.

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von Twitter, Inc., der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

 

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

In einem weiteren Versuch änderte der Twitter-Nutzer die Farben der Krawatten. Auch davon ließ sich die künstliche Intelligenz der Plattform nicht irritieren: Wieder ist McConnell in der Vorschau zu sehen und nicht Obama.

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von Twitter, Inc., der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

 

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

Einzig das Invertieren der Bildfarben sorgte für ein kleines Erfolgserlebnis: Auf einem Bild schaffte es tatsächlich Obama in die Vorschau – auf dem anderen ist jedoch wieder McConnell zu sehen.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige
Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von Twitter, Inc., der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

 

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

Andere Tests, das selbe Problem

Das öffentliche Experiment zog schnell Aufmerksamkeit auf sich – und weitere Tests folgten. Der IT-Spezialist Graham Christensen twitterte gleich vier verschiedene Fotos mit unterschiedlichen Hintergründen. Bei jedem einzelnen taucht nur die weiße Person in der Twitter-Vorschau auf.

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von Twitter, Inc., der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

 

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

Jordan Simonovski bemerkte sogar, dass der Algorithmus selbst bei Simpsons-Figuren so reagiert. Statt dem schwarzen Carl Carlsson zeigt die Twitter-Vorschau stets den gelben Lenny Leonard.

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von Twitter, Inc., der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

 

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Was Twitter zum Problem sagt

Twitter selbst reagierte am Sonntag umgehend auf die Problematik. “Unser Team hat vor dem Launch der Funktion auf Voreingenommenheit getestet und bei unseren Tests keine Hinweise auf rassistische oder geschlechtsspezifische Voreingenommenheit gefunden”, schrieb Liz Kelly, Mitglied des Twitter-Kommunikationsteams. “Aus diesen Beispielen geht jedoch klar hervor, dass wir weitere Analysen durchführen müssen. Wir prüfen dies und werden mitteilen, was wir lernen und welche Maßnahmen wir ergreifen.”

Dantley Davis, Chief Design Officer von Twitter, mischte sich ebenfalls in die Diskussion ein. Er postete das Bild einer schwarzen und weißen Person, die in diesem Fall die selbe Anzugfarbe tragen, zudem wurden ihre Hände vom Bildrand abgeschnitten. In diesem Fall entschied sich der Twitter-Algorithmus für die schwarze Person. Die Funktion wolle man weiter untersuchen, so Davis.

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von Twitter, Inc., der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

 

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

Die Vorschaufunktion der Plattform basiert auf einem sogenannten Künstlichen Neuronalen Netz (KNN), eine Form der künstlichen Intelligenz, die in weiten Teilen dem menschlichen Gehirn nachempfunden ist. Im Jahr 2018 veröffentlichte Twitter einen Blog-Beitrag, in dem erläutert wird, wie die Funktion funktioniert. Einer der Faktoren, die das System veranlassen, einen Teil eines Bildes auszuwählen, sind etwa höhere Kontraststufen. Dies könnte auch erklären, warum die Vorschau weiße Gesichter zu bevorzugen scheint.

Nicht der erste Fall dieser Art

Das Diskriminierungsproblem bei der Bilderkennung ist derweil gar nicht so neu – und sie kommt auch bei Behörden vor. In Neuseeland etwa lehnte eine Software zur Bilderkennung fälschlicherweise das Passfoto eines Mannes ab, der in Taiwan geboren wurde. Der Grund: Angeblich hatte der Mann auf dem Foto die Augen geschlossen. In den USA prognostiziert ein Algorithmus Menschen mit dunklen Hautfarben ein höheres Risiko, künftig Verbrechen zu begehen. Die Software soll Richterinnen und Richtern bei der Urteilsfindung helfen.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

In der Tech-Branche sorgte zuletzt ein ein Recruitingtool bei Amazon für Aufsehen. Die Software schlug auf Basis von Machine Learning systematisch Männer als geeignetere Kandidaten vor. Das AI Now Institute mahnt in einer Studie aus dem vergangenen Jahr, Entwicklerteams von künstlicher Intelligenz zwingend vielfältiger zu besetzen, um solche Fehler künftig zu vermeiden.

Auf Twitter hatten die Experimente mit dem Problem eines Nutzers begonnen, dessen schwarzer Kollege sich darüber wunderte, dass der Zoom-Videochat beim Einfügen eines Hintergrundes sein Gesicht nicht erkennt. Der Nutzer veröffentlichte daraufhin ein Beispielfoto der beiden Beteiligten – in der Twitter-Vorschau war ebenfalls nur das Gesicht des weißen Kollegen zu sehen.

Die Tech-Autorin Rachel Kraus weist in einem Text des Branchenmagazins Mashable darauf hin, dass der Twitter-Algorithmus nicht zwingend mit Rassismus zu tun haben muss. “Es ist problematisch, anhand einiger Beispiele von Voreingenommenheit zu sprechen. Um die Verzerrung wirklich beurteilen zu können, ist eine größere Stichprobe mit mehreren Beispielen unter verschiedenen Umständen nötig”, schreibt die Autorin. Die Vorschaufunktion sei aber dennoch einen Blick wert und könnte auch ein Beispiel für algorithmische Verzerrung sein.

Anzeige
Anzeige
Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von Outbrain UK Ltd, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

 

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

Letzte Meldungen

 
 
 
 
 
 
 
 
 

Spiele entdecken