Nach Streit mit Facebook: Forschung zu Instagram-Algorithmen gestoppt

Algorithmen bestimmen, welche Inhalte uns in den sozialen Medien vorgeschlagen werden - zum Beispiel bei Instagram.

Algorithmen bestimmen, welche Inhalte uns in den sozialen Medien vorgeschlagen werden - zum Beispiel bei Instagram.

Berlin. Ein deutsches Forschungsprojekt, dass den Empfehlungsalgorithmus von Instagram erkunden wollte, ist nach einem Streit mit der Konzernmutter Facebook eingestellt worden. Die Organisation Algorithmwatch berichtete am Freitag, der Konzern habe ihr einen Verstoß gegen die Nutzungsbedingungen vorgeworfen, die eine automatische Erfassung von Daten verbieten. Angesichts von Facebooks Drohung, „formellere Schritte“ einzuleiten, habe man das Projekt beendet. „Letztendlich kann eine Organisation von der Größe von Algorithmwatch nicht riskieren, gegen ein Unternehmen mit einem Wert von einer Billion US-Dollar vor Gericht zu ziehen.“

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

„Wir haben nicht gedroht, sie zu verklagen“, sagte ein Facebook-Sprecher in einer ersten Reaktion. Man habe Bedenken wegen der Vorgehensweise von Algorithmwatch gehabt und habe sie kontaktiert, damit sie die Forschungen regelkonform hätten fortsetzen können, erklärte er. „Die angeblichen Mängel wurden nie aufgelistet“, schrieb die Organisation unterdessen.

Mehr nackte Haut, weniger Text

Algorithmwatch hatte das Projekt im März 2020 gestartet, um besser zu verstehen, wie der Algorithmus von Instagram Bilder und Videos priorisiert. „Freiwillige konnten dazu ein Browser-Add-on installieren, das ihre Instagram-Newsfeeds auslas und an unsere Datenbank sendete“, erläuterte die Organisation. Dieses Add-on sei von rund 1500 Freiwilligen installiert worden. Auf Basis ihrer Daten kam Algorithmwatch zu den Schlussfolgerungen, dass Nutzer ermutigt würden, Bilder mit viel nackter Haut zu posten und Politiker eine größere Reichweite bekämen, wenn sie auf Text verzichteten. Facebook bestritt beide Ergebnisse.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

In einem ähnlich gelagerten Konflikt sperrte Facebook jüngst Forscher der New York University aus, die Anzeigen mit politischen Inhalten bei dem Online-Netzwerk analysierten. Der Facebook-Sprecher betonte am Freitag, man arbeite mit Hunderten Forschergruppen zusammen. „Wir wollen weiterhin mit unabhängigen Forschern zusammenarbeiten, aber auf Wegen, die nicht Daten oder die Privatsphäre von Menschen in Gefahr bringen.“

Algorithmwatch betonte, Plattformen spielten eine immense Rolle in der Gesellschaft von Identitätsbildung bis hin zu Wahlentscheidungen – „doch wir wissen weiterhin wenig darüber, wie sie das tun“. Man brauche mehr Transparenz für eine faktenbasierte Debatte. „Nur wenn wir verstehen, wie unsere Öffentlichkeit durch die algorithmischen Entscheidungen der Plattformen beeinflusst wird, können wir Maßnahmen ergreifen, um sicherzustellen, dass sie nicht unsere Autonomie, Freiheit und das Gemeinwohl untergraben.“

RND/dpa

Mehr aus Digital

 
 
 
 
 
Anzeige
Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von Outbrain UK Ltd, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

 

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

Letzte Meldungen