Meta und mehr – Warum rassistische Inhalte dennoch Raum finden?! #stopDIGITALRACISM

Hannah Limbach, Ekaterina Malova

Inhaltswarnung: Rassismus (befasst sich mit Rassismus in sozialen Medien)

Meta, das Unternehmen zu denen unteranderem Facebook, Instagram und WhatsApp zählen, kann als Beispiel für Corporate Social Media angesehen werden. Spannend zu untersuchen ist es, inwiefern das global erfolgreiche Unternehmen aktiv den Kampf gegen Rassismus betreibt und in welcher Form digital Rassismus effektiv bekämpft wird. Das Unternehmen selbst beschreibt den Sachverhalt selbst wie folgt: ,,Wir entfernen Hassrede, Belästigung, Gewaltandrohungen und andere Inhalte, die das Potenzial haben, andere zum Schweigen zu bringen oder Schaden anzurichten“ (Meta). Bei der Analyse und genaueren Betrachtung dieser Aussage sind uns allerdings einige Lücken aufgefallen, welche Raum für Diskussion bieten. Wir wollen im Folgenden reflektieren, inwiefern diese Aussage kritisch zu betrachten ist. Beispielhaft gehen wir auf einige Maßnahmen des Meta Unternehmens ein und wollen euch diesbezüglich weitere Diskussionsanreize präsentieren. Dieser Blogbeitrag beleuchtet die tiefergehenden Probleme Corporate Social Media Plattformen im Umgang mit rassistischen Inhalten/Algorithmen. Nützliche Maßnahmen bezüglich der Bekämpfung von digitalem Rassismus nennt das Meta Unternehmen zum Beispiel die Implementierung von Geschäftsrichtlinien, in denen rassistische Inhalte verboten werden. Das Unternehmen selbst ist davon überzeugt ,,dass die Menschen sich freier äußern und miteinander kommunizieren können, wenn sie nicht dafür angegriffen werden, wer sie sind“ (Meta). Die Frage ist, inwiefern dies von Effektivität geprägt ist und inwiefern die Umsetzung von Erfolg gekrönt ist. Zur Umsetzung der Geschäftsbedingungen und der aufgestellten Regeln, wurden automatisierte Systeme zur Erkennung von Hassrede eingeführt. Kritisch zu bewerten ist jedoch die Umsetzung, da oftmals die Genauigkeit der Systeme nicht ausreicht um aktiv und umgreifend gegen Hassreden vorzugehen. Oftmals werden rassistische Inhalte nicht erkannt oder harmlose Beiträge werden als rassistisch anerkannt. Unerkannte rassistische Beiträge erlangen somit schneller an Reichweite und werden deutlich öfter geteilt. Bei gesperrten Beiträgen, welche als nicht rassistisch bewertbar sind, fehlt oftmals jegliche Erklärung/ Entschuldigung, was ebenfalls Fragen bezüglich der Qualität der automatisierten Systeme mit sich bringt. Ein weiteres bedeutendes Problem stellen Algorithmen dar: Mit ihrer verzerrten und diskriminierenden Art sind sie aktiv Part des digitalen Rassismus. Aufgrund von Algorithmen verbreiten sich rassistische Propagandainhalte deutlich schneller und verstärken somit rassistische Überzeugungen. Interessant zu wissen ist, dass Algorithmen bestehende gesellschaftliche Vorurteile und Diskriminierungen widerspiegeln können und so in einem bestimmten kulturellen und ökonomischen Umfeld entwickelt werden. Innerhalb der sozialen Medien führt dies unteranderem oftmals zu einer Unterdrückung von schwächeren, reichweitenschwachen Stimmen. Des Weiteren zielen Algorithmen aus ökonomischen Gründen auf hohe Interaktionen ab. Konkret bedeutet dies, dass Beiträge mit hohem Interaktionspotenzial eher gefördert werden als ,,schwache Beiträge“. Rassismus wird hierdurch deutlich sichtbarer, da polarisierende rassistische Beiträge deutlich an Aufmerksamkeit gewinnen. Dieser Aspekt ist spannend zu diskutieren-auf der einen Seite bedeutet Sichtbarkeit, wie bereits im vorherigen Blogbeitrag, Prävention -auf der anderen Seite fördert diese Sichtbarkeit allerdings auch den Rassismus an sich: was glaubt ihr, ist bedeutender? Auch interessant zu diskutieren, ist die Frage ob das Teilen/Sharen oder Kommentieren von rassistischen Beiträgen im Sinne der Bekämpfung auseichend ist, um den antirassistischen Diskurs zu fördern. Reicht es aus eurer Sicht, fremdenfeindliche Videos als ,,rassistisch“ zu markieren – wir fragen uns, inwieweit dies ist? Im Hinblick, dass schwächere Beiträge nicht die gleiche Chance haben, gesehen zu werden, lassen sich Algorithmen als rassistisch betrachten. Das größte Problem stellt für uns jedoch die bereits angeführte Thematik der nicht entdeckten rassistischen Inhalte dar. Wie bereits erwähnt, bleiben viele Inhalte schlichtweg unerkannt. Dies liegt neben mangelnder Technologie auch an menschlichem Versagen. Zur Unterstützung der automatisierten Systeme, lässt das Unternehmen die Suche/Bekämpfung von rassistischen Inhalten durch menschliche Teams unterstützen. Problematisch hierbei ist ebenfalls die mangelnde Effektivität. Wenn durch menschliches Fehlverhalten und schlechter Umsetzung große Teile der rassistischen Inhalte unentdeckt bleiben, stellt sich uns die Frage wie ein rassistischfreier Raum überhaupt möglich sein soll?
Recherchiert man gezielt die Maßnahmen des Unternehmens beziehungsweise der Plattformen detailliert, kommt man zu einem ähnlichen Ergebnis: mangelnde/fragwürdige Effektivität. Auf der eigenen Website findet man das „Transparency Center“ (https://transparency.meta.com/de-de/policies/community-standards/hate-speech/), indem Ergebnisse der unternehmenseigenen Arbeit aufgelistet sind. Auf den ersten Blick findet man viele verschiedene Informationen und Erklärungen. Fragwürdig sind im Bezug hierzu jedoch mangelnde Auskünfte bezüglich der Algorithmen und der angeführten diskriminierenden Problematik. Zudem gibt das Unternehmen selbst an, dass sie ,,keine privaten Unterhaltungen im Messenger oder auf Instagram Direct“ (Meta) in den Blick nehmen. Bietet dies also Raum für einen rassistischen Austausch oder gar Gruppierung? Inwieweit ist die Überwachung der privaten Nachrichten legitim oder sogar notwendig im Kampf gegen Rassismus? Was denkt Ihr über diese Thematik-könnt ihr die Kritik nachvollziehen? Weitere strategische Maßnahmen sind laut Meta das gezielte Sperren von diskriminierenden Accounts oder Beiträgen. Auch die Möglichkeit des ,,Meldens“ oder ,,Entfernen“ ist laut dem Unternehmen eine sinnvolle Maßnahme im Kampf für einen antirassistischen Diskurs auf den verschiedenen Plattformen. Kritisch hinterfragen sollte man jedoch, nach welchem konkreten System die Beiträge geprüft werden. Meta erklärt, dass ihre Technologien zum Erkennen von unangemessenen Beiträgen sich stetig weiterentwickelt beziehungsweise fähig ist zu lernen. Was uns zum Nachdenken bringt, ist die Argumentation, dass durchweg von ,,der Technologie“ gesprochen wird – es ist schwierig nachzuvollziehen, was dies konkret bedeutet – welche Technologien sind es spezifisch? Das Lernen der Technologien durch Wiederholungen betrachten wir als sinnvoll, allerdings bewerten wir es als unzureichend. Wer genau legitimiert oder kritisiert gemeldete Beiträge? Meta räumt selbst ein: ,,Für Technologie und menschliche Review-Teams ist Hassrede besonders schwer zu erkennen“ (Meta). Grund hierfür sind sprachliche sowie kulturelle Unterschiede sowie die Unterscheidung in Prävention und tatsächlicher Hassrede. Grundsätzlich sollte aus unserer Sicht die Thematik deutlich intensiver behandelt und diskutiert werden. Viele anonyme Nutzer:innen verbreiten nach wie vor Hass und diskriminierende Beiträge im Netz. Die Anonymität beziehungsweise unzählige Fake-accounts verleihen dem Rassismus im Netz eine Anonymität, gegen die dringend gehandelt werden sollte. Auch bezüglich dieses Aspekts lässt sich Meta bestimmte Maßnahmen einfallen, was wir aber aufgrund der aktuellen Präsenz von Fake-accounts ebenfalls als ausbaufähig betrachten. Rassistische Algorithmen, unerkannte Hassreden und fragwürdige Konsequenzen sind Aspekte, die im Bereich der Corporate social Media Plattformen keine Seltenheit sind. Wir glauben, dass ein deutlich strengeres und durchgreifendes Vorgehen angebracht wäre. Weitere Informationen und Maßnahmen unter: Hassrede | Transparency Center (meta.com) (https://transparency.meta.com/de-de/policies/community-standards/hate-speech/) Die Plattformen des Unternehmens werden täglich von Millionen von Menschen genutzt – was glaubt ihr: inwieweit bewertet Ihr den Kampf von Meta und Co als effektiv?

Dieser Blogbeitrag entstand im Rahmen eines Universitätsseminars; ist unter der Creative Commons Lizenz “CC BY 4.0 – Namensnennung 4.0 International” veröffentlicht.

Quellen: Antidiskriminierungsstelle des Bundes. Diskriminierungsrisiken durch Verwendung von Algorithmen. https://www.antidiskriminierungsstelle.de/SharedDocs/forschungsprojekte/DE/Studie_DiskrRisiken_durch_Verw_v_Algorithmen.html Bundeskriminalamt. Gemeinsam gegen Hass und Hetze im Internet. https://www.bka.de/DE/KontaktAufnehmen/HinweisGeben/MeldestelleHetzeImInternet/meldestelle_node.html Meta. Hassrede. https://transparency.meta.com/de-de/policies/community-standards/hate-speech/ Meta. Transparency. https://transparency.meta.com/de-de/ Meta. Richtlinien. https://transparency.meta.com/de-de/policies/ Die Beauftragte der Bundesregierung für Migration, Flüchtlinge und Integration. Die Beauftragte der Bundesregierung für Antirassismus. (2023). Lagebericht Rassismus in Deutschland. Ausgangslage, Handlungsfelder, Maßnahmen. https://www.integrationsbeauftragte.de/resource/blob/1864320/2157012/77c8d1dddeea760bc13dbd87ee9a415f/lagebericht-rassismus-komplett-data.pdf?download=1 Instagram. (2021, 11. Februar). Ein Update zu unserer Arbeit im Kampf gegen Missbrauch auf Instagram. https://about.instagram.com/de-de/blog/announcements/an-update-on-our-work-to-tackle-abuse-on-instagram Friese, H., Nolden, M., Rebane, G., Schreiter, M. (2020). Handbuch Soziale Praktiken und Digitale Alltagswelten. Springer VS. https://doi.org/10.1007/978-3-658-08357-1 Kalpaka, A. & Räthzel, N. (1991). Im Netz der Herrschaft: Frauen – Männergewalt – Rassismus. Feministische Studien, 9(2), 21–40. https://doi.org/10.1515/fs-1991-0205