Ein rassismussensibler Raum in den sozialen Medien: Warum bietet Fediverse gute Chancen, dies zu erreichen? #stopDIGITALRACISM

Ekaterina Malova, Hannah Limbach

Inhaltswarnung: Rassismus (befasst sich mit Rassismus in sozialen Medien)

Im vorhergehenden Blogbeitrag wurden einige Punkte genannt, die BIPoC davon abhalten, sich zu Mastodon, ein dezentralisiertes soziales Netzwerk in Fediverse, zu wechseln. Dieser Blogbeitrag zeigt, warum das Fediverse trotz der zuvor erwähnten Probleme und Einschränkungen den Corporate Social Media überlegen ist, wenn es darum geht, einen rassismussensiblen Raum zu schaffen.

• Keine diskriminierenden Algorithmen Dr. Saftiya Umoja Noble hat darübergeschrieben, wie Algorithmen in der Gesellschaft bestehende Diskriminierungsmuster, einschließlich rassistischer Muster, reproduzieren (ihr Buch – „Algorithms of Oppression“, 2018). Auch Empfehlungen von Algorithmen in den Corporate Social Media enthalten solche Muster (z.B. in Foster-McCray, 2024). Social-Media-Unternehmen ignorieren dieses Problem weiterhin und verwenden zunehmend KI-Algorithmen in ihren Produkten. Ein Ausweg könnte die Nutzung von sozialen Netzwerken sein, in denen solche Algorithmen nicht existieren.

• Auswahl der Servern – die Auswahl der konsumierten Inhalte / der Nutzer:innen zur Interaktion Bei Mastodon zum Beispiel kann man sich unter https://joinmastodon.org/de/servers einen Server aussuchen. Um in der Liste aufgenommen zu sein, müssen die Besitzer:innen unter anderem aktiv gegen Rassismus auf ihren Servern moderieren. Mit der Wahl eines Servers entscheiden sich potenzielle Nutzer:innen von Social Media also für eine Community, mit der sie/er interagieren möchte oder deren Inhalte sie/er sehen möchte. So schafft man für sich einen annähernd rassismussensiblen Raum.

• Meldung und Blockierung der rassistischen Propagandainhalten Ähnlich wie in Corporate Social Media haben Nutzer:innen die Möglichkeit, Inhalte oder andere Nutzer:innen zu melden, die gegen die Regeln der Community verstoßen. Fediverse Server sind jedoch in der Lage, schädliche Inhalte in kürzerer Zeit zu entfernen oder ihr Codes of Conduct schneller mit den Bedürfnissen ihrer Gemeinschaft in Einklang zu bringen. Die meisten Server sind nicht so groß und können manuell moderiert werden. Dadurch sind sie beim Blockieren von Inhalten oder Nutzerinnen effektiver. Es ist anzumerken, dass sich das Thema der Moderation bei Mastodon ständig weiterentwickelt, insbesondere mit dem Wachstum des sozialen Netzwerks. Auch die Verwendung des Hashtags #Fediblock kann als interessantes Beispiel eingeführt werden: „a tool that allows users and administrators to track bad actors across a digital space that has no centralized form of blocking”. Mehr dazu im Interview mit der Erstellerin des Hashtags Marcia X – https://logicmag.io/policy/blackness-in-the-fediverse-a-conversation-with-marcia-x/.

• Veränderungsflexibilität ActivityPub-basierte soziale Netzwerke sind für Veränderungen offen. Die Funktionen oder technischen Möglichkeiten dieser sozialen Netzwerke, die heute für die Nutzer als Anliegen gelten, können morgen schon nicht mehr relevant sein. Die kontinuierliche Entwicklung und Verbesserung von Fediverse kann der Schlüssel zur Schaffung eines rassismussensiblen Raums sein.

Wie wir sehen können, hat Fediverse Vorteile gegenüber den Corporate Social Media. Dazu gehören neben den bereits genannten auch die Kontrolle über die persönlichen Daten, die verbesserte Privatsphäre und Sicherheit sowie die Interoperabilität zwischen verschiedenen Plattformen. Und all das zusammen gibt dem Fediverse gute Chancen die Zukunft der sozialen Medien zu werden, die wir uns wünschen – “a safe space, free from white supremacy” (aus dem Mastodon Server Covenant). Im Kontrast zu den anderen interessanten Argumenten der vielschichtigen Blogbeiträgen, bewerten wir diesen Ansatz als durchaus vielversprechend für unser Ziel des antirassistischen Diskurs – teilt ihr unsere Meinung oder habt ihr alternative Lösungsvorschläge?

Dieser Blogbeitrag entstand im Rahmen eines Universitätsseminars; ist unter der Creative Commons Lizenz “CC BY 4.0 – Namensnennung 4.0 International” veröffentlicht.

Quellen: Mastodon-Server. https://joinmastodon.org/de/servers Mastodon Server Covenant. https://joinmastodon.org/de/covenant Caelin, D. (2022). Decentralized Networks vs The Trolls. In Mahmoudi, H., Allen, M. H., & Seaman, K. (Hrsg.), Fundamental Challenges to Global Peace and Security (S. 143–168). Springer International Publishing AG. https://doi.org/10.1007/978-3-030-79072-1_8 Foster-McCray, S. (2024). When Algorithms See Us: An Analysis of Biased Corporate Social Media Algorithm Programming and the Adverse Effects These Social Media Algorithms Create When They Recommend Harmful Content to Unwitting Users. Southern Journal of Policy and Justice, 18(1), 1-28. https://heinonline.org/HOL/LandingPage?handle=hein.journals/srebwsude18&div=5&id=&page= Kiam, R. I. (2023). Blackness in the Fediverse: A Conversation with Marcia X. Logic's, 20. https://logicmag.io/policy/blackness-in-the-fediverse-a-conversation-with-marcia-x/ Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press. https://doi.org/10.2307/j.ctt1pwt9w5