@[email protected]

Auf der Suche nach Lösungen für einen antirassistischen Diskurs: Was sind die Ergebnisse?

Ekaterina Malova, Hannah Limbach

Inhaltswarnung: Rassismus (befasst sich mit Rassismus in sozialen Medien)

Bei der Erstellung der Blogbeiträge haben wir die Chancen und Risiken von Corporate und ActivityPub Social Media aus antirassistischer Perspektive analysiert. Beide Netzwerke bieten unterschiedliche Vor- und Nachteile für die Förderung des antirassistischen Diskurses.

Auf der einen Seite bieten Corporate Social Media Vorteile hinsichtlich der schnellen Informationsvermittlung antirassistischer Inhalte, der globalen Verbreitung antirassistischer Aufrufe sowie der Sichtbarkeit im öffentlichen Diskurs. Auf der anderen Seite gibt es tiefergehende Probleme von Corporate Social Media Plattformen im Umgang mit rassistischen Inhalten/Algorithmen. Die Maßnahmen der Unternehmen zeichnen sich zum Teil durch mangelnde oder fragwürdige Wirksamkeit aus.

ActivityPub Social Media wiederum können einen Raum bieten, in dem rassistische Algorithmen nicht vorhanden sind und rassistische Inhalte isoliert werden. Außerdem bestimmen die Nutzer:innen des Netzwerks selbst und nicht das Unternehmen, was rassistisch ist und wer/was isoliert werden muss. Einige der Beschränkungen oder Komplexitäten dezentralisierter sozialer Netzwerke können überwunden werden, wenn weiße Menschen damit aufhören, People of Color zu ignorieren oder von ihnen zu verlangen, ihre eigenen Server zu schaffen. Rassismussensible Räume können nicht allein durch die Maßnahmen oder Wahrnehmungen weißer Menschen geschaffen werden. Die Akzeptanz und die Unterstützung der Aktionen und Vorschläge der People of Color kann Plattformen wie Mastodon dabei helfen, nicht länger ein überwiegend weißer Raum zu sein, sondern tatsächlich zu einem Lösungsansatz für einen antirassistischen Diskurs zu werden.

Wir hoffen, dass unser Blog einen Beitrag zur Suche nach Lösungen für einen antirassistischen Diskurs in den sozialen Medien geleistet hat. Wir möchten glauben, dass das Fediverse eine Zukunft der sozialen Medien ist, die sich besser für einen antirassistischen Diskurs eignet.

#stopDIGITALRACISM

Dieser Blogbeitrag entstand im Rahmen eines Universitätsseminars; ist unter der Creative Commons Lizenz “CC BY 4.0 – Namensnennung 4.0 International” veröffentlicht.

Ein rassismussensibler Raum in den sozialen Medien: Warum bietet Fediverse gute Chancen, dies zu erreichen? #stopDIGITALRACISM

Ekaterina Malova, Hannah Limbach

Inhaltswarnung: Rassismus (befasst sich mit Rassismus in sozialen Medien)

Im vorhergehenden Blogbeitrag wurden einige Punkte genannt, die BIPoC davon abhalten, sich zu Mastodon, ein dezentralisiertes soziales Netzwerk in Fediverse, zu wechseln. Dieser Blogbeitrag zeigt, warum das Fediverse trotz der zuvor erwähnten Probleme und Einschränkungen den Corporate Social Media überlegen ist, wenn es darum geht, einen rassismussensiblen Raum zu schaffen.

• Keine diskriminierenden Algorithmen Dr. Saftiya Umoja Noble hat darübergeschrieben, wie Algorithmen in der Gesellschaft bestehende Diskriminierungsmuster, einschließlich rassistischer Muster, reproduzieren (ihr Buch – „Algorithms of Oppression“, 2018). Auch Empfehlungen von Algorithmen in den Corporate Social Media enthalten solche Muster (z.B. in Foster-McCray, 2024). Social-Media-Unternehmen ignorieren dieses Problem weiterhin und verwenden zunehmend KI-Algorithmen in ihren Produkten. Ein Ausweg könnte die Nutzung von sozialen Netzwerken sein, in denen solche Algorithmen nicht existieren.

• Auswahl der Servern – die Auswahl der konsumierten Inhalte / der Nutzer:innen zur Interaktion Bei Mastodon zum Beispiel kann man sich unter https://joinmastodon.org/de/servers einen Server aussuchen. Um in der Liste aufgenommen zu sein, müssen die Besitzer:innen unter anderem aktiv gegen Rassismus auf ihren Servern moderieren. Mit der Wahl eines Servers entscheiden sich potenzielle Nutzer:innen von Social Media also für eine Community, mit der sie/er interagieren möchte oder deren Inhalte sie/er sehen möchte. So schafft man für sich einen annähernd rassismussensiblen Raum.

• Meldung und Blockierung der rassistischen Propagandainhalten Ähnlich wie in Corporate Social Media haben Nutzer:innen die Möglichkeit, Inhalte oder andere Nutzer:innen zu melden, die gegen die Regeln der Community verstoßen. Fediverse Server sind jedoch in der Lage, schädliche Inhalte in kürzerer Zeit zu entfernen oder ihr Codes of Conduct schneller mit den Bedürfnissen ihrer Gemeinschaft in Einklang zu bringen. Die meisten Server sind nicht so groß und können manuell moderiert werden. Dadurch sind sie beim Blockieren von Inhalten oder Nutzerinnen effektiver. Es ist anzumerken, dass sich das Thema der Moderation bei Mastodon ständig weiterentwickelt, insbesondere mit dem Wachstum des sozialen Netzwerks. Auch die Verwendung des Hashtags #Fediblock kann als interessantes Beispiel eingeführt werden: „a tool that allows users and administrators to track bad actors across a digital space that has no centralized form of blocking”. Mehr dazu im Interview mit der Erstellerin des Hashtags Marcia X – https://logicmag.io/policy/blackness-in-the-fediverse-a-conversation-with-marcia-x/.

• Veränderungsflexibilität ActivityPub-basierte soziale Netzwerke sind für Veränderungen offen. Die Funktionen oder technischen Möglichkeiten dieser sozialen Netzwerke, die heute für die Nutzer als Anliegen gelten, können morgen schon nicht mehr relevant sein. Die kontinuierliche Entwicklung und Verbesserung von Fediverse kann der Schlüssel zur Schaffung eines rassismussensiblen Raums sein.

Wie wir sehen können, hat Fediverse Vorteile gegenüber den Corporate Social Media. Dazu gehören neben den bereits genannten auch die Kontrolle über die persönlichen Daten, die verbesserte Privatsphäre und Sicherheit sowie die Interoperabilität zwischen verschiedenen Plattformen. Und all das zusammen gibt dem Fediverse gute Chancen die Zukunft der sozialen Medien zu werden, die wir uns wünschen – “a safe space, free from white supremacy” (aus dem Mastodon Server Covenant). Im Kontrast zu den anderen interessanten Argumenten der vielschichtigen Blogbeiträgen, bewerten wir diesen Ansatz als durchaus vielversprechend für unser Ziel des antirassistischen Diskurs – teilt ihr unsere Meinung oder habt ihr alternative Lösungsvorschläge?

Dieser Blogbeitrag entstand im Rahmen eines Universitätsseminars; ist unter der Creative Commons Lizenz “CC BY 4.0 – Namensnennung 4.0 International” veröffentlicht.

Quellen: Mastodon-Server. https://joinmastodon.org/de/servers Mastodon Server Covenant. https://joinmastodon.org/de/covenant Caelin, D. (2022). Decentralized Networks vs The Trolls. In Mahmoudi, H., Allen, M. H., & Seaman, K. (Hrsg.), Fundamental Challenges to Global Peace and Security (S. 143–168). Springer International Publishing AG. https://doi.org/10.1007/978-3-030-79072-1_8 Foster-McCray, S. (2024). When Algorithms See Us: An Analysis of Biased Corporate Social Media Algorithm Programming and the Adverse Effects These Social Media Algorithms Create When They Recommend Harmful Content to Unwitting Users. Southern Journal of Policy and Justice, 18(1), 1-28. https://heinonline.org/HOL/LandingPage?handle=hein.journals/srebwsude18&div=5&id=&page= Kiam, R. I. (2023). Blackness in the Fediverse: A Conversation with Marcia X. Logic's, 20. https://logicmag.io/policy/blackness-in-the-fediverse-a-conversation-with-marcia-x/ Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press. https://doi.org/10.2307/j.ctt1pwt9w5

Meta und mehr – Warum rassistische Inhalte dennoch Raum finden?! #stopDIGITALRACISM

Hannah Limbach, Ekaterina Malova

Inhaltswarnung: Rassismus (befasst sich mit Rassismus in sozialen Medien)

Meta, das Unternehmen zu denen unteranderem Facebook, Instagram und WhatsApp zählen, kann als Beispiel für Corporate Social Media angesehen werden. Spannend zu untersuchen ist es, inwiefern das global erfolgreiche Unternehmen aktiv den Kampf gegen Rassismus betreibt und in welcher Form digital Rassismus effektiv bekämpft wird. Das Unternehmen selbst beschreibt den Sachverhalt selbst wie folgt: ,,Wir entfernen Hassrede, Belästigung, Gewaltandrohungen und andere Inhalte, die das Potenzial haben, andere zum Schweigen zu bringen oder Schaden anzurichten“ (Meta). Bei der Analyse und genaueren Betrachtung dieser Aussage sind uns allerdings einige Lücken aufgefallen, welche Raum für Diskussion bieten. Wir wollen im Folgenden reflektieren, inwiefern diese Aussage kritisch zu betrachten ist. Beispielhaft gehen wir auf einige Maßnahmen des Meta Unternehmens ein und wollen euch diesbezüglich weitere Diskussionsanreize präsentieren. Dieser Blogbeitrag beleuchtet die tiefergehenden Probleme Corporate Social Media Plattformen im Umgang mit rassistischen Inhalten/Algorithmen. Nützliche Maßnahmen bezüglich der Bekämpfung von digitalem Rassismus nennt das Meta Unternehmen zum Beispiel die Implementierung von Geschäftsrichtlinien, in denen rassistische Inhalte verboten werden. Das Unternehmen selbst ist davon überzeugt ,,dass die Menschen sich freier äußern und miteinander kommunizieren können, wenn sie nicht dafür angegriffen werden, wer sie sind“ (Meta). Die Frage ist, inwiefern dies von Effektivität geprägt ist und inwiefern die Umsetzung von Erfolg gekrönt ist. Zur Umsetzung der Geschäftsbedingungen und der aufgestellten Regeln, wurden automatisierte Systeme zur Erkennung von Hassrede eingeführt. Kritisch zu bewerten ist jedoch die Umsetzung, da oftmals die Genauigkeit der Systeme nicht ausreicht um aktiv und umgreifend gegen Hassreden vorzugehen. Oftmals werden rassistische Inhalte nicht erkannt oder harmlose Beiträge werden als rassistisch anerkannt. Unerkannte rassistische Beiträge erlangen somit schneller an Reichweite und werden deutlich öfter geteilt. Bei gesperrten Beiträgen, welche als nicht rassistisch bewertbar sind, fehlt oftmals jegliche Erklärung/ Entschuldigung, was ebenfalls Fragen bezüglich der Qualität der automatisierten Systeme mit sich bringt. Ein weiteres bedeutendes Problem stellen Algorithmen dar: Mit ihrer verzerrten und diskriminierenden Art sind sie aktiv Part des digitalen Rassismus. Aufgrund von Algorithmen verbreiten sich rassistische Propagandainhalte deutlich schneller und verstärken somit rassistische Überzeugungen. Interessant zu wissen ist, dass Algorithmen bestehende gesellschaftliche Vorurteile und Diskriminierungen widerspiegeln können und so in einem bestimmten kulturellen und ökonomischen Umfeld entwickelt werden. Innerhalb der sozialen Medien führt dies unteranderem oftmals zu einer Unterdrückung von schwächeren, reichweitenschwachen Stimmen. Des Weiteren zielen Algorithmen aus ökonomischen Gründen auf hohe Interaktionen ab. Konkret bedeutet dies, dass Beiträge mit hohem Interaktionspotenzial eher gefördert werden als ,,schwache Beiträge“. Rassismus wird hierdurch deutlich sichtbarer, da polarisierende rassistische Beiträge deutlich an Aufmerksamkeit gewinnen. Dieser Aspekt ist spannend zu diskutieren-auf der einen Seite bedeutet Sichtbarkeit, wie bereits im vorherigen Blogbeitrag, Prävention -auf der anderen Seite fördert diese Sichtbarkeit allerdings auch den Rassismus an sich: was glaubt ihr, ist bedeutender? Auch interessant zu diskutieren, ist die Frage ob das Teilen/Sharen oder Kommentieren von rassistischen Beiträgen im Sinne der Bekämpfung auseichend ist, um den antirassistischen Diskurs zu fördern. Reicht es aus eurer Sicht, fremdenfeindliche Videos als ,,rassistisch“ zu markieren – wir fragen uns, inwieweit dies ist? Im Hinblick, dass schwächere Beiträge nicht die gleiche Chance haben, gesehen zu werden, lassen sich Algorithmen als rassistisch betrachten. Das größte Problem stellt für uns jedoch die bereits angeführte Thematik der nicht entdeckten rassistischen Inhalte dar. Wie bereits erwähnt, bleiben viele Inhalte schlichtweg unerkannt. Dies liegt neben mangelnder Technologie auch an menschlichem Versagen. Zur Unterstützung der automatisierten Systeme, lässt das Unternehmen die Suche/Bekämpfung von rassistischen Inhalten durch menschliche Teams unterstützen. Problematisch hierbei ist ebenfalls die mangelnde Effektivität. Wenn durch menschliches Fehlverhalten und schlechter Umsetzung große Teile der rassistischen Inhalte unentdeckt bleiben, stellt sich uns die Frage wie ein rassistischfreier Raum überhaupt möglich sein soll?
Recherchiert man gezielt die Maßnahmen des Unternehmens beziehungsweise der Plattformen detailliert, kommt man zu einem ähnlichen Ergebnis: mangelnde/fragwürdige Effektivität. Auf der eigenen Website findet man das „Transparency Center“ (https://transparency.meta.com/de-de/policies/community-standards/hate-speech/), indem Ergebnisse der unternehmenseigenen Arbeit aufgelistet sind. Auf den ersten Blick findet man viele verschiedene Informationen und Erklärungen. Fragwürdig sind im Bezug hierzu jedoch mangelnde Auskünfte bezüglich der Algorithmen und der angeführten diskriminierenden Problematik. Zudem gibt das Unternehmen selbst an, dass sie ,,keine privaten Unterhaltungen im Messenger oder auf Instagram Direct“ (Meta) in den Blick nehmen. Bietet dies also Raum für einen rassistischen Austausch oder gar Gruppierung? Inwieweit ist die Überwachung der privaten Nachrichten legitim oder sogar notwendig im Kampf gegen Rassismus? Was denkt Ihr über diese Thematik-könnt ihr die Kritik nachvollziehen? Weitere strategische Maßnahmen sind laut Meta das gezielte Sperren von diskriminierenden Accounts oder Beiträgen. Auch die Möglichkeit des ,,Meldens“ oder ,,Entfernen“ ist laut dem Unternehmen eine sinnvolle Maßnahme im Kampf für einen antirassistischen Diskurs auf den verschiedenen Plattformen. Kritisch hinterfragen sollte man jedoch, nach welchem konkreten System die Beiträge geprüft werden. Meta erklärt, dass ihre Technologien zum Erkennen von unangemessenen Beiträgen sich stetig weiterentwickelt beziehungsweise fähig ist zu lernen. Was uns zum Nachdenken bringt, ist die Argumentation, dass durchweg von ,,der Technologie“ gesprochen wird – es ist schwierig nachzuvollziehen, was dies konkret bedeutet – welche Technologien sind es spezifisch? Das Lernen der Technologien durch Wiederholungen betrachten wir als sinnvoll, allerdings bewerten wir es als unzureichend. Wer genau legitimiert oder kritisiert gemeldete Beiträge? Meta räumt selbst ein: ,,Für Technologie und menschliche Review-Teams ist Hassrede besonders schwer zu erkennen“ (Meta). Grund hierfür sind sprachliche sowie kulturelle Unterschiede sowie die Unterscheidung in Prävention und tatsächlicher Hassrede. Grundsätzlich sollte aus unserer Sicht die Thematik deutlich intensiver behandelt und diskutiert werden. Viele anonyme Nutzer:innen verbreiten nach wie vor Hass und diskriminierende Beiträge im Netz. Die Anonymität beziehungsweise unzählige Fake-accounts verleihen dem Rassismus im Netz eine Anonymität, gegen die dringend gehandelt werden sollte. Auch bezüglich dieses Aspekts lässt sich Meta bestimmte Maßnahmen einfallen, was wir aber aufgrund der aktuellen Präsenz von Fake-accounts ebenfalls als ausbaufähig betrachten. Rassistische Algorithmen, unerkannte Hassreden und fragwürdige Konsequenzen sind Aspekte, die im Bereich der Corporate social Media Plattformen keine Seltenheit sind. Wir glauben, dass ein deutlich strengeres und durchgreifendes Vorgehen angebracht wäre. Weitere Informationen und Maßnahmen unter: Hassrede | Transparency Center (meta.com) (https://transparency.meta.com/de-de/policies/community-standards/hate-speech/) Die Plattformen des Unternehmens werden täglich von Millionen von Menschen genutzt – was glaubt ihr: inwieweit bewertet Ihr den Kampf von Meta und Co als effektiv?

Dieser Blogbeitrag entstand im Rahmen eines Universitätsseminars; ist unter der Creative Commons Lizenz “CC BY 4.0 – Namensnennung 4.0 International” veröffentlicht.

Quellen: Antidiskriminierungsstelle des Bundes. Diskriminierungsrisiken durch Verwendung von Algorithmen. https://www.antidiskriminierungsstelle.de/SharedDocs/forschungsprojekte/DE/Studie_DiskrRisiken_durch_Verw_v_Algorithmen.html Bundeskriminalamt. Gemeinsam gegen Hass und Hetze im Internet. https://www.bka.de/DE/KontaktAufnehmen/HinweisGeben/MeldestelleHetzeImInternet/meldestelle_node.html Meta. Hassrede. https://transparency.meta.com/de-de/policies/community-standards/hate-speech/ Meta. Transparency. https://transparency.meta.com/de-de/ Meta. Richtlinien. https://transparency.meta.com/de-de/policies/ Die Beauftragte der Bundesregierung für Migration, Flüchtlinge und Integration. Die Beauftragte der Bundesregierung für Antirassismus. (2023). Lagebericht Rassismus in Deutschland. Ausgangslage, Handlungsfelder, Maßnahmen. https://www.integrationsbeauftragte.de/resource/blob/1864320/2157012/77c8d1dddeea760bc13dbd87ee9a415f/lagebericht-rassismus-komplett-data.pdf?download=1 Instagram. (2021, 11. Februar). Ein Update zu unserer Arbeit im Kampf gegen Missbrauch auf Instagram. https://about.instagram.com/de-de/blog/announcements/an-update-on-our-work-to-tackle-abuse-on-instagram Friese, H., Nolden, M., Rebane, G., Schreiter, M. (2020). Handbuch Soziale Praktiken und Digitale Alltagswelten. Springer VS. https://doi.org/10.1007/978-3-658-08357-1 Kalpaka, A. & Räthzel, N. (1991). Im Netz der Herrschaft: Frauen – Männergewalt – Rassismus. Feministische Studien, 9(2), 21–40. https://doi.org/10.1515/fs-1991-0205

White Mastodon: Warum ist Mastodon trotz der aktiven Positionierung gegen Rassismus ein weißer Raum? Oder was hält BIPoC davon ab, sich zu diesem sozialen Netzwerk zu wechseln? #stopDIGITALRACISM

Ekaterina Malova, Hannah Limbach

Inhaltswarnung: Rassismus (befasst sich mit Rassismus in sozialen Medien)

Mastodon ist eine Art dezentralisiertes oder ActivityPub-basiertes soziales Medium, das als Alternative zu kommerziellen sozialen Medien wie Twitter/X entstanden ist. Hier können die Nutzer:innen selbst entscheiden, wofür sie den Raum nutzen wollen, welche Inhalte sie konsumieren und auf welche sie verzichten möchten. Einer der Punkte, auf den die meisten Mastodon-Nutzer:innen verzichten wollen, ist die Präsenz von Rassismus in den sozialen Medien. Auch wenn sich Mastodon gegen Rassismus erklärt und sich als “safe space, free from white supremacy” (Mastodon Server Covenant – https://joinmastodon.org/covenant) positioniert, gibt es einige Aspekte des Netzwerks, die Fragen verursachen und Schwarze, Indigene und People of Color (im Weiteren – People of Colour) dazu veranlassen, von einer Nutzung abzusehen. Wenn solche Fragen und Bedenken von Сommunities of Сolour ignoriert werden, führt das unvermeidlich dazu, dass Mastodon zunehmend zu einem weißen Raum wird. Nutzer:innen of Colour sind bei alternativen sozialen Netzwerken noch nicht so stark vertreten. Dieser Blogbeitrag versucht aufzuzeigen, was People of Colour davon abhält, die dezentralisierten sozialen Medien zu nutzen. Damit wollen wir ihre Anliegen in Bezug auf diese sozialen Medien hervorheben und versuchen, die folgende Frage zu beantworten: Warum ist Mastodon trotz der aktiven Positionierung gegen Rassismus ein überwiegend weißer Raum? Man kann weiter über dieses Thema erfahren, zum Beispiel aus der Diskussion mit Dr. Jonathan Flowers (hier – https://www.techpolicy.press/the-whiteness-of-mastodon/). Es soll aber auch betont werden, dass es in den öffentlichen Medien nicht so viele relevante Aussagen gibt. In diesem Beitrag werden auch ein paar Punkte aus der Diskussion aufgegriffen.

• Kampf gegen die Verbreitung von rassistischen Instanzen und Inhalten: Wer entscheidet was rassistisch ist? Zunächst gibt es rassistische Instanzen in Mastodon. Sie lassen sich nicht mit einer Aktion entfernen, wie es bei Corporate Social Media möglich ist. Der Kampf gegen sie wird durch ihre Isolierung erreicht: Instanzen, die sich als antirassistisch positionieren und/oder als Server auf der offiziellen Mastodon-Website gelistet werden wollen, blockieren die Kommunikation mit rassistischen Servern (mehr dazu – https://blog.joinmastodon.org/2019/07/statement-on-gabs-fork-of-mastodon/). Um sie zu isolieren und die Verbreitung ihrer Inhalte zu verhindern, ist daher ein kollektives Vorgehen von vielen Instanzeninhaber:innen, Administrator:innen und Moderator:innen dezentralisierter Social Media erforderlich. Zuerst besteht die Gefahr, dass in einigen Fällen die Mehrheit der Instanzen keine gemeinsame Entscheidung über ihr Vorgehen trifft. Zweitens gibt es keine Garantie, dass die Instanzen, die vor allem im Besitz von weißen Menschen sind, die Anliegen von Nutzer:innen of Colour anhören und sie wahrnehmen werden. Mit anderen Worten, die Entscheidungen darüber, welche Instanzen, Verhaltensweisen und Inhalte rassistisch sind, werden von der weißen Mehrheit getroffen, was verständlicherweise bei Сommunities of Сolour Besorgnis auslöst.

• Ressourcenintensiver Betrieb einer eigenen Instanz: People of Colour brauchen mehr Ressourcen dafür Mastodon ist im Wesentlichen ein kostenpflichtiges soziales Netzwerk, wenn es darum geht, eine eigene Instanz zu erstellen und zu betreiben. Und wir können davon ausgehen, dass im Allgemeinen weiße Instanzeninhaber: innen aufgrund der sozialen Hierarchien mehr finanzielle Ressourcen haben. Das Problem beschränkt sich jedoch nicht nur auf die Frage der finanziellen Ressourcen. Instanzeninhaber: innen und Moderator: innen of Colour sollten auch mehr Zeit für die Moderation haben, weil ihre Instanzen im Visier von Rassisten: innen sind. Neben dem zusätzlichen Zeitaufwand erleben sie dann auch doppelte Gewalt: als Opfer dieser Gewalt und als Moderator: innen, die ihre Community schützen.

• Mastodons Anti-viral-Features verhindern den üblichen in sozialen Medien antirassistischen Aktivismus Eine weitere Besonderheit von Fediverse ist anti-viral-Features und die geringe Reichweite. Das erschwert die Verbreitung von nicht nur von rassistischen Propagandainhalten, sondern auch aktivistischen antirassistischen Inhalten. Deshalb ist zum Beispiel Hashtag-Aktivismus in Fediverse sehr schwer umzusetzen. Aber in Corporate social Media ist es eine Methode, um Rassismus zu bekämpfen. Die Verbreitung von Inhalten über soziale Medien ist eine Möglichkeit, die Sichtbarkeit eines Themas zu erhöhen. Mangelndes Verständnis darüber, wie Aktivismus in dezentralisierten Netzwerken umgesetzt werden kann, hält Menschen davon ab, von korporativen Netzwerken zu diesen zu wechseln.

• Die Vorschläge und Wünsche von Nutzer: innen of Colour werden ignoriert Viele marginalisierte Gruppen würden sich bei der Nutzung sozialer Medien wohler fühlen, wenn Beiträge zu sensiblen Themen mit Inhaltswarnungen oder Contentwarnungen versehen wären. Nutzer: innen of Colour sagen, dass dies weitgehend ignoriert wird und keine Warnungen zum Thema Rassismus in die Beiträge vorzufinden ist.

Das systematische Ignorieren von Problemen führt selten zu Lösungen, sondern zur Verschärfung deren Auswirkungen. Das Ignorieren der oben genannten Punkte führt dazu, dass Mastodon ein überwiegend weißer Raum bleibt. Es wäre wünschenswert, dass privilegierte Gruppen den Erfahrungen marginalisierter Gruppen zuhören, so dass Mastodon ein sicherer und unterstützender Raum wird und nicht nur eine nominelle Alternative zu Twitter/X. Vor allem, weil ActivityPub-basierte soziale Medien die Corporate Social Media tatsächlich übertreffen können, wenn es darum geht, einen Rassismus sensiblen Raum zu schaffen.

Kritik, Ergänzungen und Vorschläge zur Überwindung der oben genannten Punkte sind willkommen. #stopDIGITALRACISM

Dieser Blogbeitrag entstand im Rahmen eines Universitätsseminars; ist unter der Creative Commons Lizenz “CC BY 4.0 – Namensnennung 4.0 International” veröffentlicht.

Quellen: Flowers, J. (2023, 20. January). I say limit because the “anti-viral” features of the fediverse… Mastodon. https://zirk.us/@shengokai/109723099989840229 Hendrix, J. (2022, 23. November). The Whiteness of Mastodon. Abschrift der Diskussion. https://www.techpolicy.press/the-whiteness-of-mastodon/ Mastodon Server Covenant. https://joinmastodon.org/covenant Rochko, E. (2019, 4. Juli). Gab switches to Mastodon's code. Our statement. https://blog.joinmastodon.org/2019/07/statement-on-gabs-fork-of-mastodon/

Auf der Suche nach Lösungen für einen antirassistischen Diskurs: Stop digital Rassism – verschiedene Ansätze – verschiedene Möglichkeiten #stopDIGITALRACISM

Hannah Limbach, Ekaterina Malova

Inhaltswarnung: Rassismus (befasst sich mit Rassismus in sozialen Medien)

Reality Check: Digital mediierter Rassismus Die in den vergangenen Jahren wachsenden social Media Plattformen nehmen innerhalb unserer Gesellschaft einen immer größer werdenden Stellenwert ein. Miteinher haben sich rassistische Kommentare sowie rassistisches Verhalten auf den Plattformen entwickelt. Plattformen wie Twitter, Facebook, Instagram und TikTok sind zu mächtigen Werkzeugen geworden, die es ermöglichen antirassistische Botschaften zu verbreiten, ein Bewusstsein zu schaffen und Menschen zu mobilisieren Die Frage, warum wir uns dieser Thematik genauer widmen sollten, spiegelt sich sehr gut in den Zahlen des vergangenen Jahres wider. Mehr als ein Viertel der Internetnutzenden in Deutschland haben im ersten Quartal (2023) Beiträge im Netz im Zusammenhang mit Hassrede wahrgenommen. Genauer betrachtet sind es 15,8 Millionen User im Alter von 16 bis 74 Jahren, welche nahezu täglich mit Hasskommentaren oder rassistischen Äußerungen konfrontiert werden. Jüngere Nutzer sind laut der Studie des ZDFs dabei mit 36% deutlich häufiger betroffen als vergleichsweise ältere Nutzer mit gerade einmal 14%. Im Fokus der rassistischen Äußerungen stehen vor allem politische oder gesellschaftliche Ansichten sowie die ethische Herkunft. Es sollte im Folgenden also dringlichst diskutiert werden welche Vor/-Nachteile Corporate /ActivityPub Plattformen bieten um den antirassistischen Diskurs zu fördern. Beide Ausrichtungen bieten unterschiedliche Möglichkeiten, die es wert sind, genauer betrachtet zu werden. Konkret beleuchten wollen wir demnach die Vor- und Nachteile der Corporate social Media Plattformen und diese unteranderem mit der Fediverse Plattform Mastodon vergleichen.

Die Rolle von Sozialen Medien im Kampf gegen Rassismus Als Vorteil der klassischen Sozialen Medien kann der schnelle Informationstransfer sowie die globale Verbreitung betrachtet werden. Die Stärke der schnellen Informationsübermittlung bedeutet, dass antirassistische Inhalte innerhalb von Minuten weltweit geteilt und verbreitet werden können. Somit können Reichweiten von globalem Ausmaß kreiert werden. Die Mobilisierung der Massen und Reaktionen auf rassistisches Verhalten oder Taten können innerhalb von Sekunden geteilt und verbreitet werden. Sofortige Reaktionen aber auch der Meinungszusammenschluss führen in Bezug auf rassistischem Verhalten oftmals zu antirassistischen Aufrufen, welche sich in der Vergangenheit in Hashtags wie #BlackLivesMater oder #MeTwo widerspiegelten. Diese Hashtags erreichten Millionen von Menschen und stießen eine Bewegung von globalem Ausmaß an. Im Bezug hierzu ist auch der Aspekt der gesteigerten Dokumentation zu nennen. Durch die Verbreitung von Videos, Bildern oder Audios ist es möglich Täter zu übermitteln und öffentlich Druck auf verantwortliche Personen auszuüben.
Sinnvoll im Kampf gegen Rassismus ist es den betroffenen Gruppen eine Stimme zugeben, sie anzuhören und ihre Botschaft weltweit zu verbreiten. Hierfür bieten Corporate basierte Soziale Medien eine sinnvolle Grundlage, da sie im Vergleich zu anderen Medien frei zugänglich sind und der Inhalte individuell gestaltet werden kann. Unterrepräsentierte Stimmen können somit gehört werden, ihre Erfahrungen können geteilt und diskutiert werden. Der öffentliche Diskurs kann durch diese Präsenz öffentlich ausgetragen werden. Gemeinschaften werden gebildet, was zu einer erhöhten Aktivität führt und somit mehr Unterstützung für betroffene Gruppen bedeutet. In Kombination hierzu stehen auch die diversen Aufklärungsangebote, welche auf den Plattformen wie Instagram oder Facebook geteilt werden. Aktivisten, Organisationen und Bildungseinrichtungen nutzen diese Plattformen, um Inhalte zu teilen, die historische Kontexte erklären, systematische Ungerechtigkeiten aufzeigen und Handlungsanweisungen für antirassistisches Verhalten geben. Zugängliches Wissen wird durch Infografiken, Videos und persönliche Geschichten verbreitet, wodurch ebenfalls das Verständnis und die Sensibilisierung in der breiten Bevölkerung fördert. Aufbauend auf den genannten Aspekten führen die Mobilisierung der Massen und die Absprache innerhalb der sozialen Medien von antirassistischen Gruppierungen zu einer verbesserten sowie einer vereinfachten Organisation von Veranstaltungen. So werden zum Beispiel Soziale Medien als effektives Werkzeug für die Organisation von antirassistischen Protesten eingesetzt. Aktivisten können schnell Informationen über bevorstehende Demonstrationen, Petitionen und ähnliche Aktionen teilen. Durch die erleichterte Koordination und oftmals gesteigerte Teilnahme wird folglich die Sichtbarkeit erhöht. Hinzu kommen Online/-Petitionen/-Kampagnen, welche ebenfalls ein schlagfertiges Argument im Kampf für einen rassistisch freien Raum darstellen. Was ist euer Eindruck im Bezug zu dieser Thematik? Könnt ihr den zu Beginn angeführten Reality-Check nachempfinden? Wir hoffen ihr konntet einen ersten Eindruck der Thematik bekommen und die ersten Chancen und Kritiken der verschiedenen Plattformen nachvollziehen- im nächsten Beitrag widmen wir uns dann weiteren Chancen und Gefahren und beleuchten nochmals gegenteilige Ansichten. Zudem analysieren wir die Bedeutung dieser im Kampf um einen antirassistischen Diskurs. Freut euch auf weitere Sichtweisen und Argumente und diskutiert gerne in den Kommentaren mit! #stopDIGITALRACISM

Dieser Blogbeitrag entstand im Rahmen eines Universitätsseminars; ist unter der Creative Commons Lizenz “CC BY 4.0 – Namensnennung 4.0 International” veröffentlicht.

Quellen: Nolden, M. (2020). Rassismus im Netz. In H. Friese, M. Nolden, G. Rebane, M. Schreiter (Hrsg.), Handbuch Soziale Praktiken und Digitale Alltagswelten (S. 351–361). Springer VS. https://doi.org/10.1007/978-3-658-08357-1_73 Stalder, F. (2018). Autonomie und Kontrolle nach dem Ende der Privatsphäre. In M. Stempfhuber, E. Wagner (Hrsg.), Praktiken der Überwachten (S. 97-110). Springer VS. https://doi.org/10.1007/978-3-658-11719-1_6 https://about.instagram.com/de-de/blog/announcements/an-update-on-our-work-to-tackle-abuse-on-instagram https://www.bmfsfj.de/bmfsfj/themen/familie/smarte-gesellschaftspolitik/vielfalt-teilhabe/gutes-leben-digitale-gesellschaft-119910 https://www.zdf.de/dokumentation/digital-empire/algorithmus-ki-programmierung-vorurteile-diskriminierung-rassismus-social-media-100.html https://www.zdf.de/nachrichten/politik/deutschland/deutschland-rassismus-studie-100.html https://www.zdf.de/nachrichten/heute-in-deutschland/neue-studie-zu-rassismus-100.html

Auf der Suche nach Lösungen für einen antirassistischen Diskurs in sozialen Medien Stop digital Racism – verschiedene Ansätze- verschiedene Möglichkeiten

Ekaterina Malova, Hannah Limbach

Im Rahmen unseres Seminars ,,Das Fediverse – Social Media geht auch anders!“ der Universität Münster haben wir uns mit der ActivityPub Plattform Mastodon beschäftigt und den Unterschied zwischen Corporate und ActivityPub Soziale Medien kennengelernt. Wir konnten bei beiden Ansätzen spannende Unterschiede feststellen und möchten diese im Hinblick auf digital mediierten Rassismus genauer analysieren. Wir beschäftigen uns in den kommenden Blogbeiträgen mit folgender Fragestellung: Was sind die Chancen und Risiken von Corporate and ActivityPub Plattformen im Vergleich? Welche sozialen Medien – Corporate oder ActivityPub – eignen sich eher für einen antirassistischen Diskurs?
Euch erwarten in den folgenden Blogbeiträgen verschiedene Ansichten und Positionen zu der Thematik, die euch einen Denkanstoß geben sollten und uns auf der Suche nach einem antirassistischen Raum helfen werden. Freut euch auf einen spannenden argumentativen Diskurs, um Lösungsansätze für einen antirassistischen Diskurs zu finden.

#stopDIGITALRACISM