Diese Hausarbeit untersucht die Verbindung von “Extreme Speech” und “Kommunikativem Kapitalismus” anhand des Fallbeispiels von Facebooks Rolle im Rohingya-Genozid in Myanmar. Sie analysiert Facebooks Einfluss auf ethno-nationalistische Propaganda und organisierte Gewalt.
Facebooks Kommodifizierung der Extremen Rede im Genozid an den Rohingya
Diese Hausarbeit entstand im Kurs „Social Media Activism in Digital Capitalism“ unter der Leitung von Prof. Dr. Max Kramer im WiSe24/25 und untersucht die Verbindung von “Extreme Speech” und “Kommunikativem Kapitalismus” anhand des Fallbeispiels von Facebooks Rolle im Rohingya-Genozid in Myanmar. Sie analysiert Facebooks Einfluss auf ethno-nationalistische Propaganda und organisierte Gewalt.
Nach dem Amtsantritt von Donald Trump entschied sich Mark Zuckerberg, die professionellen Faktenprüfungen auf den Meta-Plattformen einzustellen und diese künftig durch sogenannte Community Notes zu ersetzen (McMahon, Kleinman, und Subramanian 2025; Metzger 2025). Der Netzexperte Konstantin von Notz kommentierte diese Entscheidung mit den Worten: „Zuckerberg wandelt auf den Spuren von Musk und stellt ökonomische Interessen über den Schutz von Betroffenen vor Beleidigung, Bedrohung und Verhetzung“ (ZDF 2025b). Während Zuckerbergs Entscheidung teils als „Kniefall“ vor Trump interpretiert wird, indem er Faktenchecks zugunsten der Redefreiheit abschafft, folgt er – ähnlich wie Elon Musk – primär einem opportunistischen Kalkül: der Vermeidung staatlicher Regulierung zur Reduzierung betrieblicher Kosten (ZDF 2025a). Dass Facebook kommerzielle Interessen systematisch über verantwortungsethische Prinzipien stellt, ist jedoch keineswegs eine neue Entwicklung.
Diese Hausarbeit geht innerhalb des Themas der Sozialen Medien aufgrund der Aktualität des Abbaus der Content-Moderation auf Social-Media-Plattformen der Fragestellung nach, inwieweit der Begriff „Extreme Speech“ von Sahana Udupa und Matti Pohjonen mit dem Konzept des „Kommunikativen Kapitalismus“ von Jodi Dean in Verbindung steht, anhand einer Analyse des Fallbeispiels der Rolle von Facebook im Genozid an den Rohingya in Myanmar. Nach einer begrifflichen Definition und einer kurzen Zusammenfassung der politisch-sozialen Situation wird Facebooks Rolle im Zusammenhang mit der ethno-nationalistischen Propaganda der Regierung sowie organisierter Gewalt in Myanmar eingeordnet und im Spannungsfeld zwischen „Extreme Speech“ und den Prinzipien des „Kommunikativen Kapitalismus“ betrachtet.
Udupa und Pohjonen definieren „Extreme Speech“ (im Folgenden „Extreme Sprache“) als ein methodologisches Konzept, kulturelle sowie normative Variationen von Hassreden abhängig von politisch-ökonomischen und historischen Kontexten zu differenzieren, indem unter anderem die Grenzen legitimer Sprache auf den Achsen von Wahrheit-Falschheit oder Höflichkeit-Unhöflichkeit betrachtet werden (Udupa und Pohjonen 2019). Udupa und Pohjonen fragen, (1) welche Prozesse hasserfüllte Sprache normalisieren oder legitimieren und (2) wie Sprache als Waffe für Autorität sowie Kontrolle eingesetzt wird (Udupa und Pohjonen 2019, 3052).
Das Konzept der Extremen Sprache beinhaltet eine kritische Perspektive, die lokale kulturelle Bedeutungen sowie Praktiken einbezieht und westliche Definitionen von Hassrede nicht universell anwendet (Udupa und Pohjonen 2019, 3050). Eine kontextunabhängige Definition von Hate Speech ist insofern hinderlich, dass mit ihr zum Beispiel weder eine strategische Umcodierung kultureller Werte zu extremistischen Narrativen in Mainstream-Diskursen (vgl. z.B. „White Genocide“) noch Memes sowie humoristische Formate als Verstärkungsmechanismen als problematisch erkannt werden können (vgl. Udupa und Pohjonen 2019, 3058). Während der Hate Speech Begriff sich nur auf den binären Gegensatz zwischen akzeptabler sowie inakzeptabler Sprache und dem Verhältnis zwischen Meinungsfreiheit sowie verursachtem Schaden bezieht, so lässt sich mit dem Konzept der Extremen Sprache ein Spektrum von Praktiken identifizieren (Udupa und Pohjonen 2019, 3049).
Udupa und Pohjonen verweisen auf die soziotechnologischen Aspekte neuer Medien, dass digitale Plattformen einen strukturellen Kontext für Extreme Sprache geben (Udupa und Pohjonen 2019, 3052). Sie bedienen Extreme Sprache, indem sie Polarisierung sowie Konflikte algorithmisch verstärken, Content in Form von Selbstpublizität, Affekt sowie Unterhaltung und dessen Zirkulation aus kommerziellen Interessen befördern (Udupa und Pohjonen 2019, 3058).
Nicht zuletzt ist Gewalt in der Form von Extreme Sprache eine identitätsstiftende Praxis als Teil der politischen Subjektivität im Hinblick auf Identitätskrisen durch eine Globalisierung und eine damit einhergehende soziale sowie geopolitische Unsicherheit (Udupa und Pohjonen 2019, 3062). Schwierig zu beurteilen ist die Ambivalenz, dass Extreme Sprache sowohl progressiv als auch destruktiv sein kann.
Jodi Dean beschreibt den Kommunikativen Kapitalismus als die Kommerzialisierung politischer Kommunikation durch soziale Medien, die primär der Unterhaltung dient und zugleich die Illusion politischer Partizipation erzeugt (Dean 2009). Politische Inhalte zirkulieren innerhalb digitaler Plattformen, sind jedoch von realpolitischen Entscheidungsprozessen entkoppelt (Dean 2009, 22). Der Markt erscheint als vermeintlicher Raum demokratischer Bestrebungen, obwohl er keine politischen Ergebnisse hervorbringt (Dean 2009, 23). Im Zuge der zunehmenden Vernetzung und Expansion kommunikativer Prozesse werden Praktiken, Erfahrungen und Emotionen in eine konsum- und finanzgetriebene Unterhaltungsökonomie überführt und monetarisiert (Dean 2009, 24). Diese Dynamik begünstigt insbesondere rechte Ideologien, indem algorithmische Mechanismen ihre Verbreitung verstärken und durch werbebasierte Finanzierungsmodelle weiter stabilisieren (Dean 2009, 33 ff.).
Der Kommunikative Kapitalismus geht mit einer Fetischisierung technologischer Infrastrukturen einher, die in der öffentlichen Wahrnehmung als Triebkräfte der Demokratisierung gelten (Dean 2009, 33, 47). Die propagierte Rhetorik von gleichberechtigtem Zugang und umfassender Partizipation verschleiert jedoch die strukturellen Machtverhältnisse (ebd.). Während die schiere Menge an digitalen Inhalten als Ausdruck demokratischer Vielfalt interpretiert wird, führt die tatsächliche Dynamik sozialer Medien zu einem schleichenden Verlust politischer Handlungsmacht (Dean 2009, 34 ff.). Anstelle echter Partizipation entsteht eine Scheinbeteiligung, während sich Einfluss, Kapital und politische Kontrolle zunehmend in den Händen weniger Akteure konzentrieren (ebd.).
Dean zeigt auf, dass im Kommunikativen Kapitalismus der Wert einer Botschaft weniger durch ihren inhaltlichen Gehalt als durch ihre Zirkulation bestimmt wird (Dean 2009, 27). Der Tauschwert überwiegt den Gebrauchswert, sodass der Erfolg eines Beitrags anhand von Faktoren wie Popularität, Reichweite und Verweildauer gemessen wird (ebd.). Dies führt zu einer Verzerrung politischer Kommunikation, die durch drei psychopolitische Mechanismen geprägt ist: (a) Kondensation, bei der politische Komplexität auf scheinbar einfache technologische Lösungen reduziert wird; (b) Verdrängung, die politische Prozesse in den Alltag verlagert und Expert:innen als irrelevant erscheinen lässt; sowie (c) Verleugnung, durch die der Kommunikative Kapitalismus die strukturellen Defizite demokratischer Systeme fetischistisch negiert und somit deren Versagen kaschiert (Dean 2009, 38–42).
Myanmar gilt als kulturell sowie sprachlich divers, wobei die Bevölkerung ungleiche politische Rechte besitzt. Während die Bamar-Buddhist:innen mit einer 2/3 Mehrheit dominieren, werden ethnische Minderheiten einschließlich der Rohingya marginalisiert und stigmatisiert (Whitten-Woodring u. a. 2020, 408). Seit der Unabhängigkeit 1948 sowie in der Demokratisierungsphase litten die Gruppe der Rohingya unter einer verschärften Verfolgung und zunehmenden Polarisierung (Whitten-Woodring u. a. 2020, 409). Ein Ursprung der zunehmenden Spaltung der Gesellschaft liegt im Staatsbürgerschaftsgesetz von Myanmar am 15. Oktober 1982, das Bürger:innen als „nationale Rasse“ und Minderheiten wie die Rohingya als illegale Migranten („Bengalis“) bezeichnete (Tähtinen 2024, 5–6).
Insbesondere das sogenannte Tatmadaw-Militär und die buddhistischen Nationalisten nutzten soziale Medien wie Facebook als Waffe zur Inszenierung von Konflikten zwischen Buddhisten und Muslimen, zur Unterdrückung von Dissens und zur Verbreitung von gezielter Desinformation, Hetze sowie Hassrede gegen die Rohingya, was zu schweren Menschenrechtsverletzungen führte (Sablosky 2021, 1018 ff. Yue 2020, 816). Mit tausenden von Beiträgen, die offensichtliche Parallelen zum Dritten Reich in Deutschland beinhalteten, wurde die öffentliche Meinung beeinflusst und die Bevölkerung zu Gewalt angestiftet. (vgl. Yue 2020, 833; Maldar und Seyedzadeh Sani 2023, 279)
Der Konflikt eskalierte 2017, als die Arakan Rohingya Salvation Army (ARSA) einen Regierungsposten angriff, und Burmesische Sicherheitskräfte mit einer unverhältnismäßigen Gewalt gegen die gesamte Gruppe der Rohingya im Norden des Rakhine-Staates antwortete (Whitten-Woodring u. a. 2020, 409; Deejay u. a. 2024, 1313). Dieser militärische Durchgriff der Tatmadaw wurde als „Säuberungsaktionen“ betitelt. Bis 2018 flohen um die 800.000 Rohingya nach Bangladesch (Yue 2020, 833; Deejay u. a. 2024, 1313). Eine internationale Untersuchung betrachtet die Geschehnisse als Genozid und Verbrechen gegen das Völkerrecht sowie die Menschlichkeit. (Yue 2020, 816)
Lange Zeit war der Bevölkerung Myanmars das Internet fremd; sie war digital von der Außenwelt abgeschnitten. Parallel zur Demokratisierungsphase und ökonomischen Öffnung wurde die Telekommunikation im Zeitraum 2010 bis 2018 rasant ausgebaut (Sablosky 2021, 1023 ff.). Investitionen internationaler Unternehmen führten zu einer schlagartigen 4G-Abdeckung von 97% der Bevölkerung und die Mobilfunknutzung stieg auf eine Penetrationsrate über 100% (Sablosky 2021, 1025).
Im Rahmen der sogenannten Facebook Zero Initiative verfolgte Mark Zuckerberg das Ziel mit vermeintlich philanthropischen Intentionen Entwicklungshilfe in Ländern des globalen Südens umzusetzen. Ab 2013 bot die Initiative „Free Basics“ (früher „Internet.org“) eine auf Smartphones vorinstallierten Plattform für Nutzer:innen an, mit kostenlosen Datenzugriff auf eine nur bestimmte, limitierte Anzahl grundlegender Dienste, darunter Facebook (Deejay u. a. 2024, 1315; Tantacrul 2024; Tähtinen 2024, 6). Meist verzichteten Nutzer:innen auf andere kostenpflichtige Dienste jenseits der Plattform, weshalb Facebook in Myanmar de facto als das Internet verstanden wurde (Tähtinen 2024, 2). Facebook Nutzer:innen nahmen rasant zu, von 2 Mio. in 2014 bis 30 Mio. in 2017 (Singh 2018). Zwischen 2011 und 2018 verwendeten durchschnittlich 95% der Bevölkerung ausschließlich Facebook als Social-Media-Plattform (Tähtinen 2024, 6).
Obwohl Facebook humanitäre sowie demokratische Werte promovierte, im Sinne einer zunehmenden globalen Vernetzung zur Überwindung der digitalen Kluft zwischen Ländern des globalen Südens und Industriestaaten, handelte das Unternehmen ausschließlich aus expansionistischen Intentionen, zumal es sich im Vorhinein weder mit dem politischen sowie kulturellen Kontext, noch mit präventiven Maßnahmen zur Eindämmung von Extremer Sprache beschäftigte (Deejay u. a. 2024, 1316–18). Dabei wird Facebook vorgeworfen gegen die Netzneutralität zu verstoßen und digitalen Kolonialismus in Ländern des globalen Südens zu betreiben, indem das Unternehmen westliche Dienstleistungen sowie Content mit einer größeren Visibilität anbietet und Daten der Nutzer:innen sammelt (Global Voices Advox 2017; Deejay u. a. 2024, 1316).
Im akademischen Diskurs bleibt die Frage ungeklärt, inwiefern Facebook Verantwortung für die organisierten Verbrechen in Myanmar übernehmen sollte, zumal militärische Gewalt gegen Muslime auch schon vor der Einführung von Facebook stattfand (Samet, Arriola, und Matanock 2024, 958–59). In der westlichen Literatur wird Facebook einerseits am Verbrechen verantwortlich gemacht, andererseits jedoch darauf hingewiesen, dass Soziale Medien wie Facebook durchaus positives Potenzial haben, durch den Zugang zu vielfältigen Perspektiven demokratische Teilhabe (Whitten-Woodring u. a. 2020, 421) oder sogar kulturelle Toleranz zu fördern (Samet, Arriola, und Matanock 2024, 959).
Allerdings ist die Intensität, Radikalisierung und die anschließende Gewaltbereitschaft der Nutzer:innen abhängig vom sozialen Umfeld, in dem Soziale Medien eingeführt wurden. Während die Verfügbarkeit der Sozialen Medien einen durchschnittlich negativen Effekt auf die Ereignisse in Myanmar hatten, so eskalierte der Konflikt im Hinblick auf regionale Unterschiede gerade in den Bereichen, in denen es schon erhöhte Spannungen zwischen ethnischen Gruppen gab (Tähtinen 2024, 1). Hinsichtlich der Intensivierung von antimuslimischen Hasskampagnen und der Zunahme der Übergriffe auf Minderheiten ab 2012, lässt sich Tähtinen durch Adena u.a. und Bursztyn u.a. über die Effektivität der hetzerischen Mobilisierung bestätigen, dass die Prädispositionen der Empfänger:innen wie Vorurteile und Intoleranz hierfür ausschlaggebend sind (vgl. Tähtinen 2024, 20; Adena u. a. 2015; Bursztyn u. a. 2019).
Nichtdestotrotz wählte Facebook eine defensive Haltung, die verantwortungsethischen Vorwürfe von sich zu weisen, indem das Unternehmen insofern techno-optimistischen Narrative promovierte, dass Myanmar selbst als Sündenbock inszeniert wurde (Deejay u. a. 2024, 1319–20). Diese techno-optimistischen Narrative gehen mit einer Silicon-Valley-Mentalität einher, dass die mangelhafte digitale Kompetenz der Regierung zur Umsetzung präventiver Gegenmaßnahmen und die Unfähigkeit der Bevölkerung im Umgang mit Sozialen Medien nicht den positiven Versprechen neuer Technologien gerecht werden (Deejay u. a. 2024 ebd.). An dieser Stelle sei auf den epistemischen Machtunterschied zwischen dem dominanten Wissenssystem des Westens und dem marginalisierten Bewusstsein der unsichtbar-gerenderten Individuen in Ländern des globalen Südens verwiesen, wobei letztere sich etwa den techno-optimistischen Narrativen nur schwer widersetzen können (Deejay u. a. 2024, 1317; vgl. Santos 2015).
Das methodologische Konzept der Extremen Sprache ermöglicht nicht nur eine Beschreibung, sondern auch eine differenzierte Analyse von Hetze und Hassrede auf Facebook im Kontext des Genozids an den Rohingya. Die im Folgenden behandelten Fragestellungen von Udupa und Pohjonen können innerhalb dieses Essays jedoch nur oberflächlich betrachtet werden.
Die erste Frage (Welche Prozesse führen zur Normalisierung oder Legitimierung hasserfüllter Sprache?) lässt sich anhand mehrerer Faktoren beantworten. Einerseits verbreiteten insbesondere militärische Akteur:innen staatliche Propaganda, Desinformationen und Hasskampagnen, um die ethnische Gruppe der Rohingya als „illegale Migranten“, islamistische Extremisten oder wirtschaftliche Bedrohung zu stigmatisieren und gegen sie zu mobilisieren (Whitten-Woodring u. a. 2020, 409). Extremistische Persönlichkeiten wie Wirathu nutzten Facebook gezielt für Hasskampagnen, wobei hunderte Beiträge pro Stunde veröffentlicht wurden (Sablosky 2021, 1029). Viele bewaffnete Gruppierungen ahmten auf Social Media staatliche Funktionen nach, indem sie sich als fähige und legitime staatliche Akteure inszenierten (Tønnesson, Zaw Oo, und Aung 2022, 200). Sie bedienten sich dabei offizieller Staatssymbole, präsentierten vermeintliche Regierungsstrukturen und öffentliche Dienstleistungen und nutzten Paraden zur Mobilisierung von Unterstützung (Tønnesson, Zaw Oo, und Aung 2022, 221). Diese Strategien zielten darauf ab, Authentizität und Glaubwürdigkeit zu erzeugen sowie die Legitimität der Akteure aus Sicht der Nutzer:innen zu stärken (ebd.). Symbolische Elemente wie Flaggen, Hymnen und Verwaltungsstrukturen spielten dabei eine zentrale Rolle (ebd.). In diesem Kontext wurde das Smartphone zu einem zentralen Instrument der Führung, Kontrolle, Aufklärung und Koordination von Aktionen (Tønnesson, Zaw Oo, und Aung 2022, 202).
Andererseits verstärkten die Empfehlungsalgorithmen von Facebook die Verbreitung extremistischer Inhalte (Whitten-Woodring u. a. 2020, 412–13). Polarisierende Beiträge erhielten aufgrund ihrer hohen Interaktionsrate größere Reichweite und trugen dazu bei, Vorurteile in sogenannten Echo-Kammern zu verfestigen (Whitten-Woodring u. a. 2020, 410–12). Diese algorithmisch geförderte affektive und attitudinale Polarisierung machte Nutzer:innen empfänglicher für Desinformationen, begünstigte kognitive Verzerrungen wie den Confirmation Bias und erhöhte die Gewaltbereitschaft gegenüber den Rohingya (Whitten-Woodring u. a. 2020, 417 ff.).
Ein weiterer zentraler Faktor war das Fehlen angemessener inhaltlicher Moderation seitens Facebook. Während das Unternehmen in der restriktiven Phase (2017–2021) auf internationale Kritik reagierte, indem es Hassrede entfernte und Accounts nationalistischer Akteure sowie des Tatmadaw sperrte, führte die ungleiche Behandlung verschiedener Akteur:innen zu einer Verzerrung der Konfliktdynamik (Tønnesson, Zaw Oo, und Aung 2022, 204). Während bestimmte Gruppen weiterhin verstärkte Sichtbarkeit und Reichweite erhielten, wurden Gegenstimmen und Counter-Narratives marginalisiert (Sablosky 2021, 1021; Tønnesson, Zaw Oo, und Aung 2022, 221 ff.).
Die zweite Frage (Wie wurde Sprache als Instrument zur Durchsetzung von Autorität und Kontrolle genutzt?) überschneidet sich in Teilen mit der ersten, da sprachliche Strategien zur Legitimierung von Gewaltmaßnahmen gegen die Rohingya dienten. Durch die Verbreitung von Lügen und Verschwörungstheorien wurde die muslimische Minderheit entmenschlicht und als Bedrohung für den Buddhismus dargestellt (Yue 2020, 820). Diese propagandistische Rhetorik diente als ideologische Grundlage für die Rechtfertigung von Gewalt (ebd.). Facebook fungierte dabei als Katalysator, indem es die rasche Verbreitung von Desinformationen erleichterte und Polarisierung intensivierte (ebd.). Damit bestätigt sich die Annahme von Udupa und Pohjonen, dass soziale Medien, wie Facebook in diesem Fall, eine strukturelle Grundlage für Extreme Sprache schaffen (Udupa und Pohjonen 2019, 3052).
Das Beispiel von Facebooks Einfluss auf die Bevölkerung Myanmars verdeutlicht, dass eine unreflektierte Übertragung westlicher Konzepte wie Hassrede auf Länder des Globalen Südens problematisch ist. Eine solche Perspektive ignoriert kulturelle, soziale und politische Nuancen. Das Konzept der Extremen Sprache erweist sich in diesem Kontext als analytisch wertvoll, da es neben Sprache auch audiovisuelle Elemente umfasst. So wurden beispielsweise Bilder getöteter Gegner als Warnung an potenzielle Verräter:innen verbreitet (Tønnesson, Zaw Oo, und Aung 2022, 216). Zudem unterstreichen Udupa und Pohjonen, dass Extreme Sprache eine identitätsstiftende Funktion besitzt (Udupa und Pohjonen 2019, 3053). Dies trifft auf die Mobilisierung der nationalistischen Buddhisten zu, die ihre Identität in Abgrenzung zu den Rohingya durch Extreme Sprache definierten.
Facebook operiert nach den Prinzipien des Kommunikativen Kapitalismus. Die Marktorientierung des Unternehmens führt einerseits zur Monetarisierung von Kommunikation, indem Hassrede kommodifiziert wird, und andererseits zu einer strukturellen Verantwortungslosigkeit gegenüber den sozialen Folgen von Radikalisierungsprozessen. Diese Dynamik spiegelt eine Priorisierung wirtschaftlicher Expansion wider, während gleichzeitig pluralistische Governance und soziale Integration vernachlässigt werden (Sablosky 2021, 1026).
Vor diesem Hintergrund stellt sich die Frage, inwiefern Facebook durch seine marktwirtschaftliche Logik den Demokratisierungsprozess in Myanmar beeinflusst und der Bevölkerung eine Illusion politischer Partizipation vermittelt – insbesondere im Hinblick auf die Verbreitung von Hetze und Hassrede. Als dominierende Nachrichtenquelle in Myanmar bot Facebook Zugang zu unzensierten Informationen, Meinungen und Perspektiven, die von traditionellen Medien nicht abgedeckt wurden (Whitten-Woodring u. a. 2020, 420). Dies galt sowohl für Stimmen aus Minderheitengebieten als auch für die buddhistische Mehrheitsgesellschaft (ebd.). Doch während die mediale Partizipation der Bevölkerung weitgehend von der realpolitischen Entscheidungsfindung entkoppelt blieb, wurde strategisch eingesetzte Hetze gezielt zur Mobilisierung von Gewalt instrumentalisiert – eine Form politischer Einflussnahme, die jedoch nicht im Sinne demokratischer oder parlamentarischer Prozesse erfolgte. Anstatt als neutrale Plattform für politische Teilhabe zu agieren, wirkte Facebook letztlich destabilisierend und untergrub pluralistische Regierungsstrukturen, indem es unter anderem die Propaganda des Tatmadaw verstärkte und die Sichtbarkeit ethnischer Minderheiten systematisch reduzierte (Sablosky 2021, 1021).
Obwohl Facebook nicht als alleiniger Haupttreiber religiöser Intoleranz in Myanmar betrachtet werden kann – zumal das Land insgesamt hohe Raten religiöser Diskriminierung aufweist, unabhängig von sozialen Medien (Samet, Arriola, und Matanock 2024, 959) – veränderte die Plattform die Kommunikationsdynamik grundlegend. Die zunehmende Geschwindigkeit, Unmittelbarkeit und Interaktivität der digitalen Kommunikation trugen erheblich zur Eskalation des gesellschaftlichen Klimas bei (Tønnesson, Zaw Oo, und Aung 2022, 201; Maldar und Seyedzadeh Sani 2023, 281).
Facebook hat die politische Kommunikation durch drei zentrale psychopolitische Mechanismen verzerrt: (a) Kondensation: Das Plattformdesign von Facebook in Kombination mit der geringen Aufmerksamkeitsspanne der Nutzer:innen begünstigt die Verbreitung von emotionalisierenden, oft stark vereinfachten politischen Inhalten. Ziel dieser Mechanismen ist die Maximierung der Interaktion durch affektives Triggering (vgl. Whitten-Woodring u. a. 2020, 412). Dabei reduziert Facebook nicht nur die inhaltliche Komplexität politischer Debatten, sondern beeinflusst auch die Form des Diskurses, indem Empfehlungsalgorithmen einfache technologische Lösungen suggerieren.
(b) Verdrängung: Politische Prozesse werden zunehmend in den Alltag verlagert, während sich der kommunikative Markt uneingeschränkt in alle gesellschaftlichen Bereiche integriert. In diesem Kontext übt Facebook eine disziplinierende Form von Macht aus, indem es über eine umfangreichere Datensammlung zur Bevölkerung Myanmars verfügt als nationale Institutionen (Tønnesson, Zaw Oo, und Aung 2022, 204). In gewisser Weise fungiert Facebook als quasi-staatlicher Akteur, indem es globale Macht, nationale Souveränität und politische Autorität zur Regulierung politischer Rede nach eigenen sozioökonomischen Interessen ausübt – sei es bewusst oder unbewusst. Dies zeigt sich insbesondere daran, dass die Plattform selektiv entschied, welche Akteure als extremistisch eingestuft wurden (Sablosky 2021, 1034).
(c) Verleugnung: Facebook negiert nicht nur demokratische Defizite, sondern weist auch jegliche Verantwortung für deren Folgen zurück. Aus der Perspektive der Unternehmenskomplizenschaft könnte Facebook rechtlich zur Rechenschaft gezogen werden, da die gezielte Nutzung der Plattform durch autoritäre Regime zur Anstiftung von Gewaltverbrechen unter die strafrechtliche Haftung von Unternehmen fallen kann (Yue 2020, 824 ff.). Allerdings sind internationale rechtliche Rahmenbedingungen meist unverbindlich und fungieren eher als normative Leitlinien denn als durchsetzbare Regelwerke (Yue 2020, 816). Facebook agiert somit in einem weitgehend rechtsfreien Raum ohne staatliche Kontrolle (Sablosky 2021, 1022). Da sich internationale Strafgerichte auf die Verfolgung individueller Akteure konzentrieren, ist eine strafrechtliche Verantwortlichkeit von Unternehmen auf internationaler Ebene derzeit nicht umsetzbar (Maldar und Seyedzadeh Sani 2023, 282). Zwar besteht die Möglichkeit, juristische Personen durch nationale Gerichte zur Rechenschaft zu ziehen (ebd.), doch ist dies in Myanmar bislang nicht erfolgt.
Mark Zuckerberg räumte öffentlich ein, dass Facebook zur Verbreitung von Hassrede, Belästigung und Desinformation beigetragen habe (Roose und Mozur 2018). Dennoch setzt das Unternehmen trotz internationaler Kritik und Reputationsverlust seine Expansion in Märkte mit hohem Missbrauchspotenzial fort (Yue 2020, 842; Nourooz Pour 2023, 108).
Die Gleichgültigkeit Facebooks gegenüber der Verbreitung von Desinformation und Hassrede zeigt sich insbesondere in der langsamen Reaktion auf wiederholte Warnungen zwischen 2012 und 2015 (Yue 2020, 843). In der Kategorie der ante-factum Versäumnisse umfasst Facebooks potenzielle Haftung die bewusste Unterlassung wirksamer Maßnahmen gegen Hassrede, obwohl das Unternehmen über die eskalierenden Spannungen informiert war. Dazu gehören insbesondere das Versäumnis, ausreichende Ressourcen für eine angemessene Content Moderation bereitzustellen (Nourooz Pour 2023, 111).
Wie Gillespie betont, ist Moderation ein essenzieller Bestandteil jeder Plattform (Gillespie 2018, 207). Zum Beginn der Krise war jedoch nur eine einzige Person für die burmesischsprachige Moderation zuständig (Sablosky 2021, 1033). Andere Sprachen wurden mithilfe ungeeigneter Übersetzungstools verarbeitet, wodurch Hassrede entweder nicht erkannt oder inhaltlich verfälscht wurde (Sablosky 2021, 1032). Ein eklatantes Beispiel für die Unzulänglichkeiten der Moderation zeigt sich in der fehlerhaften Übersetzung von „Kill all the Kalars that you see in Myanmar; none of them should be left alive“ zu „I shouldn’t have a rainbow in Myanmar“ (Sablosky 2021, 1032).
Selbst bestehende Moderationsmechanismen erwiesen sich als unzureichend, da sie kulturelle Sensibilitäten nicht berücksichtigten und partikuläre Kontexte nicht differenzierten. Dies führte zu systemischen Fehlern in der Handhabung von Hassrede und Desinformation. Ein weiteres Beispiel für Facebooks mangelndes Verständnis der kulturellen Komplexität Myanmars war die Entscheidung, Burmesisch als alleinige Standardsprache auf der Plattform zu etablieren (Sablosky 2021, 1033). Dies spielte der langjährigen Politik des Tatmadaw zur Marginalisierung indigener Sprachen in die Hände (ebd.). Darüber hinaus führte Facebooks Entfernung des Begriffs „Kalar“ – einerseits eine ethnische Beleidigung gegen die Rohingya, andererseits jedoch ein Wort mit neutraler Bedeutung in anderen Kontexten – dazu, dass auch alltägliche Begriffe aus dem Sprachgebrauch eliminiert wurden (Sablosky 2021, 1033).
Zu den post-factum Versäumnissen zählen Facebooks mangelnde Unterstützung für zentrale Transitional Justice-Prozesse (Nourooz Pour 2023, 105 ff.). Dazu gehören unter anderem die Bereitstellung relevanter Daten über Hassrede und Gewaltverbrechen, die Unterstützung der Opfer sowie betroffener Gemeinschaften und die Anpassung interner Richtlinien zur Vermeidung zukünftiger Vergehen (ebd.).
In einem unregulierten Markt bildet das Unternehmen Facebook mit der myanmarischen Regierung sowie bestimmten militärischen Akteur:innen eine gefährliche Symbiose, die durch ein erhebliches Machtgefälle gekennzeichnet ist. Einerseits verfolgt Facebook als kritische Kommunikationsinfrastruktur ein expansionistisches Interesse, indem es neue Absatzmärkte erschließt und Abhängigkeiten schafft. Dies geschieht unter anderem durch den Verstoß gegen die Netzneutralität sowie die Etablierung einer monopolartigen Marktstellung. Andererseits nutzt die myanmarische Regierung Facebook als effektives und effizientes Instrument zur Verbreitung ihrer ethno-nationalistischen Agenda, insbesondere zur gezielten Mobilisierung der buddhistischen Mehrheitsgesellschaft gegen muslimische Minderheiten.
Im Kontext des digitalen Kolonialismus zeigt sich zudem eine doppelte Abhängigkeit Myanmars von Facebook, die sich aus der globalen Wohlstandsungleichheit zwischen dem Globalen Norden und Süden ableitet. Erstens besitzt der Staat keine juristische Handhabe, um gegen die datenextrahierenden und polarisierenden Marktmechanismen der Plattform vorzugehen. Zweitens wird Myanmar im westlichen techno-optimistischen Diskurs als alleiniger Sündenbock für die eskalierende Gewalt dargestellt, während die Rolle der digitalen Infrastruktur weitgehend unberücksichtigt bleibt.
Auch das Konzept der Extremen Sprache steht in einer engen Wechselbeziehung mit dem Kommunikativen Kapitalismus – beide greifen ineinander wie Puzzlestücke. Sowohl Extreme Sprache als auch der Kommunikative Kapitalismus normalisieren und begünstigen hasserfüllte Sprache. Während Extreme Sprache in Form von Desinformation und Hasskampagnen durch Empfehlungsalgorithmen verstärkt wird und somit die Interaktionsrate sowie die Verbreitung von Vorurteilen erhöht, fungiert der Kommunikative Kapitalismus als wertneutrales, marktwirtschaftliches System, das diese Prozesse nicht nur begünstigt, sondern aktiv kommodifiziert. Die marktorientierte Logik sozialer Plattformen führt folglich zu struktureller Verantwortungslosigkeit mit dem primären Ziel der Profitmaximierung. Dies äußert sich insbesondere in der systematischen Einsparung von Ressourcen für eine angemessene inhaltliche Moderation, wodurch die Verbreitung von Extremer Sprache zusätzlich gefördert wird.
Die Mechanismen von Extremer Sprache lassen sich mit den drei psychopolitischen Mechanismen des Kommunikativen Kapitalismus in Verbindung bringen: (a) Im Sinne der Kondensation entspricht die Struktur von Extremer Sprache der Funktionsweise sozialer Plattformen, indem ihre Inhalte an die reduzierte Aufmerksamkeitsspanne der Nutzer:innen angepasst und durch emotionale Polarisierung verstärkt werden. (b) Im Rahmen der Verdrängung verlagert sich Extreme Sprache – analog zu politischen Inhalten – zunehmend in den Alltag, wodurch ihre Wirkung über den digitalen Raum hinausreicht. (c) Aufgrund ihrer schrittweisen Normalisierung wird Extreme Sprache nicht nur toleriert, sondern in einem weitgehend rechtsfreien Raum ohne staatliche Kontrolle auch aktiv geleugnet.
Obwohl Extreme Sprache aus einer holistischen Perspektive als Form politischer Handlungsfähigkeit betrachtet werden kann – sowohl durch Partizipation in sozialen Medien als auch durch die daraus resultierende physische Gewalt – bleibt sie im Fall Myanmars weitgehend von realpolitischen Entscheidungsprozessen entkoppelt. Dennoch steht sie in direkter Verbindung zum Kommunikativen Kapitalismus, da beide Mechanismen letztlich auf die Kommodifizierung von Kommunikation und die Aufrechterhaltung eines profitorientierten Marktsystems abzielen.
Die anhaltende Marktorientierung von Facebook auf Kosten gesellschaftlicher Verantwortung zeigt sich nicht nur in der Rolle des Unternehmens in Myanmar, sondern auch in aktuellen Entwicklungen. Die geplante Abschaffung professioneller Faktenprüfungen auf den Meta-Plattformen zugunsten von Community Notes unterstreicht erneut die Priorisierung wirtschaftlicher Interessen gegenüber dem Schutz demokratischer Diskurse. Diese Entscheidung, die Parallelen zur Politik anderer Tech-Milliardäre wie Elon Musk aufweist, birgt das Risiko, Desinformation und Extreme Rede weiter zu normalisieren und zu verstärken. Sie verdeutlicht zudem, dass Facebook, trotz internationaler Kritik und der Anerkennung eigener Versäumnisse, kaum nachhaltige Maßnahmen zur Regulierung problematischer Inhalte ergreift. Somit bleibt das Unternehmen ein zentraler Akteur des Kommunikativen Kapitalismus, der digitale Kommunikation nicht als öffentliche Infrastruktur begreift, sondern als Ware behandelt – mit weitreichenden sozialen und politischen Konsequenzen.
+++ English Version +++
Facebook’s Commodification of Extreme Speech in the Genocide Against the Rohingya
This term paper was written in the course „Social Media Activism in Digital Capitalism“ under the supervision of Prof. Dr. Max Kramer in the winter semester 2024/25. It examines the connection between „Extreme Speech“ and „Communicative Capitalism“ using the case study of Facebook’s role in the Rohingya genocide in Myanmar. The paper analyses Facebook’s influence on ethno-nationalist propaganda and organised violence.
The provided translation has been generated by the artificial intelligence language model ChatGPT. The literature sources can be found in the PDF.
Following Donald Trump’s inauguration, Mark Zuckerberg decided to discontinue professional fact-checking on Meta platforms, replacing it with so-called Community Notes (McMahon, Kleinman, and Subramanian 2025; Metzger 2025). The network expert Konstantin von Notz commented on this decision, stating: „Zuckerberg is following in Musk’s footsteps, prioritizing economic interests over the protection of individuals from insults, threats, and incitement to hatred“ (ZDF 2025b). While some interpret Zuckerberg’s decision as a capitulation to Trump by eliminating fact-checking in favor of free speech, he—much like Elon Musk—is primarily guided by opportunistic calculations: avoiding state regulation to reduce operational costs (ZDF 2025a). However, Facebook’s systematic prioritization of commercial interests over principles of ethical responsibility is by no means a new development.
Within the broader context of social media, this paper examines the relationship between the concept of „Extreme Speech“ as defined by Sahana Udupa and Matti Pohjonen and Jodi Dean’s notion of „Communicative Capitalism.“ This analysis is conducted through the case study of Facebook’s role in the genocide against the Rohingya in Myanmar. After defining key terms and providing a brief overview of the socio-political situation, the paper situates Facebook’s role within the framework of ethno-nationalist propaganda and organized violence in Myanmar, analyzing it through the lens of „Extreme Speech“ and „Communicative Capitalism.“
Udupa and Pohjonen define „Extreme Speech“ as a methodological concept that differentiates cultural and normative variations of hate speech based on political-economic and historical contexts. They do so by examining the boundaries of legitimate language along axes such as truth-falsehood and politeness-impoliteness (Udupa and Pohjonen 2019). Their inquiry focuses on (1) the processes through which hate-driven language is normalized or legitimized and (2) the ways in which language is weaponized for authority and control (Udupa and Pohjonen 2019, 3052).
The concept of Extreme Speech offers a critical perspective that incorporates local cultural meanings and practices, challenging the universal applicability of Western definitions of hate speech (Udupa and Pohjonen 2019, 3050). A context-independent definition of hate speech proves problematic, as it fails to recognize, for instance, the strategic recoding of cultural values into extremist narratives within mainstream discourse (e.g., „White Genocide“) or the role of memes and humorous formats as amplification mechanisms (Udupa and Pohjonen 2019, 3058). While the concept of hate speech is limited to a binary distinction between acceptable and unacceptable speech, as well as the relationship between freedom of expression and inflicted harm, Extreme Speech allows for the identification of a spectrum of practices (Udupa and Pohjonen 2019, 3049).
Udupa and Pohjonen also emphasize the socio-technological aspects of new media, arguing that digital platforms provide a structural context for Extreme Speech (Udupa and Pohjonen 2019, 3052). These platforms facilitate Extreme Speech by algorithmically amplifying polarization and conflict, promoting content through self-publicity, affect, and entertainment, and circulating it for commercial purposes (Udupa and Pohjonen 2019, 3058).
Finally, violence in the form of Extreme Speech serves as an identity-forming practice, contributing to political subjectivity in response to identity crises induced by globalization and the resulting social and geopolitical uncertainties (Udupa and Pohjonen 2019, 3062). The ambivalence of Extreme Speech remains difficult to assess, as it can be both progressive and destructive.
Jodi Dean describes Communicative Capitalism as the commercialization of political communication through social media, which primarily serves entertainment purposes while simultaneously creating the illusion of political participation (Dean 2009). Political content circulates within digital platforms but remains decoupled from real political decision-making processes (Dean 2009, 22). The market appears to be a space of democratic aspirations, yet it fails to produce tangible political outcomes (Dean 2009, 23). With the increasing interconnectedness and expansion of communicative processes, practices, experiences, and emotions are transformed into a consumption- and finance-driven entertainment economy and subsequently monetized (Dean 2009, 24). This dynamic particularly benefits right-wing ideologies, as algorithmic mechanisms amplify their dissemination and stabilize them through ad-based financing models (Dean 2009, 33 ff.).
Communicative Capitalism entails a fetishization of technological infrastructures, which are publicly perceived as drivers of democratization (Dean 2009, 33, 47). However, the rhetoric of equal access and comprehensive participation conceals structural power imbalances (ibid.). While the vast amount of digital content is interpreted as an expression of democratic diversity, the actual dynamics of social media lead to a gradual erosion of political agency (Dean 2009, 34 ff.). Instead of genuine participation, a façade of engagement emerges, while influence, capital, and political control become increasingly concentrated in the hands of a few actors (ibid.).
Dean argues that within Communicative Capitalism, the value of a message is determined less by its substantive content than by its circulation (Dean 2009, 27). Exchange value outweighs use value, meaning that the success of a post is measured by factors such as popularity, reach, and engagement time (ibid.). This results in a distortion of political communication, characterized by three psychopolitical mechanisms: (a) Condensation, where political complexity is reduced to seemingly simple technological solutions; (b) Displacement, which shifts political processes into everyday life and renders experts irrelevant; and (c) Denial, through which Communicative Capitalism fetishistically negates the structural deficiencies of democratic systems, thereby obscuring their failures (Dean 2009, 38–42).
Myanmar is culturally and linguistically diverse, yet its population experiences unequal political rights. While the Bamar-Buddhists hold a two-thirds majority, ethnic minorities, including the Rohingya, face marginalization and stigmatization (Whitten-Woodring et al. 2020, 408). Since independence in 1948 and throughout the democratization phases, the Rohingya have suffered from intensified persecution and growing polarization (Whitten-Woodring et al. 2020, 409). One key factor in this societal divide is Myanmar’s Citizenship Law of October 15, 1982, which classified citizens as a „national race“ while labeling minorities such as the Rohingya as illegal migrants (“Bengalis”) (Tähtinen 2024, 5–6).
Particularly, the Tatmadaw military and Buddhist nationalists weaponized social media platforms like Facebook to orchestrate conflicts between Buddhists and Muslims, suppress dissent, and disseminate targeted disinformation, incitement, and hate speech against the Rohingya, leading to severe human rights violations (Sablosky 2021, 1018 ff.; Yue 2020, 816). With thousands of posts drawing clear parallels to Nazi Germany, public opinion was manipulated, and the population was incited to violence (Yue 2020, 833; Maldar and Seyedzadeh Sani 2023, 279).
The conflict escalated in 2017 when the Arakan Rohingya Salvation Army (ARSA) attacked a government outpost, prompting Burmese security forces to respond with disproportionate violence against the entire Rohingya population in northern Rakhine State (Whitten-Woodring et al. 2020, 409; Deejay et al. 2024, 1313). This military crackdown by the Tatmadaw was labeled as „clearance operations.“ By 2018, approximately 800,000 Rohingya had fled to Bangladesh (Yue 2020, 833; Deejay et al. 2024, 1313). An international investigation classified these events as genocide and crimes against humanity under international law (Yue 2020, 816).
For a long time, the internet was unfamiliar to the people of Myanmar, as they were digitally isolated from the outside world. Parallel to the democratization process and economic liberalization, the country’s telecommunications sector rapidly expanded between 2010 and 2018 (Sablosky 2021, 1023 ff.). Investments by international corporations led to a sudden 4G coverage rate of 97% of the population, with mobile phone penetration exceeding 100% (Sablosky 2021, 1025).
As part of the so-called Facebook Zero Initiative, Mark Zuckerberg ostensibly pursued philanthropic intentions to provide development aid in the Global South. Starting in 2013, the initiative “Free Basics” (formerly “Internet.org”) offered a pre-installed platform on smartphones, granting users free data access to a limited number of basic services, including Facebook (Deejay et al. 2024, 1315; Tantacrul 2024; Tähtinen 2024, 6). Since most users refrained from using other paid services beyond the platform, Facebook effectively became synonymous with the internet in Myanmar (Tähtinen 2024, 2). The number of Facebook users surged from 2 million in 2014 to 30 million in 2017 (Singh 2018). Between 2011 and 2018, an average of 95% of the population used Facebook as their sole social media platform (Tähtinen 2024, 6).
Although Facebook promoted humanitarian and democratic values under the guise of fostering global connectivity and bridging the digital divide between the Global South and industrialized nations, the company acted solely out of expansionist motives. It failed to consider the political and cultural context or implement preventive measures to curb extreme speech before launching its services (Deejay et al. 2024, 1316–18). Facebook has been accused of violating net neutrality and engaging in digital colonialism in the Global South by prioritizing Western services and content with greater visibility while simultaneously collecting user data (Global Voices Advox 2017; Deejay et al. 2024, 1316).
Within academic discourse, the question remains unresolved as to what extent Facebook should bear responsibility for the organized crimes committed in Myanmar, given that military violence against Muslims had already occurred prior to the platform’s introduction (Samet, Arriola, and Matanock 2024, 958–59). Western literature presents two perspectives: on the one hand, Facebook is held accountable for facilitating violence; on the other hand, scholars argue that social media platforms like Facebook have the potential to foster democratic participation through access to diverse perspectives (Whitten-Woodring et al. 2020, 421) or even promote cultural tolerance (Samet, Arriola, and Matanock 2024, 959).
However, the intensity of radicalization and subsequent willingness to commit violence among users depends on the social environment in which social media is introduced. While the availability of social media had an overall negative impact on the events in Myanmar, the conflict escalated most in regions already experiencing heightened tensions between ethnic groups (Tähtinen 2024, 1). Regarding the intensification of anti-Muslim hate campaigns and the increase in attacks on minorities from 2012 onward, Tähtinen, building on the works of Adena et al. and Bursztyn et al., confirms the effectiveness of inciteful mobilization, emphasizing that recipients’ predispositions—such as prejudice and intolerance—are decisive factors (see Tähtinen 2024, 20; Adena et al. 2015; Bursztyn et al. 2019).
Nevertheless, Facebook adopted a defensive stance, rejecting ethical responsibility by promoting techno-optimistic narratives that scapegoated Myanmar itself (Deejay et al. 2024, 1319–20). These narratives align with a Silicon Valley mindset, framing the Myanmar government’s lack of digital literacy and the population’s inability to responsibly engage with social media as failures to meet the purported promises of new technologies (Deejay et al. 2024, ebd.). This highlights the epistemic power imbalance between the dominant Western knowledge system and the marginalized consciousness of invisibilized individuals in the Global South, who often struggle to resist techno-optimistic narratives (Deejay et al. 2024, 1317; see also Santos 2015).
The methodological concept of Extreme Speech not only enables the description but also a nuanced analysis of incitement and hate speech on Facebook in the context of the genocide against the Rohingya. However, the research questions formulated by Udupa and Pohjonen can only be addressed superficially within this essay.
The first question—what processes lead to the normalization or legitimization of hate-driven language?—can be answered through several factors. On the one hand, military actors in particular disseminated state propaganda, disinformation, and hate campaigns to stigmatize and mobilize against the Rohingya ethnic group, portraying them as „illegal migrants,“ Islamist extremists, or an economic threat (Whitten-Woodring et al. 2020, 409). Extremist figures such as Wirathu deliberately used Facebook for hate campaigns, with hundreds of posts being published per hour (Sablosky 2021, 1029). Many armed groups mimicked state functions on social media, presenting themselves as competent and legitimate state actors (Tønnesson, Zaw Oo, and Aung 2022, 200). They employed official state symbols, displayed supposed government structures and public services, and used parades to rally support (Tønnesson, Zaw Oo, and Aung 2022, 221). These strategies aimed to generate authenticity and credibility, reinforcing the legitimacy of these actors in the eyes of users (ibid.). Symbolic elements such as flags, anthems, and administrative structures played a crucial role in this process (ibid.). In this context, the smartphone became a central tool for leadership, control, reconnaissance, and coordination of actions (Tønnesson, Zaw Oo, and Aung 2022, 202).
On the other hand, Facebook’s recommendation algorithms amplified the spread of extremist content (Whitten-Woodring et al. 2020, 412–13). Polarizing posts, due to their high engagement rates, gained greater reach and contributed to the reinforcement of prejudices within so-called echo chambers (Whitten-Woodring et al. 2020, 410–12). This algorithmically promoted affective and attitudinal polarization made users more susceptible to disinformation, reinforced cognitive biases such as confirmation bias, and increased willingness to commit violence against the Rohingya (Whitten-Woodring et al. 2020, 417 ff.).
Another key factor was Facebook’s lack of adequate content moderation. While the company responded to international criticism during the restrictive phase (2017–2021) by removing hate speech and suspending accounts linked to nationalist actors and the Tatmadaw, the unequal treatment of different actors distorted the conflict dynamics (Tønnesson, Zaw Oo, and Aung 2022, 204). While certain groups continued to receive increased visibility and reach, counter-narratives and opposing voices were marginalized (Sablosky 2021, 1021; Tønnesson, Zaw Oo, and Aung 2022, 221 ff.).
The second question—how was language used as an instrument for enforcing authority and control?—partially overlaps with the first, as linguistic strategies served to legitimize acts of violence against the Rohingya. By spreading falsehoods and conspiracy theories, the Muslim minority was dehumanized and portrayed as a threat to Buddhism (Yue 2020, 820). This propagandistic rhetoric provided the ideological foundation for justifying violence (ibid.). Facebook functioned as a catalyst by facilitating the rapid dissemination of disinformation and intensifying polarization (ibid.). This confirms Udupa and Pohjonen’s assertion that social media platforms such as Facebook create a structural foundation for Extreme Speech (Udupa and Pohjonen 2019, 3052).
Facebook’s influence on the population of Myanmar highlights the problematic nature of uncritically applying Western concepts such as hate speech to Global South contexts. Such an approach overlooks cultural, social, and political nuances. The concept of Extreme Speech proves analytically valuable in this context, as it encompasses not only linguistic but also audiovisual elements. For example, images of killed opponents were disseminated as warnings to potential traitors (Tønnesson, Zaw Oo, and Aung 2022, 216). Furthermore, Udupa and Pohjonen emphasize that Extreme Speech serves an identity-forming function (Udupa and Pohjonen 2019, 3053). This is particularly evident in the mobilization of nationalist Buddhists, who defined their identity in opposition to the Rohingya through the use of Extreme Speech.
Facebook operates according to the principles of communicative capitalism. The company’s market orientation leads, on the one hand, to the monetization of communication by commodifying hate speech and, on the other, to structural irresponsibility regarding the social consequences of radicalization processes. This dynamic reflects a prioritization of economic expansion while simultaneously neglecting pluralistic governance and social integration (Sablosky 2021, 1026).
Against this backdrop, the question arises as to how Facebook’s market-driven logic has influenced the democratization process in Myanmar and whether it has provided the population with an illusion of political participation—particularly concerning the dissemination of incitement and hate speech. As Myanmar’s dominant news source, Facebook granted access to uncensored information, opinions, and perspectives not covered by traditional media (Whitten-Woodring et al. 2020, 420). This applied both to voices from minority regions and to those of the Buddhist majority society (ibid.). However, while media participation remained largely detached from real political decision-making, strategically deployed incitement was instrumentalized to mobilize violence—a form of political influence that did not align with democratic or parliamentary processes. Rather than acting as a neutral platform for political participation, Facebook ultimately had a destabilizing effect, undermining pluralistic governance structures by amplifying Tatmadaw propaganda and systematically reducing the visibility of ethnic minorities (Sablosky 2021, 1021).
Although Facebook cannot be considered the sole driver of religious intolerance in Myanmar—given the country’s generally high levels of religious discrimination, independent of social media (Samet, Arriola, and Matanock 2024, 959)—the platform fundamentally altered communication dynamics. The increasing speed, immediacy, and interactivity of digital communication significantly contributed to the escalation of social tensions (Tønnesson, Zaw Oo, and Aung 2022, 201; Maldar and Seyedzadeh Sani 2023, 281).
Facebook distorted political communication through three central psychopolitical mechanisms: (a) Condensation: Facebook’s platform design, combined with users‘ short attention spans, favors the dissemination of emotionalized and often highly simplified political content. The aim of these mechanisms is to maximize engagement through affective triggering (see Whitten-Woodring et al. 2020, 412). In doing so, Facebook not only reduces the substantive complexity of political debates but also shapes the form of discourse by having recommendation algorithms suggest simplistic technological solutions.
(b) Displacement: Political processes are increasingly integrated into everyday life, while the communicative market expands unchecked into all social spheres. In this context, Facebook exercises a disciplining form of power by possessing more extensive data on Myanmar’s population than national institutions (Tønnesson, Zaw Oo, and Aung 2022, 204). In a way, Facebook acts as a quasi-state actor, exerting global power, national sovereignty, and political authority to regulate political speech according to its own socioeconomic interests—whether consciously or unconsciously. This is particularly evident in the platform’s selective decisions on which actors to classify as extremists (Sablosky 2021, 1034).
(c) Denial: Facebook not only negates democratic deficits but also disclaims any responsibility for their consequences. From the perspective of corporate complicity, Facebook could be held legally accountable, as the platform’s deliberate use by authoritarian regimes to incite violent crimes could fall under corporate criminal liability (Yue 2020, 824 ff.). However, international legal frameworks are often non-binding, functioning more as normative guidelines than as enforceable regulations (Yue 2020, 816). As a result, Facebook operates in a largely lawless space without state oversight (Sablosky 2021, 1022). Since international criminal courts focus on prosecuting individual actors, corporate criminal liability at the international level remains unfeasible (Maldar and Seyedzadeh Sani 2023, 282). While national courts could hold corporations accountable (ibid.), this has not yet occurred in Myanmar.
Mark Zuckerberg publicly admitted that Facebook contributed to the spread of hate speech, harassment, and disinformation (Roose and Mozur 2018). Nevertheless, despite international criticism and reputational damage, the company continues its expansion into markets with high abuse potential (Yue 2020, 842; Nourooz Pour 2023, 108).
Facebook’s indifference toward the spread of disinformation and hate speech is particularly evident in its slow response to repeated warnings between 2012 and 2015 (Yue 2020, 843). In the category of ante-factum failures, Facebook’s potential liability includes the deliberate omission of effective measures against hate speech despite being aware of escalating tensions. This includes, in particular, the failure to allocate sufficient resources for adequate content moderation (Nourooz Pour 2023, 111). As Gillespie points out, moderation is an essential component of any platform (Gillespie 2018, 207). At the onset of the crisis, however, only a single individual was responsible for Burmese-language moderation (Sablosky 2021, 1033). Other languages were processed using inadequate translation tools, leading to either unrecognized or distorted hate speech (Sablosky 2021, 1032). A striking example of these moderation shortcomings is the erroneous translation of “Kill all the Kalars that you see in Myanmar; none of them should be left alive” into “I shouldn’t have a rainbow in Myanmar” (Sablosky 2021, 1032).
Even existing moderation mechanisms proved insufficient, as they failed to account for cultural sensitivities and did not differentiate particular contexts. This led to systemic errors in handling hate speech and disinformation. Another example of Facebook’s lack of understanding of Myanmar’s cultural complexity was its decision to establish Burmese as the sole default language on the platform (Sablosky 2021, 1033). This aligned with the Tatmadaw’s longstanding policy of marginalizing indigenous languages (ibid.). Furthermore, Facebook’s removal of the term “Kalar”—an ethnic slur against the Rohingya, but also a neutral word in other contexts—resulted in the elimination of everyday vocabulary (Sablosky 2021, 1033).
In the category of post-factum failures, Facebook has failed to support key transitional justice processes (Nourooz Pour 2023, 105 ff.). This includes providing relevant data on hate speech and violent crimes, supporting victims and affected communities, and adapting internal policies to prevent future offenses (ibid.).
In an unregulated market, Facebook has formed a dangerous symbiosis with the Myanmar government and certain military actors, characterized by a significant power imbalance. On the one hand, Facebook, as a critical communication infrastructure, pursues an expansionist agenda by entering new markets and fostering dependencies. This occurs through violations of net neutrality and the establishment of a near-monopolistic market position. On the other hand, the Myanmar government utilizes Facebook as an effective and efficient tool to propagate its ethno-nationalist agenda, particularly by mobilizing the Buddhist majority against Muslim minorities.
In the context of digital colonialism, Myanmar exhibits a dual dependency on Facebook, which stems from the global economic disparity between the Global North and South. First, the state lacks the legal means to challenge the platform’s data-extractive and polarization-driven market mechanisms. Second, Myanmar is often portrayed as the sole scapegoat for escalating violence in Western techno-optimistic discourse, while the role of digital infrastructure remains largely unexamined.
The concept of Extreme Speech is closely intertwined with communicative capitalism—both operate like interlocking puzzle pieces. Extreme Speech and communicative capitalism alike normalize and facilitate hate-driven discourse. While Extreme Speech, in the form of disinformation and targeted hate campaigns, is amplified by recommendation algorithms—thereby increasing engagement rates and reinforcing prejudices—communicative capitalism functions as a value-neutral, market-driven system that not only enables but actively commodifies these processes. The market-oriented logic of social platforms ultimately leads to structural irresponsibility, with profit maximization as the primary goal. This is particularly evident in the systematic reduction of resources allocated for adequate content moderation, which further exacerbates the spread of Extreme Speech.
The mechanisms of Extreme Speech align with the three psychopolitical mechanisms of communicative capitalism: (a) Condensation: The structure of Extreme Speech mirrors the operational logic of social platforms by adapting to users‘ reduced attention spans and amplifying content through emotional polarization. (b) Displacement: Similar to political discourse, Extreme Speech increasingly permeates everyday life, extending its impact beyond the digital sphere. (c) Denial: Due to its gradual normalization, Extreme Speech is not only tolerated but, within a largely lawless space devoid of state regulation, actively denied.
Although Extreme Speech, from a holistic perspective, can be considered a form of political agency—both through participation in social media and the physical violence it incites—it remains largely disconnected from real political decision-making in Myanmar. Nonetheless, it is intrinsically linked to communicative capitalism, as both mechanisms ultimately serve to commodify communication and sustain a profit-driven market system.
Facebook’s persistent market orientation at the expense of social responsibility is evident not only in its role in Myanmar but also in recent developments. The planned discontinuation of professional fact-checking on Meta platforms in favor of Community Notes once again underscores the prioritization of economic interests over the protection of democratic discourse. This decision, mirroring policies enacted by other tech billionaires such as Elon Musk, poses the risk of further normalizing and amplifying disinformation and Extreme Speech. It also highlights that, despite international criticism and the company’s own acknowledgment of past failures, Facebook has implemented few meaningful regulatory measures to address problematic content. Thus, Facebook remains a key actor in communicative capitalism—one that perceives digital communication not as a public infrastructure but as a commodity, with profound social and political consequences.