“Siri, hoe laat is het in Israël?” “In Jeruzalem, Israël, is het 13 uur 20.” “Oké. Siri, hoe laat is het in Palestina?” “Ik weet niet hoe laat het daar is, het spijt me.” Met dit gesprekje gaat Maya-Nora Saaid, TikTok-journalist bij Middle East Eye viral. “Het is gewoon dezelfde tijd in Israël en Palestina, dus waarom krijg ik het antwoord dat het niet herkend wordt? Dat was het shockerende effect van de video, denk ik.” Niet veel later krijgt ze de melding dat ze niet kan inloggen op haar TikTok-account, ze is permanently bannend. “Ik schrok wel,” blikt ze terug. Ze mailt TikTok, maar krijgt nooit reactie op de vraag waarom. Pas als haar werkgever mailt, krijgt ze opeens weer toegang tot haar account.
Opeens niet meer kunnen inloggen in je socialmedia-account, dat overkwam Maya-Nora Saaid, TikTok-journalist bij Middle East Eye. Inmiddels is ze weer online, maar het blijft onduidelijk waarom ze precies geband werd nadat ze een video plaatste waarin ze Siri om de tijd in Israël en Palestina vroeg. Volgens schrijver Jillian York gebeurt het vaker dat content verwijderd wordt en zijn vooral kwetsbare en gemarginaliseerde groepen het slachtoffer. In Brainwash Bits laat ze zien hoe de censuur van social media werkt en wat de gevolgen kunnen zijn voor de democratie.
"You are permanently banned"
Social media als censor
Schrijver en activist Jillian York kijkt er niet van op. Ze ziet vaker dat sociale media berichten of accounts verwijderen van activisten en anderen die zich uitspreken over de Palestijnse zaak. “Conservatieven klagen vaak over linkse vooroordelen op platforms, maar dat is onzin, volgens mij.” Het is waar dat conservatieve stemmen worden verwijderd, zegt York, maar ze zijn zeker niet de enigen. Activisten en gemarginaliseerde groepen worden nog veel harder getroffen, stelt ze. “Wanneer een politicus als Trump verwijderd wordt, of dat nou terecht is of niet, dan kan hij elders terecht, bij Fox News bijvoorbeeld.” Voor iemand als Saaid geldt dat niet.
Volgens York moeten we dit soort praktijken van socialmediaplatforms zien als censuur. Censuur is immers nooit enkel een staatsaangelegenheid geweest: trad vroeger de kerk op als censor, nu doen social media dat. Ze hebben een grote invloed op wat we online kunnen zeggen. “Bedenk daarbij dat niemand Mark Zuckerberg of Elon Musk heeft gekozen als CEO van zo’n platform,” merkt York op.
Wie verwijdert wat niet mag?
Hoe gaat dat dan precies in z’n werk, censuur op social media? Via contentmoderatie, legt York uit. Dat kan op twee verschillende manieren: reactief, waarbij gereageerd wordt op bijvoorbeeld meldingen van gebruikers (die berichten kunnen flaggen omdat ze die ongepast vinden, of in strijd met de richtlijnen) of proactief, waarbij algoritmen content identificeren en gebruikers bannen. In het begin verzorgden platforms de moderatie van content zelf, maar tegenwoordig wordt die uitbesteed aan externe bedrijven en steeds verder geautomatiseerd. “Door automatisering is het foutpercentage veel hoger,” volgens York. Dat zie je bijvoorbeeld in het geval van terrorisme. Op zich een goed idee om dat te censureren, denkt York, maar door automatisering wordt bijvoorbeeld ook journalistieke en kunstzinnige content verwijderd.
Wie bepaalt wat je mag posten?
Sociale media hebben hun eigen richtlijnen voor wat wel en niet mag op hun platforms, die zijn ingegeven door wat zij zelf belangrijk vinden. Dat strookt vaak met de waarden van hun oprichters, merkt York op, en die zijn vaak mannelijk, wit en hoogopgeleid. Veel richtlijnen zijn daarom ‘cultureel Amerikaans’: ze zijn veelal puriteins, maar hebben een vrij hoge tolerantie voor geweld. Geen goede afspiegeling van de waarden van hun diverse groep gebruikers dus.
Hoewel ze veel zelf mogen bepalen, moeten socialmediaplatforms wel rekening houden met overheden en nationale wetgeving. Een voorbeeld is de Duitse Network Enforcement Act, NetzDG, die door heel veel landen is overgenomen, soms zelf in strengere vorm. “Die wet eist dat bepaalde content snel verwijderd moet worden op straffe van boetes en andere sancties.” Of bedrijven luisteren naar overheden, hangt er vanaf hoe groot hun belangen in een bepaald land zijn, oftewel, hoeveel geld er verdiend kan worden.
Kapitalistische logica en de democratie
Want daar gaat het deze platforms uiteindelijk om: winst maken. Hun verdienmodel heeft grote invloed op contentmoderatie. “Platforms drijven op advertenties die gestuurd worden door data en informatie die wij delen. Soshana Zuboff noemt dat surveillance capitalism.” Die kapitalistische logica is niet onschuldig en kan grote gevolgen hebben volgens York. Denk bijvoorbeeld aan wat er gebeurde in Myanmar. “Facebook liet hate speech ongemoeid, wat leidde tot geweld en genocide, volgens de VN.” Dat kon gebeuren omdat er veel te weinig moderators actief waren in de lokale taal. Facebook vond dat de investering niet waard.
Sociale media zijn als virtuele dorpspleinen cruciaal voor de democratie, zegt York. Daarom is het belangrijk dat social media desinformatie proberen te bestrijden. Je ontkomt er dan niet aan om content te modereren en dat is op zich niet slecht, denkt York. Maar platforms hebben wel de plicht om mensenrechten mee te wegen in wat ze acceptabel vinden. Verder is het belangrijk dat platforms veel transparanter worden, gebruikers beter inlichten over wat ze kunnen doen als content wordt verwijderd en hen meer zeggenschap geven over wat ze in hun feed zien. “We moeten ons als gebruikers blijven inzetten voor onze rechten en voor beter beleid. En we mogen niet vergeten dat deze platforms essentieel zijn voor mensen van over de hele wereld die geen alternatieven hebben.”
Jillian C. York is schrijver en activist. Ze onderzoekt de impact van technologie op onze samenleving en culturele waarden. Ze woont in Berlijn en is de Director for International Freedom of Expression bij de Electronic Frontier Foundation. In 2021 verscheen haar boek Silicon Values: the Future of Free Speech Under Surveillance Capitalism.