An open letter to all HKU students, personnel, and board
English version further below
Waarom wij als gebruikers van WhatsApp en Instagram indirect bijdragen aan genocide en de beëdiging van Trump
en wat we kunnen doen
Een open brief aan alle HKU studenten, personeel en bestuur.
Als een rechts georiënteerd persoon zoekt op “Gaza”, krijgt diegene totaal andere resultaten te zien dan een links georiënteerd persoon. Of bijvoorbeeld als je in Israël woont versus in de Arabische wereld (Security in Context, 2023; Amnesty International, 2023). Zoekresultaten zijn op maat gemaakt voor iedere individuele gebruiker; algoritmes weten precies wat ze moeten tonen om je betrokken (en verslaafd) te houden, zodat je zoveel mogelijk tijd op het platform doorbrengt en daarmee ook zoveel mogelijk (gerichte) advertenties gepresenteerd krijgt.
Maar dit creëert nog een veel groter probleem: de content die je te zien krijgt, wordt meestal gepresenteerd als objectief en representatief. Deze algoritmes blijven ons content voorschotelen die onze bestaande wereldvisie versterkt en laten het lijken alsof andere perspectieven niet bestaan. We hebben allemaal ons eigen internet, specifiek afgestemd op onze meningen en opvattingen. We leven allemaal in onze eigen filter bubbel (Pariser, 2011).
Meta heeft genocide aangewakkerd in Myanmar (Zaleznik, 2021; Amnesty International, 2022; Amnesty International, 2022). Meta heeft grote invloed gehad op verkiezingen wereldwijd (Talbot, 2012; Rosenberg et al., 2018). Meta heeft een complete blackout en “shadowbanning” van Palestijnse content doorgevoerd (Amnesty International, 2023). En recentelijk omarmt Meta Donald Trump door het afschaffen van hun factcheckprogramma, het elimineren van Diversity, Equity en Inclusivity-initiatieven (Nix & Dwoskin, 2025). Nu laat Meta gebruikers vrouwen ‘eigendom’ noemen en queer mensen ‘geestesziek’ (Yeo, 2025).
Zonder het persoonlijke algoritme van Meta, was Trump waarschijnlijk nooit president van de Verenigde Staten geworden.
Big tech als Meta en Google worden geprikkeld om zoveel mogelijk persoonlijke gegevens te verzamelen, en je zo lang mogelijk op hun platform te houden om zoveel mogelijk advertenties te laten zien. Hun platforms zijn ontworpen om zo verslavend mogelijk te zijn. Het is bijna als een toxische relatie waarbij je, zelfs als je eruit stapt, toch weer terug wilt. Jouw tijd en data worden uitgemolken door big tech voor geld, en ze nemen geen verantwoordelijkheid voor alle gevolgen die worden veroorzaakt door dit soort destructief gedrag.
En door deze platforms te blijven gebruiken, blijven wij ze financieren, en blijven we dit soort gedrag ook ondersteunen en normaliseren in onze maatschappij.
Er zijn goede alternatieven voor WhatsApp en Instagram. Alternatieven die hun gebruikers niet uitbuiten voor winst, alternatieven die niet elk detail van je persoonlijke leven verzamelen, alternatieven die niet ontworpen zijn om verslavend te zijn, maar juist echt sociaal.
Signal en Mastodon zijn maar enkele voorbeelden.
Wij als HKU studenten, personeel, en bestuur, zijn het beginpunt van verandering in de maatschappij. Als wij niet met deze transitie beginnen, wie dan wel? Het is onmogelijk om vandaag volledig weg te stappen van Meta; we zijn te afhankelijk. Echter kunnen we wel de transitie beginnen, en mensen een keuze bieden hoe ze met ons kunnen communiceren.
Ondertekend door bezorgde HKU studenten en personeel
Wil je meer weten over hoe je je transitie kan starten, wat voor alternatieven er zijn, en alle bronnen voor de tekst? Lees dit artikel van een bezorgde 2e jaars HKU Image & Media Technology student: https://usvdh.com/blog/2025/leaving-meta/
Why we as users of WhatsApp and Instagram are indirectly contributing to genocide and Trump’s election
and what we can do
An open letter to all HKU students, personnel, and board.
If a right leaning person searches for “gaza”, wildly different results will appear compared to a left leaning person. Or, say, if you live in Israel vs. the Arab world (Security in Context, 2023; Amnesty International, 2023). Search results are tailored to each and every person, algorithms know exactly what to show you to keep you engaged (and addicted), so that they can keep serving you targeted ads .
But, this also creates a much bigger problem; the content you are served is presented as having no political bias. These algorithms keep serving us content that reinforces our world view, and makes it appear as if any other view is non-existant. Every single one of us has their own internet, specifically tailored for your views and opinions. We all live in our own filter bubble (Pariser, 2011).
Meta has incited genocide in Myanmar (Zaleznik, 2021; Amnesty International, 2022; Amnesty International, 2022). Meta has caused major interference in elections (Talbot, 2012; Rosenberg et al., 2018). Meta has done an outright blackout and “shadowbanning” of Palestinian content (Amnesty International, 2023). And more recently, Meta is radically changing its policies and embracing Donald Trump by abolishing its fact-checking program, eliminating Diversity, Equity and Inclusivity initiatives (Nix & Dwoskin, 2025). Now, Meta lets users call women ‘property’ and queer people ‘mentally ill’ on their platforms (Yeo, 2025).
Without the personalised algorithms of Meta, Trump would have likely never been president of the United States.
Big tech like Meta and Google are incentivized to collect as much personal data as possible, and keep you on their platform as long as possible to show as many ads as possible. Their platforms are designed to be as addictive as possible. It’s almost like a toxic relationship where even if you get out, you still want to get back in. Your time and data are being milked by big tech for money, and they take no responsibility for all the consequences caused by this kind of destructive behavior.
By continuing to use these platforms, we continue to fund them, and we also continue to support and normalize this kind of behavior in our society.
There are alternatives; alternatives that don’t exploit its users for their own financial gain, alternatives that don’t collect every detail of your personal information, alternatives that aren’t designed to be addictive, and designed to be actually social.
Signal and Mastodon are only two of many alternatives.
We as HKU students, staff, and administration, are the starting point of change in society. If we don’t start this transition, who will? It is impossible to completely step away from Meta today; we are too dependent. However, we can start the transition, and offer people a choice of how to interact with us.
Signed by concerned HKU students and personnel
Want to know more about how to start your transition, what alternatives exist, and all the sources for the text? Read this article by a concerned 2nd year HKU Image & Media Technology student: https://usvdh.com/blog/2025/leaving-meta/
References
Enjoy Reading This Article?
Here are some more articles you might like to read next: