BBC-onderzoek: Sociale media laten schadelijke content stijgen voor meer engagement
Uit een onthutsend onderzoek van de BBC blijkt dat socialmediagiganten Meta en TikTok bewust veiligheidsrisico's hebben genomen om de concurrentie met elkaar aan te gaan. Klokkenluiders uit de top van de bedrijven verklaren dat algoritmes zo zijn afgesteld dat 'outrage' (woede en verontwaardiging) wordt beloond, simpelweg omdat dit de gebruikers langer op de platforms houdt.
Het onderzoek, getiteld Inside the Rage Machine, werpt een schokkerig licht op de interne keuken van Silicon Valley. Sinds de explosieve groei van TikTok in 2020 voelen rivalen als Meta (eigenaar van Facebook en Instagram) een enorme druk om marktaandeel terug te winnen. Volgens insiders heeft dit geleid tot een "algoritmische wapenwedloop" waarbij de bescherming van gebruikers het onderspit dolf.
Winst boven welzijn
Een technicus van Meta, die anoniem spreekt, schetst een cynisch beeld. Terwijl de beurskoers van het bedrijf onder druk stond, kreeg zijn team de opdracht om meer 'borderline' content toe te laten. Dit is inhoud die net niet illegaal is, maar wel schadelijk, zoals complottheorieën en vrouwenhaat. "Men vertelde ons dat het nodig was omdat de aandelenprijs daalde," aldus de bron.
Oud-onderzoeker Matt Motyl bevestigt dit beeld. Volgens hem werd Instagram Reels gelanceerd zonder voldoende veiligheidsmechanismen. Interne documenten tonen aan dat Reels aanzienlijk meer haatzaaiende uitlatingen en geweld bevat dan de reguliere Instagram-feed. Terwijl Meta 700 medewerkers aannam om Reels te laten groeien, werden aanvragen voor extra personeel om verkiezingen en kinderen te beschermen stelselmatig afgewezen.
Politiek boven veiligheid bij TikTok
Ook bij TikTok zijn de bevindingen ernstig. Een medewerker gaf de BBC inzage in interne dashboards waaruit bleek dat klachten van politici prioriteit kregen boven meldingen over kindermisbruik of seksuele chantage. In één schrijnend geval werd een melding over een 16-jarige die werd afgeperst met naaktfoto's als 'lage prioriteit' gemarkeerd, terwijl een politicus die belachelijk werd gemaakt met een kip-filter direct hulp kreeg.
De reden? TikTok wil koste wat kost een goede verstandhouding met overheden behouden om een verbod op de app te voorkomen. De veiligheid van minderjarigen lijkt daarbij ondergeschikt aan het politieke overlevingsinstinct van het bedrijf.
De menselijke tol
De gevolgen van deze bewuste keuzes zijn in de echte wereld voelbaar. De 19-jarige Calum getuigt in de documentaire hoe hij vanaf zijn veertiende "geradicaliseerd werd door het algoritme". Hij kreeg steeds extremere, racistische beelden te zien die inspeelden op zijn innerlijke woede. Ook de politie bevestigt deze trend: agenten zien een zorgwekkende normalisering van antisemitisme en extreemrechts geweld op sociale media.
Ontkenning
Zowel Meta als TikTok ontkennen de beschuldigingen in alle toonaarden. Meta noemt de suggestie dat zij schadelijke content versterken voor financieel gewin "onjuist". TikTok spreekt van "gefabriceerde claims" en wijst op hun investeringen in moderatietechnologie.
De klokkenluiders blijven echter bij hun punt: de algoritmes zijn een 'black box' die zelfs door de makers niet volledig te controleren zijn. Hun advies aan ouders is dan ook ongezouten. "Verwijder de app," zegt de TikTok-insider. "Houd kinderen zo lang mogelijk weg bij deze machine."