Redactie - 08 augustus 2025

Amnesty International: Algoritmes van X droegen bij aan racistisch geweld in het VK

Het sociale mediaplatform X (voorheen Twitter) speelde een centrale rol in de verspreiding van misinformatie en haatzaaiende berichten die leidden tot racistisch geweld tegen moslims en migranten in het Verenigd Koninkrijk. Dit concludeert Amnesty International in een recent technisch rapport. De analyse volgt op de moord op drie jonge meisjes in Southport op 29 juli 2024.

Amnesty International: Algoritmes van X droegen bij aan racistisch geweld in het VK image

Volgens Amnesty leidde het algoritme van X tot een versterking van valse en opruiende verhalen over de dader, Axel Rudakubana. Binnen enkele uren na de aanval verspreidde zich misinformatie over zijn identiteit, religie en immigratiestatus. Berichten die de dader onterecht aanmerkten als een moslim of asielzoeker, werden miljoenen keren bekeken.

De technische analyse van Amnesty toont aan dat het "For You"-algoritme van X systematisch content bevoordeelt die verontwaardiging opwekt en veel engagement genereert, zonder voldoende waarborgen tegen het verspreiden van schadelijke inhoud. "Ons onderzoek toont aan dat de algoritmische keuzes van X hebben bijgedragen aan verhoogde risico's te midden van een golf van anti-moslim en anti-migranten geweld in het VK," aldus Pat de Brún, hoofd van Big Tech Accountability bij Amnesty International.

Sinds de overname door Elon Musk eind 2022 heeft X een aanzienlijke verlaging van de moderatiecapaciteit doorgevoerd en diverse verbannen accounts hersteld, waaronder die van bekende extreemrechtse figuren. Ook Musk zelf versterkte de onjuiste verhalen door opruiende reacties te plaatsen. Amnesty International roept op tot strengere regulering, zodat platforms als X verantwoordelijk kunnen worden gehouden voor de schade die hun ontwerpkeuzes veroorzaken.

Lees meer hier.

Gartner BN tm 12-11-2025 - 4