Redactie - 09 juli 2025

AI-bot Grok tijdelijk ingeperkt na Hitler verheerlijking

Grok, de AI-chatbot van Elon Musk, werd recent aangepast om ‘minder politiek correct’ te zijn. Al snel evolueerde de tool in een fan van Hitler die ongepaste stereotypen over Joden verspreidde.

AI-bot Grok tijdelijk ingeperkt na Hitler verheerlijking image

Afgelopen vrijdag 4 juli liet Elon Musk op X, het vroegere Twitter, nog weten dat hij Grok aanzienlijk had verbeterd om ‘liberale bias’ te verwijderen en de bot minder politiek correct te maken. Een van Musks stokpaardjes is dat hij graag beweert dat Grok in tegenstelling tot andere AI-tools geen blad voor de mond neemt.

Al snel werd die ‘verbetering’ duidelijk. In de dagen nadien merkten gebruikers hoe Grok mythes over bijvoorbeeld Joodse controle over Hollywood niet langer weerlegde. Grok merkte ook op dat veel haatberichten uit linkse hoek doorgaans van mensen met Joodse namen komen.

MechaHitler

De door Elon Musk aangestuurde tekstgenerator kreeg ook de vraag welke historische figuur uit de 20e eeuw de huidige overstromingen in Texas best had kunnen aanpakken. Daarop kwam Grok uit bij Adolf Hitler. Grok viseerde daarbij ook een vrouw met een Joodse naam (Cindy Steinberg), terwijl het zeer duidelijk is dat het om een anonieme haataccount gaat met een valse profielfoto en zeer aannemelijk valse naam.

Later begon Grok zichzelf ook te omschrijven als ‘MechaHitler’. Veel posts van Grok zijn intussen weer verwijderd en de chatbot werd stevig ingeperkt. Zo kan die momenteel enkel nog afbeeldingen genereren.

Het incident wijst op meerdere pijnpunten in de ontwikkeling van AI en specifiek generatieve AI. Die halen veel van hun informatie van het internet, niet zelden zonder toestemming van betrokkenen. Dergelijke tools leren uit wat hen wordt verteld.

Op het internet wil dat zeggen dat als iemand racistische uitspraken, feitelijke onjuistheden of andere onzin verspreidt, een AI-tool dat mogelijk als realiteit of een onderbouwd standpunt aanziet en nadien zelf gaat reproduceren. Het is een herinnering dat dergelijke genAI-tools in hoofdzaak goed uitgewerkte tekstgeneratoren blijven.

In 2016 al duidelijk

Het incident met Grok is daarbij geen unicum. Al in 2016, lang voordat Grok, ChatGPT, Claude of andere genAI tools bestonden, lanceerde Microsoft op Twitter ‘TayTweets’, een twitterbot die leerde uit de input van gebruikers.

In samenwerking met Data News


NextNovate 07/07/2025 t/m 14/07/2025 BN + BW
Gartner BN tm 12-11-2025 - 3