23 januari 2026

Menselijke versus kunstmatige intelligentie

In een recent LinkedIn-artikel werd scherp blootgelegd hoe fundamenteel verschillend menselijke en kunstmatige intelligentie eigenlijk functioneren. Niet zozeer in wat ze produceren, maar in hoe ze tot die productie komen. Mensen en grote taalmodellen (LLMs) kunnen zinnen schrijven die sterk op elkaar lijken, vergelijkbare beoordelingen geven en soms zelfs identieke conclusies trekken.

Menselijke versus kunstmatige intelligentie image

Die gelijkenis is echter oppervlakkig. Onder de motorkap gaapt een ontologische kloof: een fundamenteel verschil in de aard van hun bestaan. Menselijke intelligentie ontstaat uit een belichaamd, ervaringsrijk leven in de wereld. Kunstmatige intelligentie daarentegen berust op statistische patronen tussen symbolen — zonder lichaam, zonder ervaring, zonder eigen verhouding tot de werkelijkheid.

Oordeel is belichaamd

Menselijk oordeel ontstaat uit een geleefd leven. Het wordt gevormd door lichamelijke ervaring, emoties, herinneringen, sociale interacties, morele intuïties en intenties. Een mens oordeelt niet alleen over de wereld, maar altijd in de wereld — met een lichaam, in een tijdsverloop, met persoonlijke inzet en verantwoordelijkheid.

Een taalmodel heeft niets van dat alles. Het kent geen ervaring, geen lichaam, geen tijdsbesef, geen intentie. Het verwerkt tekst door die op te knippen in tokens — kleine, op zichzelf betekenisloze eenheden — en berekent welke woorden statistisch het meest waarschijnlijk op elkaar volgen. Betekenis ontstaat niet uit beleefde realiteit, maar uit waarschijnlijkheidsverdelingen over enorme tekstkorpora. Woorden verwijzen niet naar de wereld, maar naar andere woorden.

En toch: de output kan verbluffend menselijk lijken.

Wanneer plausibiliteit kennis begint te vervangen

Wanneer radicaal verschillende processen tot vrijwel identieke taal leiden, verschuift het probleem van technologie naar epistemologie: de vraag wat we eigenlijk als kennis accepteren.

Het risico zit niet primair in leugens — taalmodellen liegen zelden bewust — maar in de illusie die ontstaat wanneer vloeiende, coherente taal verificatie begint te vervangen. Wanneer de vorm van kennis — overtuigend, grammaticaal perfect, zelfverzekerd — de daadwerkelijke arbeid van kennen overschaduwt.

Dit is geen academisch detail, maar een praktische waarschuwing voor iedereen die AI inzet voor evaluatie, advies of oordeel.

Een oude droom in een nieuwe gedaante

Het verlangen om denken mechanisch te reproduceren is oud. Griekse mythen verhalen over de gouden automaten van Hephaestus. De Joodse golem werd tot leven gewekt door letters. In de middeleeuwen droomde Ramon Llull van logische machines; Leibniz fantaseerde over een calculus ratiocinator die conflicten oplost met symbolen. Descartes en La Mettrie zagen de mens zelf als machine.

Alan Turing maakte deze droom in 1950 meetbaar met een pragmatische vraag: kan een machine gedrag vertonen dat niet van menselijk gedrag te onderscheiden is? Daarmee werd intelligentie gereduceerd tot imiteerbaar gedrag.

En precies daar staan we nu.

De studie van Loru et al.: een systematische blik

Een recente publicatie in Proceedings of the National Academy of Sciences biedt hier zeldzame helderheid: Loru et al. (2025). De onderzoekers lieten zes grote taalmodellen — waaronder varianten van ChatGPT, Gemini, Llama en Mistral — en mensen dezelfde taak uitvoeren: nieuwsbronnen beoordelen op betrouwbaarheid en bias, volgens identieke stappen (criteria kiezen, inhoud ophalen, uitleg geven).

Die beoordelingen werden vergeleken met expertanalyses van onder meer NewsGuard en Media Bias/Fact Check. Op het eerste gezicht presteren de modellen goed: de alignment met experts is vaak hoog.

Maar onder de oppervlakte verschijnen structurele verschillen.

Modellen leunen zwaar op lexicale patronen — woordkeuze, stijl, toon — in plaats van inhoudelijke context. Er ontstaan politieke asymmetrieën, waarbij bepaalde ideologische richtingen consistent als betrouwbaarder worden beoordeeld. En modellen blijken geneigd linguïstische elegantie te verwarren met epistemische kwaliteit.

De auteurs noemen dit fenomeen “epistemia”: de illusie van kennis wanneer plausibiliteit verificatie vervangt — of, in mooiere woorden, het overtuigend verbloemen van een inhoudelijk gebrek aan begrip.

Twee paden naar hetzelfde antwoord

Het menselijke pad

Informatie komt binnen via zintuigen → wordt gekoppeld aan herinneringen, emoties en waarden → verwerkt in sociale en morele context → leidt tot een oordeel dat onvermijdelijk gekleurd is door wie je bent.

Het model-pad

Tekst → tokenisatie → statistische voorspelling van het volgende token → laag na laag waarschijnlijkheidsberekening → output die volgens trainingsdata het meest “menselijk” aandoet.

De uitkomst kan identiek lijken.
Het proces is radicaal onpersoonlijk.

Implicaties: waar we nu staan

AI ondersteunt inmiddels talloze schaalbare taken: samenvattingen maken, patronen herkennen, hypotheses genereren, synthetische data produceren. Dat is waardevol.

Maar zodra we daadwerkelijk oordeel delegeren — in onderwijs, journalistiek, rechtspraak, beleid of zorg — moeten we ons realiseren wat we uitbesteden: geen inzicht, maar een plausibele simulatie ervan. De studie laat zien dat die simulatie overtuigend kan zijn, maar systematisch afwijkt op punten die ertoe doen: bias, contextgevoeligheid en normatieve diepgang.

Slot

De uitdaging is niet technologisch — modellen zullen onvermijdelijk beter worden. De uitdaging is menselijk: blijven we scherp zien wat AI níét is? Wie hier vaker over nadenkt, herkent dit spanningsveld. Techniek presenteert zich zelden als neutraal instrument, zeker niet wanneer zij zich vermomt als oordelend wezen.

De vraag is niet of kunstmatige intelligentie slim genoeg wordt. De vraag is of wij wijs genoeg blijven om het verschil te blijven zien.

*) Proceedings of the National Academy of Sciences biedt hier zeldzame helderheid: Loru, E. et al. (2025). The simulation of judgment in LLMs. PNAS 122(42): e2518443122. https://doi.org/10.1073/pnas.2518443122

Door: Hans Timmerman (foto)

PNY 01-2026 BW
Kickstart 2026 BN