Robbert Dijkgraaf betoogt dat de huidige AI-doorbraken vooral het resultaat zijn van enorme hoeveelheden data en rekenkracht, maar dat deze aanpak tegen grenzen aanloopt (NRC 17/01/2026). Hij stelt daartegenover het leervermogen van jonge kinderen. Peuters en kleuters kunnen met zeer weinig voorbeelden complexe patronen herkennen en nieuwe verbanden leggen, iets waar AI miljoenen voorbeelden voor nodig heeft. Volgens Dijkgraaf moeten we AI-ontwikkeling meer richten op exploratie en ingebouwde leerstrategieën, zoals bij kinderen. Maar ik betwijfel of we kunstmatige intelligentie op dezelfde manier moeten maken als menselijke intelligentie. Ik zou het eerder als een aanvulling willen zien, zoals een prothese voor het brein.
Ten eerste is de menselijke intelligentie helemaal niet zo intelligent. Een universiteit bouwde ooit een robot die perfect functioneerde, maar bij het aanzetten bleef hij liggen. De robot was verlamd door de dingen die hij berekende: wat als de vloer instort, of er een atoombom op het dak valt, of de natuurwetten veranderen en hij door de centrifugale kracht de ruimte in wordt geslingerd? Het menselijke brein daarentegen gebruikt heuristieken. Dit zijn eenvoudige beslisregels die mensen gebruiken om snel met beperkte informatie tot een oordeel te komen. Dus shortcuts.
Maar deze shortcuts zijn het resultaat van 3,8 miljard jaar darwinistische processen. Random genetische mutaties leiden tot nieuwe lichaamsdelen en gedragspatronen. De lichamen en gedragsvormen die toevallig in een bepaalde omgeving tot meer nakomelingen resulteren zorgen ervoor dat de genen die deze veroorzaken doorgegeven worden en blijven bestaan.
Deze shortcuts hoeven niet objectief te zijn. We nemen slechts een gedeelte van het elektromagnetische spectrum waar en het brein construeert een innerlijke werkelijkheid die niet per se overeenkomt met de objectieve werkelijkheid. Bijvoorbeeld het Pavloviaanse instinct doet ons causaliteit in de wereld projecteren. We zien slechts een gedeelte van de omgeving en het brein construeert het volledige beeld. Het brein construeert een toekomstig beeld om de zintuigen met elkaar te synchroniseren. We zien een hamer op onze voet vallen en voelen simultaan de pijn, terwijl de signalen op verschillende tijdstippen in het brein aankomen.
We projecteren ‘objecten’ in de wereld. Er bestaan geen tafels en bomen, alleen atomen die bij elkaar blijven. Maar de hersenen behandelen de wereld alsof er objecten zouden bestaan, omdat dit een heuristiek is die ons heeft doen overleven. Dezelfde heuristiek verzint zoiets als betekenis van woorden, zinnen of andere taalconstructies. Maar de betekenis bestaat niet in de fysieke werkelijkheid. We leven dus in een parallel universum, maar deze trucjes hebben gezorgd dat we als soort hebben overleefd.
We passen deze slimmigheidjes ook op sociaal niveau toe als vooroordelen en cognitieve biases. Een daarvan is de ingroup-bias die in de geschiedenis een oneindig aantal oorlogen en genociden heeft veroorzaakt. Ook hier leven we in een parallel universum. We zien bijvoorbeeld de godsdienstwaanzinnigen in Iran, of de westerse christelijke zeloten die met hun politieke macht de illegale Israëlische bezetting in stand houden.
Dijkgraaf suggereert dat de mens van nature een wetenschapper is, maar niets is minder waar. Mensen zijn ontzettend slecht in het maken of herkennen van deugdelijke argumenten, of drogredenen. Wetenschappers als Hugo Mercier en Dan Sperber hebben in The Enigma of Reason laten zien dat het menselijke argumentatievermogen primair is geëvolueerd om te manipuleren, loyaliteit te tonen en conflicten te winnen. Niet om waarheid te ontdekken. Dat verklaart waarom mensen zo resistent zijn tegen tegenargumenten zelfs wanneer die zorgvuldig en uitvoerig worden gepresenteerd.
Daar zijn de huidige Large Language Models veel rationeler in. Ik schrijf een boek over de drogredenen van de Israël-supporters in het publieke debat, zoals Kamerdebatten en opiniepagina’s. Ik heb een aangepaste ChatGPT gemaakt met slechts 64 woorden. Ik plak daar een opiniestuk in en geef het een simpele opdracht: “Formaliseer het argument in dit stuk. Daarna vindt de drogredenen.” ChatGPT maakt een bijna perfecte reconstructie van het argument in een stuk en zet het in premissen en conclusies. Daarna ontdekt het de drogredenen op een bijna perfecte wijze.
Neem bijvoorbeeld het nieuwste opiniestuk van Lale Gül in de Telegraaf. ChatGPT erkende onmiddellijk een ad hominem in het feit dat zij de Palestina-supporters van antisemitisme beschuldigt omdat ze alleen voor Palestijnen zouden opkomen en niet voor Iraniërs. In de hele honderd jaar zolang dit conflict heeft geduurd, herhalen de Israël-supporters dezelfde drogredenen en ze kunnen ook niet van gedachte veranderen. Neem bijvoorbeeld wetenschapsfilosoof Maarten Boudry. Wetenschapsfilosofie houdt zich bezig met de best mogelijke argumenten om onze kennis te verbreden, dus hij zou immuun moeten zijn voor drogredenen. Maar Boudry herhaalt dezelfde drogreden als Gül, zelfs nadat ik hem in mails van 6000 woorden heb uitgelegd waarom het een drogreden is.
Dus als we kunstmatige intelligentie op dezelfde manier maken als het menselijke brein, produceren we meer kunstmatige domheid dan intelligentie. Het is dus maar de vraag of we een kopie van het brein willen maken, of juist een betere manier van redeneren.
Geredigeerd door Pascale Esveld
https://www.uitgeverijpartout.nl/blog/2844370_waarin-ai-agi-vooralsnog-schromelijk-tekort-schieten
Interessante materie !!
Quote:
…of de westerse christelijke zeloten die met hun politieke macht de illegale Israëlische bezetting in stand houden.
Je bedoelt waarschijnlijk ipv christelijk Joods, of anders zionistisch?
Ter info nog deze:
https://www.uitgeverijpartout.nl/blog/2994750_hpdetijd-gooit-met-donkerbruine-modder-naar-de-universiteiten