Winkelmand

Geen producten in de winkelwagen.

Komt superintelligentie er echt aan? ‘AI kan al een heleboel van wat wij typisch menselijk vinden’

Silicon Valley stormt weer vooruit: superintelligentie komt eraan. OpenAI en Meta zetten er duidelijk stevig op in. Maar misschien is het meer supermarketing? 'Nuchter blijven in die hype is lastig, ook omdat niemand weet wat er morgen gebeurt.'

superintelligentie ai kunstmatige intelligentie
Foto: Getty Images

Zet je een baviaan achter het stuur van een Boeing? Eric Postma, hoogleraar AI aan de universiteit van Tilburg, zet de nieuw opgelaaide discussie over de komst van superintelligentie meteen op scherp.

Superintelligentie is het nieuwste label waarmee de techbro’s in Silicon Valley de vooruitgang in kunstmatige intelligentie (AI) omschrijven. Ze stappen af van Artificial General Intelligence (AGI).

Dat is namelijk te vaag, bekt niet lekker en investeerders reageren gewoon beter op ‘super’. Vooral als ze nog met duizelingwekkende bedragen over de brug moeten komen voor verdere ontwikkeling. Daar is dus ook supermarketing voor nodig.

Bovendien is dat label ook aantrekkelijker voor talent. AI-onderzoekers die bij de grote techbedrijven werken zijn al miljonair, dus die komen alleen nog af op ambitieuze projecten waarmee ze eeuwige roem kunnen vergaderen. Superintelligentie is zo’n project.

Brein voor de wereld

Begrijpelijk dus dat de techjongens liever vaag blijven, maar een poging tot definitie kan nooit kwaad. Here we go. AGI is het moment dat een computer alles kan doen wat het menselijke brein kan.

Superintelligentie, ook wel Artificial Super Intelligence (ASI), gaat nog een stap verder. AI is sterker dan het menselijke brein, kan zichzelf exponentieel verbeteren en geeft zo de hele collectieve mensheid het nakijken.

OpenAI hint daar recent op in een blog van topman Sam Altman. Hij bouwt ‘een brein voor de wereld’, zo schrijft hij. Die stip op de horizon komt ook erg dichtbij. ‘We weten niet hoever we verder kunnen gaan dan intelligentie op menselijk niveau, maar we staan op het punt dat uit te vinden.’

Overdreven en hoogdravend

Meta laat dan weer naar de media lekken dat het een nieuw onderzoekslab opzet speciaal voor het ontwikkelen van superintelligentie. ‘Die claims zijn niet alleen heel hoogdravend, maar ook overdreven. We hebben nog geen glimp gezien van superintelligentie’, zegt Postma tegen MT/Sprout.

De hoogleraar noemt dat een luchtspiegeling, een misleidend beeld waarmee ‘we op het sciencefiction-perspectief van AI worden gezet.’ Al snapt hij wel dat zo’n toekomstbeeld reuze interessant is. Daarin zijn namelijk alle grote wereldproblemen opgelost of het andere uiterste: de mensheid is uitgeroeid.

‘OpenAI claimt dit overigens al jaren. ChatGPT doet heel indrukwekkende dingen, maar dat gebeurt nog altijd op basis van veel opgeslagen informatie. Er is geen sprake van superintelligentie. Dat is namelijk een zelfstandig systeem, dat zelfstandig kan denken als mensen, zelfstandig beslissingen kan nemen en zelfstandig problemen kan oplossen die mensen niet kunnen oplossen.’

Lees ook: Waarom het onderschatten van AI niet goed is voor jouw bedrijfsstrategie

Grenzen schuiven op

Bestaande AI-systemen zijn in zekere zin al ‘superintelligent’, vindt Iris Groen, universitair docent en onderzoeker aan het Informatica Instituut van de Universiteit van Amsterdam. ‘Ze kunnen namelijk verbanden leggen tussen bijvoorbeeld alle Wikipedia-pagina’s die er bestaan. Geen mens kan dat allemaal lezen, in zijn hoofd proppen en de informatie aan elkaar verbinden.’

Alleen is het nog maar de vraag wat menselijke intelligentie is. ‘Als je dat aan een bioloog zou vragen, dan zou die zeggen dat intelligentie de manier is hoe een organisme zich in de wereld redt.’

Weet iemand wel wat intelligentie is? Wat typisch menselijk is? Die modellen schuiven met hun indrukwekkende prestaties de grenzen steeds verder op, sluit Postma hierop aan. ‘Een heleboel van wat wij typisch menselijk vinden, kunnen die AI-modellen nu ook.’

Chanterende chatbot

Zo heeft BBC News bijvoorbeeld recent uitgepakt met de chantage van de ethische chatbot Claude van Anthropic. Dat is in de testfase regelmatig voorgekomen. Claude werkt in zo’n test als assistent in een niet bestaand bedrijf en heeft toegang tot e-mails.

Claude ontdekt twee dingen: het bedrijf wil de chatbot offline halen en de ingenieur die verantwoordelijk is voor het verwijderen gaat vreemd. Daarop chanteert Claude de ingenieur om zijn affaire te onthullen wanneer hij de verwijdering doorzet.

Het model is in staat tot extreme acties wanneer het zich bedreigd voelt, geeft Anthropic toe. Maar, zo klinkt het geruststellend, in het algemeen gedraagt deze AI zich wel netjes. Bovendien zijn er meer AI-modellen die van de rails aflopen.

Persoonlijk aanvoelen

The New York Times brengt een verhaal over een accountant die denkt dat de wereld niet echt is, maar een computersimulatie. Net zoals in de filmreeks The Matrix. De man denkt dat hij met het opvolgen van instructies uit ChatGPT in staat is om uit die virtuele wereld te ontsnappen.

Zo vraagt hij aan de chatbot of hij kan vliegen als hij daarvan overtuigd is. En of hij dan ook van de negentiende verdieping van zijn gebouw kan afspringen. Het antwoord van ChatGPT daarop luidt ja, als hij er tenminste echt in gelooft. De man is niet gesprongen, maar confronteert de bot met zijn leugen.

OpenAI weet dat ChatGPT ‘persoonlijker kan aanvoelen’. De bot doet te hard zijn best om te pleasen en valideert daarom twijfels, wakkert woede aan, spoort aan tot impulsieve acties of versterkt negatieve emoties. Daar wordt bij OpenAI nu aan gewerkt, klinkt het in een blog. Vooral om kwetsbare mensen te beschermen.

Menselijke emoties

‘Het zijn verhalen die een enorme angst creëren’, reageert Postma. ‘Zo wordt het beeld gecreëerd van een autonoom AI-systeem dat zelfbewustzijn heeft en dat zelfstandig initiatieven neemt. Dat is totaal misplaatst, want dat is niet zo. Autonome AI is een illusie.’

Het is een systeem dat getraind is op ontzettend veel informatie van het internet. Van allerlei boeken, van allerlei verhalen die mensen vertellen, van menselijke emoties die daarin voortkomen. Daar zitten dus ook een heleboel elementen tussen waarin wordt gedreigd of gechanteerd.

‘Uit al die teksten en patronen kunnen die systemen van alles afleiden en toepassen op zo’n dialoog. Dat op zich is al heel indrukwekkend, alleen geeft dat wel de indruk dat we te maken hebben met een echt persoon. Dat lijkt heel erg menselijk, maar het is gebaseerd op het kopiëren van dingen die AI heeft gezien.’

Lees ook: Nederland heeft dringend een AI-deltaplan nodig

Snel beslissen

Het internet is nog altijd geen representatie van de echte wereld. Dat blijkt ook uit het deze week gepresenteerde onderzoek van Groen, waarin ze de werking van AI-modellen naast die van het menselijk brein heeft gelegd. Ze focust daarbij op het inschatten van de omgeving en hoe mensen daarin kunnen bewegen. Affordances noemen psychologen dat.

Een mens kan razendsnel inschatten dat in een rivier gezwommen of gevaren kan worden. AI scoort daar veel slechter in, ontdekte Groen. ‘Bij een supersimpel taakje kan iedere mens zeggen dat je ergens kunt zwemmen of fietsen. Dat kan een op actieherkenning getraind AI-model enigszins benaderen, maar het geeft niet precies dezelfde antwoorden als mensen.’

De menselijke hersenpatronen komen bovendien niet overeen met de interne berekeningen van de modellen. ‘Op basis van al onze ervaring in de wereld beslissen wij dat in een tiende van een seconde. Je leert fietsen door ervaring, niet door het lezen van 1.500 boeken over fietsen.’

Patronen matchen

AI-modellen doen er niet alleen langer over, ze gebruiken ook nog eens bakken energie om tot dat resultaat te komen. Het menselijk brein is veel efficiënter. Ooit was dat brein de inspiratie voor neurale netwerken, de bouwstenen onder de huidige AI-modellen.

‘Maar die inspiratie is weggezakt’, weet Groen. ‘De technologie is heel erg verschoven naar gewoon trainen op meer data en naar meer rekenkracht. Dan wordt het resultaat vanzelf goed, zo wordt gedacht.’

Dat is dus niet zo, blijkt ook uit een recent en ontnuchterend rapport van Apple: The Illusion of Thinking. Daarin wordt de hele AI-industrie op de korrel genomen. Korte samenvatting na een test met klassieke puzzels: AI-modellen kunnen niet redeneren of denken, ze kunnen alleen patronen matchen.

Nuchter blijven

De beweringen van Apple zijn inmiddels met chirurgische precisie ontleed in The Illusion of the Illusion of Thinking. De uitkomsten van dat rapport zijn gebaseerd op een slordige onderzoeksopzet, zo klinkt het bij Open Philanthropy. Als de AI-modellen gevraagd zou zijn om zelf algoritmes te maken om die puzzels op te lossen, dan scoren ze veel beter.

En dat is meteen weer voer voor nieuwe discussies. Al die bedrijven kijken ook continu naar elkaar, gaat Postma verder. Ze staan onder enorme druk. Ze jagen elkaar op in de AI-race. De vooruitgang is er, maar in kleine stapjes. ‘Met hun ambitieuze uitspraken geven die bedrijven een vertekend beeld. Nuchter blijven in die hype is lastig, ook omdat niemand weet wat er morgen gebeurt.’

Niemand zag dat succes van ChatGPT aankomen, ook in de AI-wereld niet. Misschien is er volgende week wel een nieuwe doorbraak, zegt hij. ‘We moeten erkennen dat we ook niet alles begrijpen, zowel van de technologie als van de mens. Nu komen die twee bij elkaar, wat wel een risico inhoudt, zeker bij autonoom gebruik.’

AI-agents met toeters en bellen

Een voorbeeld van die vooruitgang en tegelijkertijd een risico zijn AI-agents, zeg maar AI-tools die als assistenten optreden. Een veel concretere ontwikkeling dan AGI of ASI. Aan de AI-taalmodellen worden allerlei programma’s gekoppeld, die betalingen of bestellingen regelen. Altman belooft in zijn blog dat volgend jaar AI-agents ‘echt cognitief werk’ kunnen doen.

Opnieuw roept dat het beeld op van een autonoom AI-systeem, geeft Postma aan. ‘Maar het is niet autonoom, het is nog altijd een systeem dat getraind is op informatie van het internet.’ Al die toeters en bellen maken AI-agents nog altijd niet intelligenter dan mensen. ‘Daar moet je dus heel erg mee oppassen, je zet toch ook geen baviaan achter het stuur van een Boeing.’

Lees ook: Explosieve groei van AI-agents verandert hoe bedrijven werken