Hoe nu verder met kunstmatige intelligentie. Het is inmiddels bijna een jaar geleden dat de wereld werd opgeschrikt door de komst van ChatGPT. Sindsdien zijn er vooral veel concurrenten van dat systeem bijgekomen. Die zijn ook allemaal wel iets beter geworden, maar enorme stappen lijken er vooralsnog niet gezet.
In een interessante lezing zette de Amerikaanse informaticus Thomas Dietterich deze zomer enkele redenen op een rij. Wat kunnen we er bijvoorbeeld aan doen dat die chatbots voortdurend van alles verzinnen? Als ze geen antwoord weten op een vraag, bedenken ze een antwoord, en brengen dat vol overtuiging, zodat de gebruiker niet eens weet wanneer hij nu op het systeem kan vertrouwen. Zelfs experimentele taalmodellen, zo laat Dietterich zien, die expliciet geïnstrueerd worden om gebruik te maken van erkend betrouwbare bronnen, wijken vaak toch nog af van die bronnen, terwijl ze wel doen alsof ze deze gebruiken.
Een bijzonder interessant inzicht haalde hij daarbij uit een wetenschappelijk artikel van een groep informatici en taalkundigen: het probleem van de huidige modellen is dat ze alle kennis in één grote goulash stoppen.
De menselijke geest lijkt tot op zekere hoogte modulair te werken. Er zijn een aantal van elkaar afgebakende domeinen van kennis, zoals logisch redeneren (‘alle mensen zijn sterfelijk, Socrates is een mens, dus Socrates is sterfelijk’), kennis van de wereld (‘als je een glas in je hand hebt en je laat los, valt het glas waarschijnlijk kapot op de grond’), begrip van wat de gesprekspartner van je wil (‘ze vraagt waar ze een batterij kan kopen, en dan bedoelt ze waarschijnlijk alleen locaties die hier in de buurt zijn en niet een uitputtende lijst van alle plekken op de wereld’) en kennis van hoe de taal werkt (‘Gerard lezen de boek is geen grammaticaal Nederlands’).
Het probleem van de huidige chatbots is dat er geen enkel schot zit tussen al de vormen van kennis. Het enige wat ze leren is hoe grote verzamelingen menselijke teksten in elkaar zitten, en hoe ze deze kunnen nabootsen. Alle logica, of alle begrip van hoe de wereld in elkaar zit, is daar óók van afgeleid, en is bovendien helemaal verweven met die taalkundige kennis. Er is geen cruciaal verschil voor een chatbot tussen een ongrammaticale zin zoals ‘Gerard lezen de boek’ en een onzinbewering zoals ‘Elektriciteit leest herfstige baklava’. Beide zijn vooral heel onwaarschijnlijke zinnen.
Maar precies daardoor kunnen de modellen niet goed omgaan met de werkelijkheid. Het is bijvoorbeeld vrijwel onmogelijk om zo’n model iets nieuws te leren over de wereld, omdat dat nieuwe feit ingaat tegen de miljarden zinnen die het systeem heeft geleerd (anders is het immers geen nieuw feit).
Je zou dus eigenlijk een vorm van modulariteit moeten inbouwen in de nieuwe systemen, waarbij iets anders verantwoordelijk is voor de logica, de feiten en het bijhouden van wat de gesprekspartner mogelijk wil op ieder moment. De huidige kunstmatige intelligentie is zeker goed met taal (al valt daar ook nog wel het een en ander aan te sleutelen), maar dat taalsysteem kan de rest niet vervangen. Voor de inhoud zouden andere modellen verantwoordelijk moeten zijn.
Weia Reinboud zegt
Het probleem is niet dat er geen schotten tussen de kennissoorten zitten, maar dat er totaal geen kennis aanwezig is. En ook niet gaat zijn. Je gaat misschien sommige domheden van de computer op kunnen vangen, maar dat is dan een lapmiddel, niet een teken dat het ding ‘dus’ kennis heeft.
Vergelijk met de vraag ooit of de computer zou kunnen schaken. Nou, dan kon ie wat! Inderdaad is het mogelijk geworden om de allerbeste menselijke schakers te verslaan, maar dat werkte intern op een totaal andere manier dan hoe mensen schaken. Je zou kunnen vragen om andere modules te ontwikkelen, modules die wel echte kennis over het schaken hebben/opbouwen, maar dat kan het ding nou net niet. Dus om zulke modules vragen is een soort stap in de oneindige regressie.
Epistemologisch bekeken is de computer alleen maar in staat tot inductie. Als iets kan met als input een grote bak nulletjes en eentjes dan zal de computer er iets van kunnen brouwen. Voor mensen lijkt het dan soms best op wat zij juist zónder inductie kunnen, dat er dus wel kennis moet zijn opgebouwd. Maar er is geen kennis. Inductie werkt bij ons totaal niet. (Lees het lemma over inductie op wikipedia en zie hoeveel misvattingen en slordigheden de rondgang doen…)
De computer kan via inductie heel wat. Toen ik in 1970 leerde programmeren was er in de Uithof een reusachtige zaal voor de computer. We konden niet bedenken dat we een halve eeuw later een computertje op onze schoot zouden hebben dat miljoenen keren meer kon dan wat die hele zaal kon. We konden ons toen dus ook niet voorstellen dat de computer zou gaan kunnen schaken (dat wil zeggen: schakers verslaan) en verhalen zou kunnen gaan vertellen (dat wil zeggen: taalgebruikers kunnen verrassen). Er werd al wel nagedacht over hoe de computer zou kunnen leren schaken of taal zou kunnen leren, maar eigenlijk hadden we niet door dat uitsluitend Artificiële Inductie iets op zou kunnen leveren.