Ik volg de kunstmatige intelligentie (AI) inmiddels al ruim vijfendertig jaar. De geschiedenis van dat vak is vrijwel volmaakt cyclisch. Er is een technologische vooruitgang: computers worden sneller en als gevolg daarvan werken de AI-programma’s weer net wat beter. Dat betere wordt vervolgens zo geïnterpreteerd alsof we het licht nu echt gezien hebben: nog één tandje erbij en de computers kunnen denken. Na een tijdje blijkt dat toch niet te werken, taant de belangstelling, totdat ingenieurs iets bedenken om computers nog sneller te maken, en dan begint de cyclus weer opnieuw.
Technologisch worden er natuurlijk sprongen gemaakt: de computer kan inmiddels beter schaken en zelfs korte tekstjes vertalen dan je ooit voor mogelijk zou hebben gehouden. Maar van het denken staan die computers net zo ver af als ooit te voren.
Het heersende paradigma op dit moment is dat van de statistiek. Computersystemen worden gevoed met overstelpende hoeveelheden gegevens – bijvoorbeeld honderdduizenden artikeltjes – en leren op basis daarvan voorspellen: na het woord verkeerde volgt meestal het woord conclusies; na het woord conclusies volgt meestal het woord worden, enzovoort. Op basis daarvan kan het systeem zinnen aanvullen en natuurlijk uiteindelijk ook zinnen maken. Een van de succesvolste systemen op dit gebied, GPT-3, schreef op deze basis (ik vereenvoudig natuurlijk een beetje, maar dit is wel degelijk de basis) zo’n twee jaar geleden een artikel in de Britse krant The Guardian.
Het systeem is zo succesvol dat menigeen meent dat slimme computers nu echt om de hoek staan. Schrijvers moeten vrezen voor hun emplooi! Maar feitelijk, zo zegt een belangrijke criticus van de huidige AI-hype, de Amerikaanse geleerde en ondernemer Gary Marcus, begrijpt GPT-3 niets van taal. Hij weerspiegelt alleen hoe taal gebruikt is – wat niet betekent dat hij ook zelf taal kan gebruiken.
Dat is een al heel oude kritiek op AI, maar het raakt aan het raadsel van wat mensen dan precies doen als ze taal gebruiken. Wanneer je zegt “Het is een mooie dag, de lucht is…”, dan kan GPT-3 heus raden dat er blauw komt, maar dat betekent niet dat het weet wat een blauwe lucht is, of waarom het als een indicatie van mooie dagen wordt gezien.
De huidige systemen, waarin grote bedrijven als Google en particulieren als Elon Musk al een jaar of tien enorme bedragen pompen, maken ook nog voor een mens onbegrijpelijke fouten. Marcus haalt een collega aan die een zo’n systeem (Flamingo) dit plaatje had laten zien:
Vervolgens ontspon zich de volgende conversatie:
Zoals Marcus zegt: als ik zou merken dat een van mijn kinderen zo op dat plaatje zou reageren, liet ik alles uit mijn handen vielen en ging meteen naar de dokter.
Een probleem van het commerciële succes van deze modellen, is dat het een heleboel alternatieve ontwikkelingen blokkeert. De industrie zet zo zwaar in op de gedachte dat ook mensen eigenlijk alleen maar heel ingewikkelde spiegels zijn, die alleen maar teruggeven wat je erin stopt, dat een andere kijk op onderzoek naar hoe taal in elkaar zit, steeds minder belangstelling krijgt.
Onderzoek naar taal gaat traditioneel bijvoorbeeld over de vraag hoe zitten menselijke talen in elkaar en waarom. Waarom maken alle bekende talen van een verdeling tussen een onderwerp en een predicaat? Kunstmatige intelligentie van de statistische soort interesseert dat niet. Men laat zien dat een computer de regelmaat kan oppikken – alle talen hebben een onderwerp en een predicaat – en daarmee is de kous af. Dat die computer net zo makkelijk heel andere soorten regelmaat kan oppikken, die zich in menselijke taal nooit voordoet, doet er eigenlijk niet toe.
In die zin voldoen systemen als GPT-3 helemaal niet aan elementaire eisen van een wetenschappelijke theorie. Marcus haalt de oude grijze taalwetenschapper Noam Chomsky aan die hem vorige maand schreef:
“You can’t go to a physics conference and say: I’ve got a great theory. It accounts for everything and is so simple it can be captured in two words: “Anything goes.”
– Noam Chomsky, 15 May 2022
Nu zullen waarschijnlijk sommige van de AI-onderzoekers ook zeggen dat het helemaal niet hun bedoeling is om ‘a great theory’ voor te stellen: ze willen iets bouwen dat werkt. Maar gegeven het feit dat het niet werkt en dit ondanks enorme investeringen en torenhoge energierekeningen (nogmaals Chomsky: “In fact, its only achievement is to use up a lot of California’s energy”), geeft te denken.
Het zou natuurlijk verstandiger zijn om de technologische vooruitgang te combineren met inzichten die allerlei soorten geesteswetenschappers hebben verworven over de taal. Het zal nog even duren voor het zover is.
Weia Reinboud zegt
Die plaatjes zijn ook duidelijk, een boerderij met een kerktoren, zoiets komt in het echt niet voor! Je zou hopen dat de AI-mensen zelf bescheidener worden en zeggen: de computer is heel goed in heel snel heel veel heel domme dingen doen, waardoor er soms iets bruikbaars voor mensen uitrolt. Wat je terecht ‘cyclisch’ noemt komt erop neer dat de AI-mensen zelf ook goed zijn in domme dingen doen. Ik heb veel te maken met herkenningssoftware in de veldbiologie. Erg handig en erg bruikbaar, maar met ook ‘onbegrijpelijke’ missers. Aanhalingstekens want wij begrijpen het best, het ding heeft geen kennis van en geen verbinding met de wereld. Een slechte foto van een gele rups kan zomaar door AI als boterbloem gedetermineerd worden, terwijl wij dat er in het geheel niet in kunnen zien doordat we kennis inzetten. We zien meteen dat het geen plant kan zijn en gaan vervolgens binnen de dieren de vage foto vergelijken met andere dieren. En zo voorts. AI is helemaal A maar niet I.