Als het over taal gaat, gaat het op zeker moment ook over waarheid. Woorden kunnen treffend zijn en zinnen kunnen elegant in elkaar zitten zoals teksten je kunnen aantrekken of opzwepen – maar altijd is er ook de vraag, is het waar of onwaar?
Die vraag kun je dus ook stellen over de taalwonders van de roaring twenties, de chatbots. Hoe verhouden hun teksten zich tot de waarheid?
Iedereen die deze zaken een beetje in de gaten heeft gehouden, weet dat ChatGPT en zijn vrienden af en toe de grootst mogelijke onzin naar voren brengen. ‘Hallucineren’ wordt dat wel genoemd, maar dat is een misleidende term, zeggen drie Schotse wetenschappers in een artikel in het tijdschrift Ethics and Information Technology. Het suggereert dat de machine de wereld op sommige momenten verkeerd ziet, maar het ziet de wereld eigenlijk nooit. Er is geen verschil voor een chatbot tussen momenten dat het ‘hallucineert’ en momenten dat het dit niet doet: het probeert in alle gevallen alleen maar zo plausibel mogelijke zinnen te maken – zinnen die op dat gegeven moment gezegd kunnen worden. Ook bij die plausibiliteit gaat het dus niet om de waarheid – chatbots hebben geen boodschap aan de waarheid – maar om hoe die zinnen klinken: in zulke omstandigheden zeggen mensen dit ongeveer, dus zeg ik dit ook maar.
Om een zelfde reden wijzen de onderzoekers een door anderen bedachte term fabuleren af. Fabuleren doen mensen meestal als ze het even niet meer weten en daarom maar wat verzinnen. Maar ook die term veronderstelt dat chatbots iets anders doen wanneer ze de waarheid zeggen dan wanneer ze ‘fabuleren’, maar dat is simpelweg niet zo. De meest plausibel klinkende zin is vaak ook min of meer waar, maar dat zijn tegelijkertijd een soort toevalstreffers waar de chatbots zelf geen enkele boodschap aan hebben.
Er is daarom een term die de lading veel beter dekt: bullshit van de filosoof Harry Frankfurt. Toen ik er eerder over schreef, vertaalde ik de term als kletskoek en vatte het zo samen:
In zijn essay maakt Frankfurt onderscheid tussen liegen en kletskoek verkopen. Iemand die liegt, verdraait de werkelijkheid met de opzet om de ander in die verdraaide werkelijkheid te doen geloven. Een leugenaar trekt zich in die zin nog wel degelijk iets aan van de waarheid, en gaat uit van het contract dat er meestal tussen mensen is dat de spreker probeert de waarheid te zeggen en de luisteraar ervan uitgaat dat de spreker dit doet. Iemand die kletskoek verkoopt, zegt zomaar wat: het gezegde kan waar zijn, of niet, het maakt niet uit, zoals het de spreker ook eigenlijk niet uitmaakt of de luisteraar het wel of niet gelooft.
Frankfurt muntte de term in 1986, dus lang voor de opkomst van de chatbots, maar hij lijkt inderdaad uitstekend van toepassing op wat chatbots doen. Het maakt ze niet uit of wat ze zeggen wel of niet waar is, zoals het ze ook niet uitmaakt of de lezer ze wel of niet gelooft. Het is taal zonder enig acht op de werkelijkheid.
In zijn essay wees Frankfurt ook op de gevaren van kletskoek – gevaren die in sommige opzichten groter zijn dan die van de leugen. Want waar de leugenaar de algemene afspraak in zekere zin nog in stand houdt dat we in het debat de waarheid belangrijk vinden (hij maakt alleen misbruik van die afspraak), haalt de kletskoekverkoper zijn schouders op over die hele afspraak.
Dat alles is genoeg reden om chatbots kletskoekmachines te noemen, al kun je er dan nog over discussiëren of ze de intentie hebben om de gebruiker van kletskoek te voorzien. In ieder geval wel, zeggen de onderzoekers, in de zin dat ze zijn ontworpen met het doel om alleen mooie zinnen te maken die plausibel klinken. Hoe dan ook wees Frankfurt veertig jaar geleden al op het gevaar van kletskoek voor het publieke debat: als de waarheid er niet meer toe doet, is er geen standaard meer waar we elkaar aan kunnen houden en blijft er uiteindelijk geen debat meer over. Of die chatbots dat nu zelf willen of niet, ze dragen wel bij aan de stroom bullshit, de rijstebrijberg van kletskoek waaronder we als we niet uitkijken bedolven raken.
Robbert-Jan Henkes zegt
Als vertaling van “bullshit” denk ik ook aan “lulkoek” of – beter misschien – aan “rut” met als werkwoord “rutten”, als eerbetoon aan onze binnenkort voormalige eersteminister, van wie het rutten een levensvervulling was. “De AI-machinens hebben de neiging te rutten.” “Ze spuien vaak rut.” Nou?
Het grappige is natuurlijk wel dat hoe meer rut erbij komt, hoe meer rut de machines zullen produceren, omdat ze steeds meer op zichzelf zullen teren. De vertaalmachines googletranslate en deepL worden al een hele tijd niet meer beter, maar integendeel slechter, heb ik de indruk: ze nemen zichzelf tot voorbeeld.
Robert Kruzdlo zegt
ChatGPT kletsen, lullen minder goed dan levende die er op het einde van elke gedachten een punt aan kletsen en niet meer weten waar ze zijn: Waar kan ik heen als ik niet weet waar ik ben. Zong John Lennon dit¿ Ja, die zetten het op muziek. Als je niet liegt, klets, kun je de hele literatuur in de Maas gooien. Je houdt er er hooguit natte voeten aan over. En wat doet een filosoof¿ Die laat een slagboom neer om het lage volk, het klootjesvolk, geen toegang te verlenen tot het gefaciliteerde denken: het pessimistisch academische denken. Chaos dus. Dat is wat er van overblijft. ChatGPT Chaos.
Yoïn van Spijk zegt
Toevallig heb ik dit vorige week op X nog aan den lijve meegemaakt. Ik had een infographic geplaatst over de onbekende herkomst van ‘kat’ en zijn cognaten, toen iemand die idolaat bleek van AI erop reageerde met een screenshot van een antwoord van ChatGPT, in de waan dat hij een oplossing had gevonden. De chatbot zei dat het woord vanuit het Latijn in het Oudegyptisch terecht was gekomen – jazeker, u leest het goed: terug in de tijd – en dat het Oudegyptische woord ‘caute’ of ‘cauteau’ was. Ik en heel veel anderen (mijn notificaties waren dagenlang roodgloeiend) legden hem in allerlei bewoordingen uit waarom het antwoord complete kletskoek was, waarom ChatGPT nooit een beter antwoord kan geven dan de recentste wetenschappelijke literatuur, en waarom de chatbot überhaupt compleet ongeschikt is om vragen betrouwbaar te beantwoord omdat het een taalmodel is dat hallucineert.
Zijn reactie? Die kwam erop neer dat taalkundigen onnodig defensief reageerden; waren we soms bang voor aantasting van onze autoriteit? We moesten eens inzien hoeveel AI ons bij ons onderzoek kon helpen!
We hebben het hier overigens niet over een anonieme trol: het was een ict’er met veel volgers.
Dat iemand als hij het probleem al niet inziet, maakt me bang. Zo veel mensen die nóg minder weten van ict zien ChatGPT als orakel. Ze hebben geen flauw idee van wat het nu eigenlijk is – laat staan dat ze de kennis hebben die nodig is om de chatbraaksels te beoordelen.
Nicoline van der Sijs zegt
dit is grappig, Yoïn, want ik heb vorige week een stukje over een vergelijkbaar geval geschreven dat binnenkort verschijnt op Neerlandistiek. Je zult het met herkenning en instemming begroeten. -:(
Marcel Meijer Hof zegt
Kafkaëske toekomstbeelden doemen op voor mijn geestesoog.
Maar, geleuterd werd er altijd al …
Bronnenkritiek, gaat dat ons behoeden.
Of leren wij om onze besluiten zo te nemen dat de toekomst niet in rampspoed verkeert ?
Paul Hendriks zegt
Ik las de kop blijkbaar iets te snel: ‘Chabots als kletskoekmachines’.
Ik was het bij voorbaat met u eens.