Geesteswetenschappen en grote taalmodellen

Wat hebben de geesteswetenschappen bij te dragen aan de AI-revolutie die nu bezig schijnt te zijn? Ik krijg soms de indruk dat collega’s vooral aan de technologische kennis willen toevoegen Dat Alles Nog Veel Ingewikkelder Is Dan Je Denkt. Dat is voor sommige geesteswetenschappers kennelijk de kern van hun vak: anderen de oren wassen met hun naïviteit. Terwijl de kunst natuurlijk is om uit te werken op welk punt precies de zaken ingewikkeld zijn én je tegelijkertijd iets concreets kunt doen.
Want dat is iets dat technologen natuurlijk precies karakteriseert: iets doen dat werkt, ook al is het gebaseerd op versimpelingen en naïviteiten. En in die zin zijn geesteswetenschappers antitechnologen.
Een uitzondering is de Amerikaan Ted Underwood die hoogleraar ‘informatiewetenschap en Engels’ is. In het laatste nummer van Nature Computational Science schreef hij een artikel waarin hij nagaat waar er bruggen geslagen kunnen worden.
Precies
Een zo’n plek is bij dit probleem volgens Underwood: de output van taalmodellen is nu een grootste gemene deler. Miljarden woorden hebben ze gelezen en miljoenen plaatjes hebben ze gezien, en als ze dan iets uitvoeren is dat hetgeen het ‘meest waarschijnlijk’ is, met andere woorden: wat het meest voorkomt. Wanneer er wordt geprobeerd zo’n model wat minder voorspelbaar te maken, betekent dit vooral dat er een scheutje willekeur aan het geheel wordt toegevoegd. De chatbot heeft nog geen persoonlijkheid, en geen eigen specifieke culturele achtergrond waaruit het dingen ziet – en al helemaal geen minderheidsperspectief. Underwood:
Researchers’ immediate goal should not be to produce models that know a lot of facts about different cultures — but to produce ‘localized’ models that can respond as if they were situated in one specific culture.This might require careful attention to training data. It also likely requires training methods that make better use of “rich metadata” (as suggested by Klein et al.) to help models understand the dependence between a speaker’s words and their social position. Humanists seem to be suggesting that the first stage of that journey will have to involve creating models that are truly capable of speaking from a single perspective.
Wat Underwood (of de auteurs die hij citeert) er niet bij zeggen, hoe de geesteswetenschappen precies kunnen helpen om dit probleem op te lossen. Ja, het is een geesteswetenschappelijk inzicht dat je altijd praat of schrijft vanuit een bepaald perspectief. Maar is dat inzicht zo precies te maken dat het ook kan worden geïmplementeerd?
Ingebed
De taalwetenschap, de geesteswetenschappelijke discipline die het dichtst bij die grotetaalmodellen staat, heeft er tot nu toe geen goede ervaringen mee. De grote taalmodellen zijn als het ware gemaakt met voorbijgaan aan zo’n beetje alle inzichten uit de taalwetenschap. Sterker nog, er is al heel lang een grapje bekend van de teamleider van een model voor automatische vertalingen die zei dat zijn systeem steeds beter ging werken iedere keer dat er een taalkundige werd ontslagen uit het team.
Het werkt volgens mij momenteel beter omgekeerd: als taalkundige kun je proberen vast te stellen hoe die taalmodellen precies werken, waar ze hun kennelijke taalvaardigheid vandaan hebben, en op welke punten dat verschilt van de mens, om zo meer te leren over wat taal nu eigenlijk precies is. Dit zouden andere geesteswetenschappen ook kunnen doen: als onze bevinding is dat je altijd uit een bepaald perspectief spreekt, wat doen die chatbots dan? Op welke manier zijn zij niet ingebed in een cultuur? En wat vertelt ons dat over wat een cultuur eigenlijk is?
Laat een reactie achter