In sommige opzichten is de wereld een beetje beter geworden tijdens de quarantaine: in je eigen woonkamer kun je nog gemakkelijker dan voorheen geleerde betogen over allerlei onderwerpen bijwonen die op het eerste gezicht misschien ver van ons neerlandistische bed zijn, maar daar toch aardig in passen.
Neem de bovenstaande lezing, gisteren online geplaatst als deel van het Stanford Seminar, over een manier om de computer symbolische wiskunde te laten bedrijven.
Er is namelijk iets opmerkelijks aan de hand: waar computers van oudsher vreselijk handig zijn met getallen, en ze met de ingewikkelde statistische modellen die bekend staan als deep learning allerlei taken kunnen uitvoeren die vroeger buiten hun bereik leken te liggen – teksten vertalen, bijvoorbeeld, of schaken –, blijkt zelfs eenvoudige wiskunde (het vermenigvuldigen van twee gehele getallen) vreselijk ingewikkeld te zijn voor die deep learning-modellen.
Rekenen
Deep learning is een metafoor. Het betekent dat een computer in een grote verzameling gegevens zelf patronen ontdekt. Hij kan niet schaken omdat, zoals dat bij oude schaakcomputers het geval was, iemand er allerlei strategieën in heeft gestopt, maar omdat hij gevoerd is met honderdduizenden schaakpartijen en hij daarin zelf heeft ontdekt of een positie vooral voorkomt in partijen die normaliter door zwart of juist door wit gewonnen worden. Hij leert vertalen door miljoenen teksten en hun vertalingen statistisch te analysere en daaruit conclusies te trekken over welke Engelse constructie er normaliter gebruikt wordt als er in het Nederlands “bij wijze van spreken veertien dagen geleden” staat.
Maar waar dat voor die taken die voor ouderwetse computerprogrammatuur vrijwel onbereikbaar waren goed uitpakt, blijkt een computer het lastig te vinden om uit lange lijsten succesvol opgeloste sommen ineens het trucje af te leiden waarmee hij zelf kan rekenen.
Mathematica
In zijn lezing legt François Charton, die voor de onderzoeksafdeling kunstmatige intelligentie van Facebook werkt, uit welke oplossing men daar gevonden heeft voor dit probleem: de mannen en vrouwen van Facebook zien wiskundesommen als vertaalproblemen. Je neemt een database van formules en bijvoorbeeld de integralen van die formules, en laat de computer die beschouwen als was de linkerkant van het =-teken een vertaling van de rechterkant. Daar blijk je, volgens Charton, een enorm succes mee te kunnen hebben. Het systeem dat ze in zijn afdeling hebben ontwikkeld zou het op sommige punten beter doen dan Mathematica, het bekendste softwarepakket voor wiskundigen.
Daar zit maakt de geschiedenis van het automatisch vertalen dan een interessante draai. Decennia geleden was het optimisme over het automatisch vertalen gebaseerd op het idee dat vertalen niet veel anders was dan het maken van een, weliswaar heel ingewikkelde som. En computers waren goed in rekenen. Gaandeweg verdween dit optimisme en raakte dit type onderzoek op een dood spoor – uit die impasse kwam uiteindelijk onder andere het paradigma van deep learning voort.
Nu blijken de rollen dus ineens omgekeerd en kan dat deep learning beter sommen leren maken – beter dan op traditioneel programmeren gebouwde systemen als Mathematica – door te doen of een som oplossen eigenlijk net zo iets is als vertalen.
Laat een reactie achter