Hoofdstuk 1
De simpelste uitleg: een taalmodel voorspelt steeds het volgende stukje tekst.
Een LLM is geen bewust wezen dat begrijpt wat jij bedoelt. Het kijkt naar wat jij schrijft, zet dat om in kleine stukjes tekst zoals en berekent welk volgend woord of zinsdeel het meest waarschijnlijk past.
Dat klinkt simpel, maar omdat het model dat heel snel en over enorm veel doet, voelt de output vaak slim, menselijk en overtuigend. Dat gevoel van slimheid komt dus vooral uit patroonherkenning en taalnabootsing.
Voorbeeld: zo kijkt een model naar tekst
Een taalmodel kiest geen woorden omdat het iets 'bedoelt'. Het kiest woorden omdat die statistisch het best passen bij wat eraan voorafging.
Je kunt een LLM zien als autocomplete op steroïden: niet één volgend woord, maar een hele tekststroom op basis van waarschijnlijkheid.
Als een model geen echte betekenis begrijpt, begrijpt het ook niet vanzelf wat vertrouwelijk of gevaarlijk is.