Transformer
Simpele Uitleg
Een transformer is het bouwplan achter alle moderne AI. Het werd in 2017 uitgevonden door Google-onderzoekers in het paper "Attention Is All You Need". Zonder transformers geen ChatGPT, geen Claude, geen Gemini — het is de motor onder de motorkap van de hele AI-revolutie.
Technische Definitie
Een transformer is een neural network-architectuur gebaseerd op het self-attention mechanisme. De kern: het model leest niet woord voor woord (zoals oudere RNN's), maar bekijkt alle woorden tegelijk en leert welke bij elkaar horen. Dat maakt het enorm snel te trainen op miljarden tokens. Alle grote LLM's — GPT-5, Claude Opus, Gemini — zijn gebouwd op deze architectuur.
Waarom Dit Belangrijk Is
Vóór 2017 was AI traag en beperkt. Modellen lazen tekst woord voor woord, als iemand die een boek leest met één oog dicht. Ze konden niet goed onthouden wat er vijf zinnen geleden stond.
De transformer veranderde alles. Door alle woorden tegelijk te verwerken, kon AI ineens hele boeken "lezen" en verbanden leggen. Dat maakte het mogelijk om modellen te trainen op het hele internet — en zo ontstonden de tools die je nu dagelijks kunt gebruiken.
Voor teams die AI willen inzetten is dit relevant omdat het verklaart waarom AI sinds 2023 zo snel verbetert. Elke verbetering in transformer-architectuur maakt modellen slimmer en goedkoper.
Hoe Het Werkt
Stel je voor dat je een puzzel van 1000 stukjes moet leggen. De oude manier: je pakt één stukje, zoekt waar het past, pakt het volgende. Dat duurt uren.
Een transformer werkt anders: het bekijkt alle 1000 stukjes tegelijk en ziet direct welke bij elkaar horen. Dat mechanisme heet "attention" — het model leert waar het op moet letten. Deze visuele uitleg laat precies zien hoe dat eruitziet.
Concreet bij taal: als je typt "De kat zat op de...", kijkt het model naar alle eerdere woorden tegelijk. Het ziet dat "kat" en "zat" belangrijk zijn en voorspelt "mat". Bij langere teksten werkt dit hetzelfde — het model legt verbanden over het hele context window, of dat nu 100 of 1 miljoen tokens is.
Use Cases
Tekst genereren en samenvatten
Elke keer dat je ChatGPT of Claude een vraag stelt, draait er een transformer. Van e-mails schrijven tot rapporten samenvatten — het attention-mechanisme houdt context vast over lange teksten. Een marketing team dat AI inzet voor content, profiteert hier direct van.
Vertalen tussen talen
Transformers werden oorspronkelijk gebouwd voor vertaling. Google Translate schakelde in 2017 over op transformers en de kwaliteit sprong omhoog. Het model begrijpt de betekenis van een hele zin, niet alleen losse woorden.
Code schrijven en analyseren
Tools als Cursor en Claude Code gebruiken transformers om code te begrijpen. Het model ziet verbanden tussen functies, variabelen en patronen — net zoals het verbanden ziet tussen woorden in tekst.
Voorbeelden
Vóór vs. na transformers
Na 2017 (transformer): het model bekijkt de hele zin tegelijk en begrijpt de relaties. "De" hoort bij "kat", "zat" beschrijft wat de kat doet. Resultaat: vertalingen die kloppen, ook bij complexe zinnen.
Waarom je context window steeds groter wordt
Veelgemaakte Fouten
"Transformer en LLM zijn hetzelfde"
Een transformer is de architectuur (het bouwplan). Een LLM is het eindproduct (het gebouwde huis). Elk LLM is gebouwd op een transformer, maar een transformer kan ook voor andere taken gebruikt worden, zoals beeldherkenning of muziekgeneratie.
"Transformers begrijpen taal echt"
Transformers zijn patroonherkenners. Ze voorspellen het volgende woord op basis van statistiek, niet begrip. Daarom kunnen ze nog steeds hallucineren — tekst die statistisch klopt maar feitelijk niet.
"De transformer-architectuur is uitontwikkeld"
Er wordt volop geëxperimenteerd met verbeteringen. Mixture of Experts, langere context windows, efficiëntere attention — elke verbetering maakt modellen beter en goedkoper. Leer de nieuwste ontwikkelingen kennen in de Claude Code Masterclass.
Tools Die Dit Gebruiken
Veelgestelde Vragen
Waarom heet het een "transformer"?
Worden transformers alleen voor tekst gebruikt?
Moet ik als ondernemer weten hoe een transformer werkt?
Hoe blijf ik als team bij met transformer-ontwikkelingen?
Gerelateerde Termen
Wil je deze term in de praktijk leren toepassen?