Terug naar Woordenboek
advancedTechnisch
5 min leestijd

Transformer

Simpele Uitleg

Een transformer is het bouwplan achter alle moderne AI. Het werd in 2017 uitgevonden door Google-onderzoekers in het paper "Attention Is All You Need". Zonder transformers geen ChatGPT, geen Claude, geen Gemini — het is de motor onder de motorkap van de hele AI-revolutie.

Technische Definitie

Een transformer is een neural network-architectuur gebaseerd op het self-attention mechanisme. De kern: het model leest niet woord voor woord (zoals oudere RNN's), maar bekijkt alle woorden tegelijk en leert welke bij elkaar horen. Dat maakt het enorm snel te trainen op miljarden tokens. Alle grote LLM's — GPT-5, Claude Opus, Gemini — zijn gebouwd op deze architectuur.

Waarom Dit Belangrijk Is

Vóór 2017 was AI traag en beperkt. Modellen lazen tekst woord voor woord, als iemand die een boek leest met één oog dicht. Ze konden niet goed onthouden wat er vijf zinnen geleden stond.

De transformer veranderde alles. Door alle woorden tegelijk te verwerken, kon AI ineens hele boeken "lezen" en verbanden leggen. Dat maakte het mogelijk om modellen te trainen op het hele internet — en zo ontstonden de tools die je nu dagelijks kunt gebruiken.

Voor teams die AI willen inzetten is dit relevant omdat het verklaart waarom AI sinds 2023 zo snel verbetert. Elke verbetering in transformer-architectuur maakt modellen slimmer en goedkoper.

Hoe Het Werkt

Stel je voor dat je een puzzel van 1000 stukjes moet leggen. De oude manier: je pakt één stukje, zoekt waar het past, pakt het volgende. Dat duurt uren.

Een transformer werkt anders: het bekijkt alle 1000 stukjes tegelijk en ziet direct welke bij elkaar horen. Dat mechanisme heet "attention" — het model leert waar het op moet letten. Deze visuele uitleg laat precies zien hoe dat eruitziet.

Concreet bij taal: als je typt "De kat zat op de...", kijkt het model naar alle eerdere woorden tegelijk. Het ziet dat "kat" en "zat" belangrijk zijn en voorspelt "mat". Bij langere teksten werkt dit hetzelfde — het model legt verbanden over het hele context window, of dat nu 100 of 1 miljoen tokens is.

Use Cases

Tekst genereren en samenvatten

Elke keer dat je ChatGPT of Claude een vraag stelt, draait er een transformer. Van e-mails schrijven tot rapporten samenvatten — het attention-mechanisme houdt context vast over lange teksten. Een marketing team dat AI inzet voor content, profiteert hier direct van.

Vertalen tussen talen

Transformers werden oorspronkelijk gebouwd voor vertaling. Google Translate schakelde in 2017 over op transformers en de kwaliteit sprong omhoog. Het model begrijpt de betekenis van een hele zin, niet alleen losse woorden.

Code schrijven en analyseren

Tools als Cursor en Claude Code gebruiken transformers om code te begrijpen. Het model ziet verbanden tussen functies, variabelen en patronen — net zoals het verbanden ziet tussen woorden in tekst.

Voorbeelden

Vóór vs. na transformers

Vóór 2017 (RNN's): een vertaalmodel las "De kat zat op de mat" woord voor woord. Bij lange zinnen vergat het het begin. Resultaat: slechte vertalingen.

Na 2017 (transformer): het model bekijkt de hele zin tegelijk en begrijpt de relaties. "De" hoort bij "kat", "zat" beschrijft wat de kat doet. Resultaat: vertalingen die kloppen, ook bij complexe zinnen.

Waarom je context window steeds groter wordt

Het context window van Claude groeide van 8.000 naar 1 miljoen tokens. Dat kan omdat onderzoekers het attention-mechanisme steeds efficiënter maken. Het model kan meer "puzzelstukjes" tegelijk bekijken zonder dat het te langzaam of te duur wordt.

Veelgemaakte Fouten

"Transformer en LLM zijn hetzelfde"

Een transformer is de architectuur (het bouwplan). Een LLM is het eindproduct (het gebouwde huis). Elk LLM is gebouwd op een transformer, maar een transformer kan ook voor andere taken gebruikt worden, zoals beeldherkenning of muziekgeneratie.

"Transformers begrijpen taal echt"

Transformers zijn patroonherkenners. Ze voorspellen het volgende woord op basis van statistiek, niet begrip. Daarom kunnen ze nog steeds hallucineren — tekst die statistisch klopt maar feitelijk niet.

"De transformer-architectuur is uitontwikkeld"

Er wordt volop geëxperimenteerd met verbeteringen. Mixture of Experts, langere context windows, efficiëntere attention — elke verbetering maakt modellen beter en goedkoper. Leer de nieuwste ontwikkelingen kennen in de Claude Code Masterclass.

Tools Die Dit Gebruiken

ChatGPTClaudeGeminiAlle moderne LLMs

Veelgestelde Vragen

Waarom heet het een "transformer"?
Het model transformeert input (jouw vraag) naar output (het antwoord) via het attention-mechanisme. De naam komt uit het oorspronkelijke Google-paper uit 2017.
Worden transformers alleen voor tekst gebruikt?
Nee. De architectuur wordt ook gebruikt voor beeldgeneratie (DALL-E, Midjourney), spraakherkenning (Whisper), video-analyse en zelfs eiwitstructuur-voorspelling. Het idee van "attention" werkt voor elk type data dat patronen bevat.
Moet ik als ondernemer weten hoe een transformer werkt?
De technische details niet. Maar begrijpen dat het een patroonherkenner is die tekst voorspelt — niet "denkt" — helpt bij het inschatten van wat AI wel en niet kan. In de ChatGPT, Claude & Gemini Masterclass leggen we dit uit met praktijkvoorbeelden zodat je team er direct mee aan de slag kan.
Hoe blijf ik als team bij met transformer-ontwikkelingen?
Elke paar maanden komen er betere modellen uit op basis van verbeterde transformer-architecturen. Door als team structureel met AI te werken — niet één persoon, maar het hele team — zorg je dat iedereen mee kan met nieuwe mogelijkheden.

Wil je deze term in de praktijk leren toepassen?