Few-shot Learning
Few-shot Prompting
Simpele Uitleg
Few-shot learning is een prompt-techniek waarbij je de AI 2-5 voorbeelden geeft van wat je wilt, zodat het het patroon herkent en toepast op nieuwe input. In plaats van lang uit te leggen wát je wilt, laat je het zien. Het is de snelste manier om de kwaliteit van AI-output te verhogen — zonder technische kennis, zonder fine-tuning, zonder kosten.
Technische Definitie
Few-shot learning is een vorm van in-context learning waarbij een LLM patronen leert van voorbeelden in de prompt, zonder dat de modelgewichten worden aangepast. Het formaat: instructie + N voorbeelden (input-output paren) + nieuwe input. Onderzoek toont dat 2-5 voorbeelden de nauwkeurigheid met 40%+ verhogen ten opzichte van zero-shot (geen voorbeelden). Meer dan 10 voorbeelden verhoogt de kosten (tokens) zonder evenredige kwaliteitswinst.
Waarom Dit Belangrijk Is
Stel: je vraagt AI om klantreviews te classificeren als positief, neutraal of negatief. Zonder voorbeelden haalt het model 60% goed. Met drie voorbeelden — "Geweldige service! → positief", "Was oké → neutraal", "Verschrikkelijk, nooit meer → negatief" — springt de nauwkeurigheid naar 90%+.
Dat is de kracht van few-shot learning: minimale moeite, maximaal resultaat. Geen AI-expertise nodig, geen dure training, geen weken wachten. Drie voorbeelden toevoegen aan je prompt en de output wordt direct beter.
Voor teams die dagelijks met AI werken is dit een essentiële vaardigheid. Het verschil tussen "AI geeft matige resultaten" en "AI levert precies wat we nodig hebben" zit vaak in drie goede voorbeelden.
Hoe Het Werkt
Vergelijk het met een nieuwe medewerker inwerken. Je kunt een handleiding van tien pagina's schrijven, of je laat drie voorbeelden zien: "Zo doen we het hier." De medewerker snapt het patroon en past het zelf toe.
Zo werkt few-shot bij AI:
1. Je schrijft een instructie: "Classificeer deze e-mails"
2. Je geeft 3 voorbeelden:
- "Wanneer wordt mijn bestelling bezorgd?" → Vraag over bezorging
- "Ik wil mijn geld terug" → Klacht / retour
- "Bedankt voor de snelle levering!" → Positieve feedback
3. Je geeft de nieuwe e-mail: "Mijn pakket is beschadigd aangekomen"
4. De AI herkent het patroon → "Klacht / retour"
De voorbeelden hoeven niet perfect te zijn — ze moeten het patroon duidelijk maken. Consistentie in format is belangrijker dan kwantiteit. In de ChatGPT, Claude & Gemini Masterclass oefenen we dit met echte bedrijfsscenario's.
Use Cases
E-mails automatisch classificeren
Een support team geeft drie voorbeelden per categorie (klacht, vraag, compliment). De AI classificeert vervolgens honderden e-mails automatisch. Van uren handmatig sorteren naar seconden.
Consistente content genereren
Een marketing team geeft drie voorbeelden van de gewenste schrijfstijl. Elke volgende tekst die de AI schrijft, volgt dezelfde toon en structuur. Merkidentiteit behouden op schaal.
Data extractie uit ongestructureerde tekst
Laat drie voorbeelden zien van hoe je klantgegevens uit e-mails wilt extraheren naar een vast format (naam, bedrijf, vraag). De AI past het patroon toe op elke nieuwe e-mail.
Vertaalstijl standaardiseren
Geef drie voorbeelden van hoe technische termen vertaald moeten worden in je bedrijf. De AI volgt die standaard bij elke volgende vertaling — consistent, zonder handmatig nalopen.
Voorbeelden
Zero-shot vs. few-shot resultaat
Zero-shot (geen voorbeelden): "Dit product is leuk en handig." — generiek, niet jouw stijl.
Few-shot (twee voorbeelden van je gewenste stijl): de AI matcht je toon, woordkeuze en structuur exact. Het verschil is enorm, en het kost je 30 seconden extra om de voorbeelden toe te voegen.
Hoeveel voorbeelden heb je nodig?
Veelgemaakte Fouten
"Meer voorbeelden is altijd beter"
Na 5-10 voorbeelden vlakt de verbetering af terwijl de kosten stijgen. Elke voorbeeld verbruikt tokens. Begin met 2-3 en voeg alleen meer toe als de kwaliteit nog niet goed genoeg is.
"De voorbeelden moeten perfect zijn"
Consistentie is belangrijker dan perfectie. Als al je voorbeelden hetzelfde format volgen, leert de AI het patroon — ook als de inhoud niet briljant is. Inconsistente voorbeelden verwarren het model meer dan imperfecte maar consistente.
"Few-shot is alleen voor technische taken"
Het werkt voor alles: schrijfstijl, classificatie, vertaling, data-extractie, samenvattingen. Elke taak waar je een patroon kunt tonen, profiteert van few-shot. Het is een van de meest universele prompt engineering technieken.
Tools Die Dit Gebruiken
Veelgestelde Vragen
Wat is het verschil tussen few-shot en fine-tuning?
Werkt few-shot bij alle AI-modellen?
Hoe kies ik goede voorbeelden?
Kan ik few-shot combineren met andere technieken?
Gerelateerde Termen
Wil je deze term in de praktijk leren toepassen?