Training
AI inzetten voor je team? Bekijk onze hands-on trainingen.
Dennis Claassen
AI-trainer · 35+ teams getraind
Key Takeaways
- •De helft van je AI-resultaat hangt af van hoe je vraagt, niet van welk model je gebruikt — bevestigd door MIT Sloan en Stanford.
- •8 prompt engineering technieken uitgelegd: van zero-shot en few-shot tot chain-of-thought, meta-prompting en agentic prompting.
- •Wharton-onderzoek ontkracht 5 mythes over prompts: expert-persona's verbeteren feiten niet, en chain-of-thought is niet altijd beter.
- •Context engineering is de opvolger: niet alleen de prompt telt, maar alles wat je het model meegeeft — documenten, tools, geheugen.
- •EU AI Act maakt prompt engineering verplicht: werkgevers moeten AI-geletterdheid borgen sinds februari 2025.
"Prompt engineering is dood." Die bewering hoor je steeds vaker. IEEE Spectrum schreef het. Fast Company ook. AI-modellen worden slimmer, dus waarom zou je nog moeite doen met hoe je iets vraagt?
Omdat het onderzoek — en de arbeidsmarkt — iets anders laten zien.
MIT Sloan en Stanford tonen aan dat de helft van je prestatiewinst uit de prompt komt — niet uit het model. Wharton's Interactive AI Lab publiceerde in 2025 vier rapporten die precies laten zien welke technieken wél werken, welke niet, en waarom. En Harvard Business School en BCG bevestigen: consultants die goede prompts gebruiken werken 25% sneller en leveren 40% betere kwaliteit.
En de bedrijven die het hardst roepen dat AI "vanzelf" werkt? Die zoeken ondertussen volop prompt engineers. Op Prompt Engineer Jobs — een vacatureplatform volledig gewijd aan deze rol — staan continu tientallen openstaande posities. Anthropic zelf zoekt een Cross-functional Prompt Engineer met een salaris van $320.000–$405.000 per jaar. Apple, JP Morgan en andere Fortune 500-bedrijven hebben vergelijkbare functies openstaan. Zelfs de "instap"-posities beginnen boven de $150.000. Als prompt engineering echt dood was, zouden deze bedrijven er geen toptalent voor werven.
Het verschil? Prompt engineering anno 2026 is niet meer "probeer wat en kijk wat eruit komt." Het is een professionele vaardigheid. En deze gids legt alles uit wat je moet weten — technieken, mythes, valkuilen en de volgende stap: context engineering.
Zoek je direct bruikbare prompts per afdeling? Lees dan onze 50 kant-en-klare prompts per afdeling of bekijk onze prompt library met kant-en-klare templates. Deze gids focust op de theorie en technieken erachter.
Wil je AI leren inzetten?
In onze praktische trainingen leer je hoe je ChatGPT, Claude en andere AI-tools effectief inzet voor jouw werk.
Wat is prompt engineering (en wat is het niet)?
Prompt engineering is het systematisch formuleren van instructies aan een large language model om betere, consistentere en bruikbaardere output te krijgen. Geen willekeurig proberen. Geen trucjes. Maar begrijpen hoe deze modellen taal verwerken en daar slim gebruik van maken.
De business case is overtuigend. Het HBS/BCG-onderzoek onder 758 consultants laat zien: wie AI goed inzet, werkt 25% sneller en levert 40% betere kwaliteit. En MIT Sloan bevestigt dat 50% van het resultaatverschil tussen AI-gebruikers zit in de prompt, niet in het model.
Maar laten we ook eerlijk zijn over wat het níet is. Prompt engineering is geen magie. Het compenseert geen gebrek aan vakkennis. Een slechte marketeer wordt geen goede marketeer door een betere prompt. Wel haalt een goede marketeer met de juiste prompt 2-3x meer uit hetzelfde model.
De drie niveaus van prompt engineering
Niet iedereen hoeft een expert te worden. Maar iedereen profiteert van het juiste niveau:
- •
Casual prompting — Een vraag typen in ChatGPT en het antwoord gebruiken. Prima voor eenvoudige taken. Geen structuur, geen systeem.
- •
Structured prompting — Frameworks gebruiken zoals COSTAR, rollen toewijzen, voorbeelden meegeven, output-format specificeren. Dit is waar de meeste professionals naartoe moeten.
- •
Production-level context engineering — Prompts combineren met RAG, system prompts, tools en geheugen. Dit is het domein van AI-teams die werkprocessen automatiseren. Gartner voorspelt dat 70% van de enterprises dit eind 2026 inzet.
De meeste teams zitten op niveau 1 en moeten naar niveau 2. Dat is precies waar deze gids bij helpt.
De 8 belangrijkste prompt engineering technieken
Dit zijn de technieken die het onderzoek ondersteunen — van simpel naar geavanceerd. Per techniek: wat het is, wanneer je het gebruikt, en een voorbeeld.
1. Zero-shot prompting
De eenvoudigste vorm: je geeft een instructie zonder voorbeelden. Het model moet zelf uitvogelen wat je bedoelt.
Zero-shot prompting werkt goed voor eenvoudige, eenduidige taken. Samenvatten, vertalen, classificeren — taken waar weinig interpretatie nodig is.
Classificeer het volgende klantvraag als "klacht", "vraag" of "compliment":
"Ik wacht al drie weken op mijn bestelling en niemand reageert op mijn e-mails."
Wanneer gebruiken: eenvoudige taken, snelle antwoorden, heldere instructies. Wanneer vermijden: complexe taken waar het model jouw specifieke stijl of format moet volgen.
2. Few-shot prompting
Je geeft 2-3 voorbeelden van de gewenste output voordat je je eigenlijke vraag stelt. Few-shot prompting is volgens PromptingGuide.ai de meest impactvolle techniek die er is.
Schrijf een LinkedIn-post in de stijl van onderstaande voorbeelden.
Voorbeeld 1: "We testten AI op ons sales team. Resultaat na 30 dagen: 40% meer proposals. Niet door harder te werken — door slimmer te vragen. Dit is wat we leerden →"
Voorbeeld 2: "73% van de Nederlandse bedrijven noemt AI-kennis een drempel. Maar het probleem is niet de technologie. Het is de training. Drie inzichten uit ons laatste traject →"
Schrijf nu een post over: AI-beleid opstellen voor het MKB.
Dit werkt omdat het model het patroon herkent: korte hook, cijfer, twist, cliffhanger. Zonder die voorbeelden krijg je een generieke tekst.
3. Chain-of-thought prompting
Je vraagt het model om stap voor stap te redeneren in plaats van direct een antwoord te geven. Chain-of-thought (CoT) is effectief bij wiskundige, logische en analytische taken.
Maar — en dit is belangrijk — het Wharton-onderzoek (Report 2) toont aan dat CoT bij reasoning models (zoals GPT-o3 of Claude met extended thinking) minder meerwaarde heeft. Die modellen denken al stapsgewijs na. Extra CoT-instructies voegen dan weinig toe of maken de output zelfs trager.
Wanneer gebruiken: complexe analyse, vergelijkingen, besluitvorming. Wanneer vermijden: bij reasoning models die al stapsgewijs denken, en bij eenvoudige taken waar stapsgewijs redeneren overkill is.
4. System prompts en rolgebaseerd prompten
Je geeft het model een rol of persona via een system prompt: "Je bent een senior financial controller met 15 jaar ervaring in Nederlandse MKB-bedrijven." De output wordt specifieker, het taalgebruik past zich aan.
Maar het Wharton-onderzoek (Report 4) laat een nuance zien: persona's verbeteren de stijl en toon van de output, maar verbeteren de feitelijke nauwkeurigheid niet. "Je bent een expert" maakt de output niet nauwkeuriger — wel relevanter voor de context.
Wanneer gebruiken: consistente toon over meerdere outputs, domeinspecifiek taalgebruik, branding. Wanneer vermijden: als je denkt dat een experrol automatisch betere feiten oplevert.
5. Prompt chaining
Je splitst een complexe taak in meerdere stappen en gebruikt de output van stap 1 als input voor stap 2. In plaats van te vragen "schrijf een compleet marketingplan," vraag je eerst om een doelgroepanalyse, dan een kanaalstrategie, dan een contentplan.
Dit werkt omdat LLM's beter presteren op gefocuste taken. Google's Prompt Engineering Whitepaper bevestigt: kleinere, gestructureerde prompts leveren consistent betere output dan één lange instructie.
Wanneer gebruiken: complexe deliverables die meerdere stappen vereisen. Wanneer vermijden: eenvoudige taken die in één prompt passen.
6. Meta-prompting
Je vraagt het model om een prompt te schrijven. Klinkt meta — want dat is het ook. In plaats van zelf een prompt te bedenken, beschrijf je wat je wilt bereiken en laat je het model de optimale prompt formuleren.
Ik wil dat een AI-model een klanttevredenheidsrapport schrijft op basis van NPS-data. Het rapport moet geschikt zijn voor het MT, maximaal 2 pagina's, en concrete actiepunten bevatten.
Schrijf de optimale prompt om dit resultaat te krijgen. Gebruik best practices zoals het toewijzen van een rol, het specificeren van format en het meegeven van context.
Dit is bijzonder effectief als je weet wát je wilt maar niet precies hoe je het moet vragen. Schulhoff et al. noemen het in "The Prompt Report" een van de meest onderbenutte technieken.
7. Multimodal prompting
Sinds 2025 werken alle grote modellen met tekst, beeld, audio en video. Multimodal prompting combineert deze inputs. Upload een foto van een whiteboard en vraag om een samenvatting. Stuur een screenshot van een dashboard en vraag om analyse. Geef een audioclip en vraag om transcriptie met actiepunten.
Gemini 3 Pro is hier bijzonder sterk: native multimodale verwerking, directe Google Workspace-integratie. Claude excelleert in het analyseren van lange documenten en complexe afbeeldingen.
Wanneer gebruiken: wanneer je informatie in niet-tekstformaat hebt. Wanneer vermijden: als tekst volstaat — voeg geen afbeelding toe als een tekstbeschrijving hetzelfde resultaat geeft.
8. Agentic prompting
De meest geavanceerde vorm: je instrueert niet één model, maar een systeem van AI-agents die samenwerken. Eén agent analyseert data, een ander schrijft een rapport, een derde controleert de feiten. Tools als Claude Code en AutoGPT maken dit mogelijk.
Agentic prompting vereist een fundamenteel andere denkwijze: je ontwerpt een systeem, geen zin. Je definieert taken, tools, stopvoorwaarden en escalatieregels.
Wanneer gebruiken: complexe workflows met meerdere stappen en databronnen. Wanneer vermijden: als een enkele prompt hetzelfde resultaat oplevert — overcomplexiteit is een reëel risico.
Hulp nodig bij AI implementatie?
Plan een vrijblijvend adviesgesprek en ontdek wat AI voor jouw organisatie kan betekenen.
Prompt engineering per model: ChatGPT vs Claude vs Gemini
Niet elk model reageert hetzelfde op dezelfde prompt. Wie het verschil kent, haalt meer uit elke tool. Voor een diepere vergelijking, lees ons uitgebreide model-vergelijkingsartikel.
ChatGPT (GPT-5)
ChatGPT werkt het best met:
- •Markdown-structuur — koppen, lijsten en tabellen in je prompt leiden tot beter gestructureerde output
- •Tool-integratie — GPT-5 zoekt automatisch op het web, maakt afbeeldingen, analyseert bestanden. Gebruik dat
- •Reasoning modes — GPT-o3 en o4-mini denken stapsgewijs na. Chain-of-thought-instructies zijn dan overbodig en vertragen de output
Valkuil: ChatGPT is geneigd tot "people-pleasing" — het geeft je het antwoord dat je wílt horen. Vraag expliciet om tegenargumenten.
Claude (Opus/Sonnet)
Claude excelleert bij:
- •XML-tags —
<context>,<instructions>,<examples>helpen Claude om prompts beter te parsen. Anthropic's eigen documentatie beveelt dit aan - •Lange documenten bovenaan — zet achtergronddocumenten aan het begin van de prompt, instructies aan het eind
- •Extended thinking — Claude kan hardop nadenken. Bij complexe taken levert dit significant betere output
Valkuil: Claude is voorzichtig. Het weigert sneller dan andere modellen en voegt ongevraagd disclaimers toe. Wees expliciet over wat je wel wilt.
Gemini (3 Pro)
Gemini blinkt uit op:
- •Hiërarchische prompts — duidelijke koppenstructuur (hoofd- en subdoelen) werkt beter dan platte tekst
- •Multimodale taken — Gemini verwerkt tekst, beeld, audio en video native. Combineer inputs waar dat zinvol is
- •Google integratie — directe toegang tot Workspace, Search en andere Google-diensten
Valkuil: Gemini's output kan wisselend zijn tussen sessies. Test dezelfde prompt meerdere keren voordat je vertrouwt op het resultaat.
Van prompt engineering naar context engineering
Prompt engineering gaat over hoe je een vraag stelt. Context engineering gaat over alles wat je het model meegeeft: documenten, tools, geheugen, system prompts, databases. De prompt is slechts één onderdeel.
Andrej Karpathy — medeoprichter van OpenAI — introduceerde de term in 2025: "Context engineering is the subtle art and science of filling the context window with just the right information for the next step." Gartner pikte het op en voorspelt dat 70% van de enterprises context engineering inzet tegen eind 2026.
Wat betekent dat concreet?
- •RAG — documenten ophalen en meegeven als context
- •System prompts — gedragsregels die bij elke interactie gelden
- •Tools — het model kan zoeken, rekenen, databases bevragen
- •Memory — het model onthoudt eerdere gesprekken en voorkeuren
- •Guardrails — regels die de output beperken (geen medisch advies, altijd in het Nederlands)
Prompt engineering verdwijnt niet. Het wordt een subset van context engineering. De vraag is niet meer "hoe stel ik mijn prompt op?" maar "hoe ontwerp ik het complete informatiepakket dat mijn model nodig heeft?"
Voor bedrijven betekent dit: je prompt is 20% van het werk. De andere 80% zit in welke data je beschikbaar maakt, welke tools je koppelt, en welke regels je instelt. Dat is waarom we in onze ChatGPT, Claude & Gemini Masterclass niet alleen prompts behandelen, maar het hele systeem eromheen.
"Is prompt engineering dood?" — Het debat in 2026
De "prompt engineering is dood"-koppen zijn prikkelend. IEEE Spectrum schreef dat AI-modellen zo goed worden dat je straks gewoon kunt vragen wat je wilt. Fast Company beweert dat de baan "prompt engineer" al aan het verdwijnen is.
Ze hebben deels gelijk.
Het tijdperk van trial-and-error prompting ís voorbij. Je hoeft niet meer 20 varianten te testen om één bruikbaar antwoord te krijgen. Modellen begrijpen vage instructies steeds beter. De lat om een "oké" antwoord te krijgen ligt lager dan ooit.
Maar de lat voor een uitstekend antwoord ligt hoger dan ooit.
Wharton's Interactive AI Lab laat zien dat het verschil tussen een basisprompt en een geoptimaliseerde prompt bij complexe taken 40-60% kwaliteitsverschil kan opleveren. Aakash Gupta documenteert hoe bedrijven door promptoptimalisatie 76% kostenreductie bereiken op hun AI-uitgaven.
Het kerninzicht: casual prompting is dood. Professioneel prompt engineering leeft — en evolueert naar context engineering. Het is niet meer een trucje, maar een bedrijfskritische vaardigheid die direct impact heeft op kosten, kwaliteit en snelheid.
De vraag is niet "moet ik nog leren prompten?" De vraag is "kan ik het me veroorloven om het niet te doen?"
Prompt engineering en de EU AI Act
Sinds 2 februari 2025 is het officieel: werkgevers zijn wettelijk verplicht om AI-geletterdheid te borgen bij alle medewerkers die met AI-systemen werken. Dat staat in artikel 4 van de EU AI Act.
Prompt engineering valt daar direct onder. Als je medewerkers ChatGPT, Claude of Gemini gebruiken — en dat doen ze, of je het weet of niet — dan moeten ze begrijpen hoe ze dat veilig en effectief doen.
PwC Nederland waarschuwt: "Bij gebrek aan tastbare kaders en handhaving is het risico dat organisaties het onderwerp niet oppakken." En dat risico wordt groter: in augustus 2026 treden de regels voor hoog-risico AI-systemen in werking.
Wat betekent dit praktisch?
- •Inventariseer welke AI-tools je medewerkers gebruiken
- •Train ze in veilig en effectief gebruik — inclusief prompt engineering
- •Documenteer dat je het hebt gedaan (bewijs van compliance)
Let op
De EU AI Act kent boetes tot €35 miljoen of 7% van de wereldwijde jaaromzet bij overtredingen. AI-geletterdheid is geen "nice to have" — het is een wettelijke verplichting. Lees onze complete EU AI Act gids voor alle details en deadlines.
Prompt engineering is het meest concrete, direct toepasbare onderdeel van AI-geletterdheid. Train je team daarin en je slaat twee vliegen in één klap: betere resultaten én compliance. Lees ook: AI-geletterdheid als werkgever: wat verplicht de EU AI Act?
5 prompt engineering mythes die onderzoek heeft ontkracht
Er circuleert veel advies over prompts dat simpelweg niet klopt. Dit is wat het onderzoek écht laat zien.
Mythe 1: "Geef de AI een expertrol voor betere antwoorden"
De realiteit: Wharton Report 4 toont aan dat persona's de toon en stijl verbeteren, maar de feitelijke nauwkeurigheid niet beïnvloeden. "Je bent een Harvard-professor" levert niet nauwkeurigere informatie op — wel een academischer schrijfstijl. Gebruik persona's voor stijl, niet voor feiten.
Mythe 2: "Gebruik altijd chain-of-thought"
De realiteit: Wharton Report 2 laat zien dat CoT bij reasoning models (GPT-o3, Claude met thinking) nauwelijks meerwaarde heeft. Die modellen denken al stapsgewijs. Sterker: onnodige CoT-instructies kunnen de output vertragen zonder kwaliteitswinst. Gebruik CoT selectief — bij standaardmodellen en complexe analytische taken.
Mythe 3: "Dreig met consequenties of beloof een fooi"
De realiteit: "Je krijgt $1.000 als je dit goed doet" of "het is heel belangrijk dat je geen fouten maakt" — Wharton Report 3 concludeert dat dit geen meetbaar effect heeft op de kwaliteit van de output. Het model wordt er niet beter van. Focus op duidelijke instructies in plaats van emotionele druk.
Mythe 4: "Hoe langer en gedetailleerder, hoe beter"
De realiteit: er is een optimum. Onderzoek laat zien dat de promptkwaliteit degradeert na ongeveer 3.000 tokens aan instructies. Meer context helpt tot een punt, daarna raakt het model de draad kwijt. Schrijf zo kort mogelijk, zo lang als nodig.
Mythe 5: "Een goede prompt werkt op elk model"
De realiteit: ChatGPT, Claude en Gemini reageren fundamenteel anders op dezelfde prompt. XML-tags werken uitstekend voor Claude, maar hebben geen effect op ChatGPT. Markdown-structuur werkt beter voor ChatGPT dan voor Gemini. Test je prompts op het model dat je team daadwerkelijk gebruikt.
Tip
De rode draad: prompt engineering is nuance, geen recept. Wat werkt hangt af van het model, de taak en de context. Het "one-size-fits-all" advies dat je op LinkedIn tegenkomt is bijna altijd te simplistisch.
Aan de slag: volgende stappen
Je hebt nu de theorie. Dit zijn drie concrete acties om morgen mee te beginnen:
- •
Start met structured prompting. Gebruik het COSTAR-framework voor je volgende vijf AI-taken. Vergelijk het resultaat met je gebruikelijke aanpak. Het verschil is direct merkbaar.
- •
Test per model. Neem je drie meest gebruikte prompts en test ze op ChatGPT, Claude en Gemini. Pas ze aan per platform op basis van de modelspecifieke tips in deze gids. Zie ook onze vergelijking ChatGPT vs Claude vs Gemini.
- •
Train je team. Individuele vaardigheid is goed, gedeelde vaardigheid is beter. In onze ChatGPT, Claude & Gemini Masterclass leren teams in één dag de technieken uit deze gids toe te passen op hun eigen werkprocessen. Of ga direct aan de slag met onze 50 kant-en-klare prompts en onze prompt library met templates per use case.
Wil je AI leren inzetten?
In onze praktische trainingen leer je hoe je ChatGPT, Claude en andere AI-tools effectief inzet voor jouw werk.
Deze gids wordt maandelijks bijgewerkt met nieuwe technieken, modelupdates en onderzoeksresultaten. Laatste update: februari 2026.
Bronnen
- •Wharton Interactive AI Lab — Prompting Science Reports 1-4 — Vier rapporten over welke prompt technieken werken, ontkrachting van mythes.
- •Google — Prompt Engineering Whitepaper (Boonstra) — Overzicht van prompt engineering best practices.
- •Schulhoff et al. — "The Prompt Report" (arXiv) — Academisch overzicht van 1.500+ prompt engineering papers.
- •Harvard Business School & BCG — AI Productivity Study — 758 consultants: 25% sneller, 40% betere kwaliteit met AI.
- •MIT Sloan — Prompt Templates vs Ad-hoc — 50% van het resultaat komt uit de prompt, niet het model.
- •Anthropic — Claude Prompt Best Practices — Officiële richtlijnen voor Claude prompts.
- •Gartner — Context Engineering & AI Agents — 70% enterprise-adoptie context engineering verwacht eind 2026.
- •Andrej Karpathy — Context Engineering definitie — "The subtle art and science of filling the context window."
- •Aakash Gupta — 76% kostenreductie door promptoptimalisatie — Casestudie over de business impact van goede prompts.
- •BCG — AI Value Gap (sept 2025) — 42% van AI-projecten gestaakt, analyse van de ROI-kloof.
- •PwC NL — AI-geletterdheid & EU AI Act — Verplichtingen voor werkgevers onder de EU AI Act.
- •Autoriteit Persoonsgegevens — EU AI Act uitleg — Nederlandse uitleg van de AI-verordening.
- •Promptitude — Marktcijfers Prompt Engineering — Data over de groei en adoptie van prompt engineering tools.
- •ODSC — 14 Prompt Engineering Fouten — De meest gemaakte fouten bij AI-prompts.
- •PromptingGuide.ai — Technieken-overzicht — Open source referentie voor prompt engineering technieken.
- •Portkey — COSTAR Framework — Uitleg van het COSTAR-framework voor gestructureerde prompts.
- •IEEE Spectrum — "Prompt Engineering Is Dead" — Het tegenperspectief op de toekomst van prompt engineering.




