Terug naar Woordenboek
advancedGeavanceerd
5 min leestijd

Fine-tuning

LLM Fine-tuning

Simpele Uitleg

Fine-tuning is het verder trainen van een bestaand AI-model op jouw eigen data, zodat het zich specialiseert in jouw vakgebied of schrijfstijl. Het is alsof je een allround medewerker een specifieke opleiding geeft: het model weet al veel, maar na fine-tuning weet het precies hoe jij het wilt. In de meeste gevallen heb je het niet nodigprompt engineering en RAG lossen 80% van de problemen op.

Technische Definitie

Fine-tuning is een vorm van transfer learning waarbij een pre-trained LLM verder wordt getraind op een domeinspecifieke dataset. De modelgewichten worden aangepast via gradient descent. Twee benaderingen: full fine-tuning (alle gewichten, duur) en parameter-efficient methoden zoals LoRA en adapters (minder data, goedkoper). Vereist minimaal 100-10.000 voorbeelden en GPU-resources. De inferentiekosten zijn tot 6x hoger dan bij een standaard model.

Waarom Dit Belangrijk Is

Fine-tuning is de "nucleaire optie" van AI-aanpassing. Het is krachtig, maar bijna altijd overkill.

De waarheid: voor de meeste bedrijfstaken zijn prompt engineering (uren werk) of RAG (dagen werk) voldoende. Fine-tuning kost weken, vereist technische expertise, en is duur in onderhoud.

Wanneer is fine-tuning wél de juiste keuze? Als je een heel specifieke schrijfstijl nodig hebt die consistent moet zijn over duizenden outputs. Of als je model domein-specifiek jargon moet begrijpen dat niet in de trainingsdata zit.

Voor teams die AI inzetten: begin altijd met prompting en few-shot learning. Pas als dat niet voldoende is, overweeg RAG. Fine-tuning is de laatste stap, niet de eerste.

Hoe Het Werkt

Vergelijk een LLM met een ervaren journalist. De journalist kan over elk onderwerp schrijven. Maar als je wilt dat hij schrijft als een financieel analist — met jouw specifieke terminologie en stijl — moet je hem bijscholen.

Zo werkt fine-tuning:
1. Je verzamelt voorbeelden van de gewenste output (minimaal 100, liefst 1000+)
2. Je formatteert ze als input-output paren: "Gegeven deze data, schrijf dit rapport"
3. Het model wordt verder getraind op jouw voorbeelden
4. Na training "denkt" het model standaard in jouw stijl en domein

Het verschil met prompting: bij prompting geef je elke keer instructies. Bij fine-tuning zijn die instructies ingebakken in het model. Dat scheelt tokens en levert consistentere output op — maar het model is moeilijker aan te passen als je wensen veranderen.

Use Cases

Consistente merkstijl op schaal

Een groot marketing team dat dagelijks honderden teksten produceert in dezelfde tone-of-voice. Bij enkele teksten per week is few-shot prompting voldoende, maar bij honderden per dag bespaart fine-tuning tokens en garandeert het consistentie.

Medisch of juridisch jargon

Een model dat medische rapporten moet schrijven met specifieke terminologie die niet in de standaard trainingsdata zit. Fine-tuning leert het model de vakjargon en rapportstructuur van je organisatie.

Classificatie met bedrijfsspecifieke categorieën

Een support team met 50 ticket-categorieën die uniek zijn voor hun organisatie. Na fine-tuning op duizenden historische tickets classificeert het model automatisch met hoge nauwkeurigheid.

Code-generatie in eigen framework

Een development team met een intern framework dat niet publiek gedocumenteerd is. Fine-tuning op de bestaande codebase leert het model de patronen en conventies van het framework.

Voorbeelden

Prompting vs. RAG vs. fine-tuning

Taak: AI die klantvragen beantwoordt in jouw stijl met actuele productinfo.

Prompting: geef instructies + voorbeelden in elke prompt. Snel, goedkoop, flexibel. Maar: herhaalt instructies bij elke call.

RAG: koppel een kennisbank met productinfo. AI antwoordt op basis van actuele data. Beste voor feitelijke vragen.

Fine-tuning: train het model op je schrijfstijl en jargon. Beste voor consistente tone-of-voice op schaal. Maar: duur en moeilijk te updaten.

De beste oplossing is vaak RAG + goede prompts. Fine-tuning alleen als volume en consistentie het vereisen.

De kosten van fine-tuning

Een typisch fine-tuning project:
- Dataverzameling: 2-4 weken
- Data-opschoning en formatting: 1 week
- Training: $500-$5000+ aan GPU-kosten
- Evaluatie en iteratie: 1-2 weken
- Onderhoud: bij elke modelupdate opnieuw fine-tunen

Vergelijk dat met RAG: opzetten in dagen, onderhoud in uren, fractie van de kosten. Fine-tuning is alleen de moeite waard als de voordelen die investering rechtvaardigen.

Veelgemaakte Fouten

"Fine-tuning is de eerste stap om AI te verbeteren"

Het is de laatste stap. Begin met betere prompts, dan few-shot learning, dan RAG. Pas als die drie opties niet voldoende zijn, overweeg fine-tuning. In de meeste gevallen kom je nooit bij die stap.

"Fine-tuning maakt het model slimmer"

Fine-tuning verandert het gedrag, niet de intelligentie. Het model leert niet "meer" — het leert anders reageren. Als het basismodel niet slim genoeg is voor je taak, lost fine-tuning dat niet op.

"Eénmaal fine-tunen en klaar"

Fine-tuned modellen moeten onderhouden worden. Als het basismodel een update krijgt, moet je opnieuw fine-tunen. Als je bedrijfsdata verandert, moet je opnieuw trainen. Het is een doorlopende investering, geen eenmalige setup.

Tools Die Dit Gebruiken

OpenAI Fine-tuning APIHugging FaceGoogle Vertex AI

Veelgestelde Vragen

Wanneer is fine-tuning de juiste keuze?
Als je meer dan 100 kwalitatieve voorbeelden hebt, je vereisten stabiel zijn, je geavanceerde prompting al hebt geprobeerd, en je volume hoog genoeg is om de hogere kosten te rechtvaardigen. Als je op één van deze punten "nee" antwoordt, investeer eerst in alternatieven.
Hoeveel data heb ik nodig voor fine-tuning?
Minimaal 100 kwalitatieve voorbeelden, maar 1000+ geeft significant betere resultaten. De voorbeelden moeten representatief zijn voor je use case en consistent in format. Slechte data levert een slecht model op — kwaliteit gaat boven kwantiteit.
Kan ik ChatGPT of Claude fine-tunen?
OpenAI biedt fine-tuning aan voor GPT-modellen via hun API. Anthropic biedt het beperkt aan voor enterprise-klanten. Google biedt het via Vertex AI. Elke aanbieder heeft eigen vereisten, kosten en beperkingen.
Wat is het verschil tussen fine-tuning en RAG?
Fine-tuning past het model aan — het verandert hoe het model "denkt" en schrijft. RAG geeft het model toegang tot externe data zonder het model te veranderen. Fine-tuning voor stijl en gedrag, RAG voor actuele feiten en bedrijfsdata. Ze zijn complementair.

Wil je deze term in de praktijk leren toepassen?