Fine-tuning
LLM Fine-tuning
Simpele Uitleg
Fine-tuning is het verder trainen van een bestaand AI-model op jouw eigen data, zodat het zich specialiseert in jouw vakgebied of schrijfstijl. Het is alsof je een allround medewerker een specifieke opleiding geeft: het model weet al veel, maar na fine-tuning weet het precies hoe jij het wilt. In de meeste gevallen heb je het niet nodig — prompt engineering en RAG lossen 80% van de problemen op.
Technische Definitie
Fine-tuning is een vorm van transfer learning waarbij een pre-trained LLM verder wordt getraind op een domeinspecifieke dataset. De modelgewichten worden aangepast via gradient descent. Twee benaderingen: full fine-tuning (alle gewichten, duur) en parameter-efficient methoden zoals LoRA en adapters (minder data, goedkoper). Vereist minimaal 100-10.000 voorbeelden en GPU-resources. De inferentiekosten zijn tot 6x hoger dan bij een standaard model.
Waarom Dit Belangrijk Is
Fine-tuning is de "nucleaire optie" van AI-aanpassing. Het is krachtig, maar bijna altijd overkill.
De waarheid: voor de meeste bedrijfstaken zijn prompt engineering (uren werk) of RAG (dagen werk) voldoende. Fine-tuning kost weken, vereist technische expertise, en is duur in onderhoud.
Wanneer is fine-tuning wél de juiste keuze? Als je een heel specifieke schrijfstijl nodig hebt die consistent moet zijn over duizenden outputs. Of als je model domein-specifiek jargon moet begrijpen dat niet in de trainingsdata zit.
Voor teams die AI inzetten: begin altijd met prompting en few-shot learning. Pas als dat niet voldoende is, overweeg RAG. Fine-tuning is de laatste stap, niet de eerste.
Hoe Het Werkt
Vergelijk een LLM met een ervaren journalist. De journalist kan over elk onderwerp schrijven. Maar als je wilt dat hij schrijft als een financieel analist — met jouw specifieke terminologie en stijl — moet je hem bijscholen.
Zo werkt fine-tuning:
1. Je verzamelt voorbeelden van de gewenste output (minimaal 100, liefst 1000+)
2. Je formatteert ze als input-output paren: "Gegeven deze data, schrijf dit rapport"
3. Het model wordt verder getraind op jouw voorbeelden
4. Na training "denkt" het model standaard in jouw stijl en domein
Het verschil met prompting: bij prompting geef je elke keer instructies. Bij fine-tuning zijn die instructies ingebakken in het model. Dat scheelt tokens en levert consistentere output op — maar het model is moeilijker aan te passen als je wensen veranderen.
Use Cases
Consistente merkstijl op schaal
Een groot marketing team dat dagelijks honderden teksten produceert in dezelfde tone-of-voice. Bij enkele teksten per week is few-shot prompting voldoende, maar bij honderden per dag bespaart fine-tuning tokens en garandeert het consistentie.
Medisch of juridisch jargon
Een model dat medische rapporten moet schrijven met specifieke terminologie die niet in de standaard trainingsdata zit. Fine-tuning leert het model de vakjargon en rapportstructuur van je organisatie.
Classificatie met bedrijfsspecifieke categorieën
Een support team met 50 ticket-categorieën die uniek zijn voor hun organisatie. Na fine-tuning op duizenden historische tickets classificeert het model automatisch met hoge nauwkeurigheid.
Code-generatie in eigen framework
Een development team met een intern framework dat niet publiek gedocumenteerd is. Fine-tuning op de bestaande codebase leert het model de patronen en conventies van het framework.
Voorbeelden
Prompting vs. RAG vs. fine-tuning
Prompting: geef instructies + voorbeelden in elke prompt. Snel, goedkoop, flexibel. Maar: herhaalt instructies bij elke call.
RAG: koppel een kennisbank met productinfo. AI antwoordt op basis van actuele data. Beste voor feitelijke vragen.
Fine-tuning: train het model op je schrijfstijl en jargon. Beste voor consistente tone-of-voice op schaal. Maar: duur en moeilijk te updaten.
De beste oplossing is vaak RAG + goede prompts. Fine-tuning alleen als volume en consistentie het vereisen.
De kosten van fine-tuning
- Dataverzameling: 2-4 weken
- Data-opschoning en formatting: 1 week
- Training: $500-$5000+ aan GPU-kosten
- Evaluatie en iteratie: 1-2 weken
- Onderhoud: bij elke modelupdate opnieuw fine-tunen
Vergelijk dat met RAG: opzetten in dagen, onderhoud in uren, fractie van de kosten. Fine-tuning is alleen de moeite waard als de voordelen die investering rechtvaardigen.
Veelgemaakte Fouten
"Fine-tuning is de eerste stap om AI te verbeteren"
Het is de laatste stap. Begin met betere prompts, dan few-shot learning, dan RAG. Pas als die drie opties niet voldoende zijn, overweeg fine-tuning. In de meeste gevallen kom je nooit bij die stap.
"Fine-tuning maakt het model slimmer"
Fine-tuning verandert het gedrag, niet de intelligentie. Het model leert niet "meer" — het leert anders reageren. Als het basismodel niet slim genoeg is voor je taak, lost fine-tuning dat niet op.
"Eénmaal fine-tunen en klaar"
Fine-tuned modellen moeten onderhouden worden. Als het basismodel een update krijgt, moet je opnieuw fine-tunen. Als je bedrijfsdata verandert, moet je opnieuw trainen. Het is een doorlopende investering, geen eenmalige setup.
Tools Die Dit Gebruiken
Veelgestelde Vragen
Wanneer is fine-tuning de juiste keuze?
Hoeveel data heb ik nodig voor fine-tuning?
Kan ik ChatGPT of Claude fine-tunen?
Wat is het verschil tussen fine-tuning en RAG?
Gerelateerde Termen
Wil je deze term in de praktijk leren toepassen?