Terug naar Woordenboek
beginnerBasis Concepten
5 min leestijd

Temperature

Simpele Uitleg

Temperature is de "creativiteitsknop" van AI. Het is een getal tussen 0 en 2 dat bepaalt of een AI-model voorspelbaar of verrassend antwoordt. Temperature 0 = altijd het meest logische woord (perfect voor code en data). Temperature 0,8 = soms verrassende keuzes (goed voor creatieve content). Hoog = creatief maar soms raar. Laag = voorspelbaar maar betrouwbaar.

Technische Definitie

Temperature is een hyperparameter (0-2) die de kansverdeling van next-token prediction beïnvloedt. Het deelt de logits (ruwe modelscores) door de temperature-waarde voordat softmax wordt toegepast. Bij temp=0 kiest het model altijd de token met de hoogste waarschijnlijkheid (deterministisch). Bij temp=0,7 krijgen minder waarschijnlijke tokens meer kans. Bij temp>1 wordt de verdeling vlak — ook onwaarschijnlijke tokens komen in beeld. Wiskundig: P(token) = softmax(logits / temperature).

Waarom Dit Belangrijk Is

Temperature kan het verschil zijn tussen bruikbare en waardeloze output. Bij code schrijven is temp=0 essentieel — bij 0,7 introduceert AI "creatieve" maar verkeerde code. Bij data-extractie uit 1.000 documenten wil je consistent JSON — met temp=0,8 wordt hetzelfde veld soms "klantnaam", soms "customer_name".

Maar voor marketing content is temp=0 juist dodelijk: elke tekst klinkt identiek. Bij temp=0,8 krijg je variatie, verrassende formuleringen, menselijk klinkende teksten.

Veel mensen gebruiken de standaardwaarde (0,7) voor álles. Dat is een gemiste kans. De juiste temperature per taak kan je nauwkeurigheid met 30% verhogen. In de ChatGPT, Claude & Gemini Masterclass leer je welke instelling je wanneer gebruikt.

Hoe Het Werkt

Stel dat AI het volgende woord moet kiezen voor de zin "Het weer vandaag is ___".

Het model ziet opties: "mooi" (40% kans), "zonnig" (30%), "heerlijk" (15%), "slecht" (10%), "paars" (0,01%).

Bij temperature 0 kiest het altijd "mooi" — het woord met de hoogste kans. Voorspelbaar, consistent.

Bij temperature 0,7 gooit het een gewogen dobbelsteen. Meestal "mooi" of "zonnig", soms "heerlijk", zelden "slecht". Variatie, maar nog logisch.

Bij temperature 1,5 worden alle opties bijna gelijk. Zelfs "paars" krijgt 5% kans. "Het weer vandaag is paars" — grammaticaal correct maar inhoudelijk onzin.

De vuistregel: code en data → temp=0. Support → temp=0,3. Marketing → temp=0,8. Brainstormen → temp=1,0. Hoe minder creativiteit gewenst, hoe lager. Meer over deze instellingen vind je in de prompting guide.

Use Cases

Code schrijven (temp 0)

Gebruik altijd temp=0 voor code, SQL, JSON en berekeningen. Bij temp=0,7 genereert AI soms "creatieve" maar verkeerde code — off-by-one errors, inconsistente testpatronen. Een development team dat honderden test-files genereerde met temp=0,8 kreeg 25% logische fouten. Na switch naar temp=0: 98% correct.

Content en marketing (temp 0,7-0,8)

Een marketing team gebruikt temp=0,8 voor blogposts en social media. Bij temp=0,3: saaie, robotische teksten. Bij temp=0,8: variatie in zinsbouw, verrassende formuleringen, menselijk klinkend. Tien social posts over hetzelfde product? Bij temp=0 klinken ze identiek. Bij temp=0,8 heeft elke post een unieke insteek.

Support en klantenservice (temp 0,2-0,4)

Voor chatbots wil je consistente toon en betrouwbare informatie. Bij temp=0,1: te robotisch. Bij temp=0,8: soms "Hey!" soms "Geachte klant" — inconsistent. De sweet spot is temp=0,3: professioneel, vriendelijk, zonder chaos. Vooral bij feitelijke informatie: temp=0,2 maximaal.

Team-breed afstemmen

Als iedereen andere temperaturen gebruikt, krijg je inconsistente output. In AI als Teamsport leer je hoe je als team standaarden afspreekt: welke temperature voor welk type taak, vastgelegd in gedeelde prompts.

Voorbeelden

Dezelfde prompt, drie temperaturen

Prompt: "Schrijf een follow-up e-mail naar een sales lead."

Temp=0 (drie keer): drie identieke e-mails. Professioneel, maar als je 100 leads hebt, krijgen ze allemaal dezelfde tekst.

Temp=0,7 (drie keer): drie varianten met verschillende onderwerpregels, tonen en invalshoeken. Alle drie professioneel. Perfect voor sales-sequenties.

Temp=1,2 (drie keer): "Yo! Remember me?", "Dear Esteemed Sir", "Uh, hi..." Totaal inconsistent en onprofessioneel.

De sweet spot voor content

Een team testte vier temperaturen voor blogposts:
- Temp=0,2: "AI transformeert bedrijven. Er zijn voordelen." — robotisch.
- Temp=0,5: iets beter, maar nog stijf.
- Temp=0,8: "De AI-revolutie is niet onderweg — hij is hier." — engaging, menselijk.
- Temp=1,2: "AI? Meer als A-WAAROM-heb-je-dit-nog-niet..." — te informeel.

Conclusie: 0,7-0,8 is de sweet spot voor marketing content.

Veelgemaakte Fouten

"Ik gebruik de standaard temperature voor alles"

De standaard (vaak 0,7) is ontworpen voor chat, niet voor elke taak. Code met temp=0,7 introduceert bugs. Data-extractie met temp=0,7 geeft inconsistente output. Stel temperature altijd expliciet in per API-call.

"Hogere temperature = betere output"

Hogere temp = meer variatie, niet beter. Voor creatieve taken is 0,8 de sweet spot. Bij 1,5 wordt output vaak onsamenhangend. Er is geen "hoger is beter" — het hangt af van de taak.

"Ik verlaag temperature om [hallucinaties](/woordenboek/hallucination) te fixen"

Lagere temp helpt een beetje (consistent fout vs. wisselend fout), maar lost het probleem niet op. Voor feitelijke nauwkeurigheid: gebruik RAG, niet temperature-tweaks.

Tools Die Dit Gebruiken

ChatGPT APIClaude APIGemini APIOpenAI Playground

Veelgestelde Vragen

Wat is de beste temperature per taak?
Code en data: temp=0. Documentatie: 0,2-0,3. Klantenservice: 0,3-0,4. Blogposts en marketing: 0,7-0,8. Creatief schrijven: 0,8-0,9. Brainstormen: 1,0-1,2. Als je één getal moet kiezen: 0,7 is een redelijke standaard, maar optimaliseer per use case.
Beïnvloedt temperature de kosten?
Nee, niet direct. Het tokengebruik is hetzelfde bij temp=0 of temp=1. De enige indirecte invloed: bij lagere temp is output soms iets korter (meer to-the-point), bij hogere temp iets langer. Maar het verschil is minimaal. Optimaliseer temperature voor kwaliteit, niet voor kosten.
Waarom krijg ik rare output bij temperature 0?
Temp=0 betekent deterministisch (zelfde input = zelfde output), niet perfect. Als de output vreemd is, ligt het probleem bij je prompt, de modelbeperkingen, of trainingsbias. Temp=0 garandeert consistentie, niet correctheid. Fix: verbeter je prompt of gebruik RAG voor feitelijke grounding.
Moet ik temperature aanpassen tussen test en productie?
Meestal niet. Als temp=0,7 werkt in development, gebruik het in productie. Uitzondering: bij klein testvolume lijkt 0,8 prima, maar bij 10.000 requests komen edge cases boven water. Overweeg in productie een iets lagere temp (0,6 in plaats van 0,8) voor meer betrouwbaarheid op schaal.

Wil je deze term in de praktijk leren toepassen?