Terug naar Woordenboek
advancedGeavanceerd
5 min leestijd

Tool Use / Function Calling

Simpele Uitleg

Tool use is het vermogen van een AI-model om externe tools te gebruiken — zoals een mens die een rekenmachine pakt, een zoekopdracht uitvoert, of een e-mail verstuurt. Zonder tool use kan een LLM alleen tekst genereren. Met tool use kan het actuele informatie opzoeken, berekeningen uitvoeren, bestanden bewerken, en API's aanroepen. Het is de fundamentele capability die een chatbot transformeert in een AI-agent die daadwerkelijk taken uitvoert.

Technische Definitie

Tool use (ook function calling genoemd) werkt via een gestandaardiseerd proces. De ontwikkelaar definieert beschikbare tools via JSON Schema — naam, beschrijving en parameterstructuur. Het LLM analyseert de gebruikersvraag, selecteert de juiste tool, en genereert gestructureerde JSON met de parameters. De applicatielaag voert de daadwerkelijke functie uit en retourneert het resultaat aan het model, dat het verwerkt in een natuurlijk-taalantwoord. Elke grote aanbieder heeft een eigen implementatie: OpenAI function calling, Anthropic tool use (met `tool_use` en `tool_result` content blocks), en Google function calling. Het Model Context Protocol (MCP) standaardiseert tool-integratie over aanbieders heen.

Waarom Dit Belangrijk Is

Tool use is wat het verschil maakt tussen een AI die praat en een AI die handelt. Zonder tools is een LLM beperkt tot de kennis uit zijn trainingsdata — het kan geen actuele informatie opzoeken, geen berekeningen verifiëren, en geen acties uitvoeren in externe systemen.

Met tool use verandert alles. Een AI-agent met tools kan je agenda raadplegen, een e-mail versturen, een database query uitvoeren, code draaien, of een bestelling plaatsen. Claude Code gebruikt tool use om bestanden te lezen, bewerken en schrijven, terminal-commando's uit te voeren, en met Git te werken. Zonder tool use zou het een chatbot zijn; met tool use is het een productieve coding-partner.

Voor bedrijven is tool use de basis van AI-automatisering. Elke workflow die je wilt automatiseren met AI — van klantenservice tot rapportage tot ontwikkeling — draait op tool use. Het MCP protocol groeit explosief (340% in 2025) omdat het tool-integratie standaardiseert.

In de ChatGPT, Claude & Gemini Masterclass leer je hoe tool use werkt en hoe je het toepast. De AI als Teamsport training behandelt team-brede AI-automatisering.

Hoe Het Werkt

Tool use werkt als een georganiseerd gesprek tussen het AI-model en de buitenwereld.

Eerst definieert de ontwikkelaar welke tools beschikbaar zijn. Elke tool krijgt een naam, een beschrijving, en een schema dat beschrijft welke parameters nodig zijn. Bijvoorbeeld: een "weer"-tool die een stadsnaam verwacht en een temperatuureenheid.

Als een gebruiker iets vraagt dat externe informatie of actie vereist ("wat is het weer in Amsterdam?"), herkent het model dat het een tool nodig heeft. Het selecteert de juiste tool en genereert een gestructureerd JSON-verzoek met de juiste parameters.

Belangrijk: het model voert de tool niet zelf uit. De applicatielaag ontvangt het JSON-verzoek, voert de daadwerkelijke API-call uit, en stuurt het resultaat terug naar het model. Het model verwerkt het resultaat dan in een natuurlijk-taalantwoord.

Dit proces kan zich herhalen in een agentic loop: het model roept een tool aan, bekijkt het resultaat, besluit dat het meer informatie nodig heeft, roept een andere tool aan, enzovoort. Claude Code voert regelmatig tientallen tool-calls per taak uit: bestanden lezen, code schrijven, tests draaien, fouten analyseren.

Het Model Context Protocol (MCP) standaardiseert dit proces zodat dezelfde tools werken met elk AI-model, zonder per aanbieder aparte integraties te bouwen.

Use Cases

AI-coding assistenten

Claude Code en agentic IDEs gebruiken tool use voor alles: bestanden lezen en schrijven, terminal-commando's uitvoeren, Git-operaties, en browser-interactie. Zonder tool use zou coding-AI beperkt zijn tot suggesties in een chatvenster.

Klantenservice automatisering

Een AI-agent met tool use kan het CRM-systeem raadplegen, de bestelstatus opzoeken, een retour initiëren, en een bevestigingsmail versturen — allemaal in één conversatie. De AI voor Support teams training behandelt dit.

Data-analyse en rapportage

Een AI-agent die tools heeft voor database queries, spreadsheet-berekeningen en grafiekgeneratie kan een compleet rapport produceren op basis van een enkele opdracht. De AI voor Finance teams training toont praktische toepassingen.

Workflow automatisering

Met tools voor e-mail, agenda, projectmanagement en communicatie kan een AI-agent complete werkprocessen uitvoeren: vergaderingen plannen, taken aanmaken, updates versturen en follow-ups bijhouden. De AI als Teamsport training behandelt team-brede automatisering.

Voorbeelden

OpenAI vs. Anthropic implementatie

OpenAI gebruikt function calling met een `tool_calls` array in het modelantwoord. Anthropic gebruikt `tool_use` en `tool_result` content blocks in de Messages API. Beide werken met JSON Schema, maar de precieze structuur verschilt. Het MCP protocol lost deze fragmentatie op door een universele standaard te bieden.

Server tools vs. client tools

Anthropic biedt server tools die op hun servers draaien (web search, code execution) — die hoef je niet zelf te implementeren. Client tools definieer je zelf: databasetoegang, interne API's, bedrijfssystemen. De combinatie maakt krachtige agents mogelijk.

MCP als standaard

Zonder MCP moest je voor elk AI-model aparte tool-integraties bouwen (M modellen × N tools = M×N integraties). MCP reduceert dit tot M+N. Er zijn inmiddels 500+ MCP-servers in publieke registries. OpenAI integreerde MCP in maart 2025 en in december 2025 droeg Anthropic MCP over aan de Linux Foundation.

Veelgemaakte Fouten

"Het AI-model voert de tools zelf uit"

Het model genereert alleen de intentie en parameters in JSON-formaat. De applicatielaag voert de daadwerkelijke functie uit. Dit is een belangrijk veiligheidsaspect: je behoudt controle over wat er werkelijk wordt uitgevoerd.

"Tool use werkt altijd perfect"

Modellen kunnen "hallucineren": tools aanroepen die niet bestaan of verkeerde parameters meegeven. Robuuste foutafhandeling is essentieel. Guardrails op tool-niveau voorkomen dat foutieve aanroepen schade veroorzaken.

"Meer tools is altijd beter"

Elke tool-definitie kost tokens in het context window. Tientallen tools tegelijk laden kan het model overweldigen en de kwaliteit verlagen. Bied alleen de tools aan die relevant zijn voor de huidige taak.

Tools Die Dit Gebruiken

ClaudeChatGPTGeminiClaude CodeCursorGitHub Copilot

Veelgestelde Vragen

Wat is het verschil tussen tool use en MCP?
Tool use is de capability van het model om tools aan te roepen (JSON genereren). MCP is het protocol dat standaardiseert hoe tools worden gedefinieerd, ontdekt en verbonden. Tool use is het front-end (model → JSON), MCP is het back-end (uitvoering en orchestratie).
Welke AI-modellen ondersteunen tool use?
Alle grote modellen: Claude (Anthropic), GPT-4 en nieuwer (OpenAI), Gemini (Google), Llama 3 (Meta), en Mistral. De implementatie verschilt per aanbieder maar het principe is hetzelfde. MCP standaardiseert de interactie.
Is tool use veilig?
Het model genereert alleen een verzoek — de applicatie beslist of het wordt uitgevoerd. Maar risico's bestaan: prompt injection kan een model manipuleren om onbedoelde tools aan te roepen. Implementeer altijd validatie op de applicatielaag en beperk de rechten van tools tot het minimum.
Hoeveel tools kan een model tegelijk gebruiken?
Technisch tientallen, maar praktisch werkt het best met 5-15 relevante tools per taak. Elke tool-definitie kost tokens en te veel keuzes verlagen de selectienauwkeurigheid. Gebruik dynamische tool-selectie (zoals Anthropics Tool Search Tool) voor grote tool-bibliotheken.

Wil je deze term in de praktijk leren toepassen?