General-Purpose AI (GPAI)
General-Purpose AI Model (EU AI Act)
Simpele Uitleg
Een General-Purpose AI model is een AI-systeem dat heel veel verschillende taken aankan, zonder dat het specifiek voor één taak is gebouwd. Vergelijk het met een Zwitsers zakmes versus een schroevendraaier: een LLM als ChatGPT, Claude of Gemini kan schrijven, programmeren, analyseren, vertalen en nog veel meer. Een narrowe AI (zoals een spamfilter) kan maar één ding. De EU AI Act stelt specifieke regels voor bedrijven die GPAI-modellen ontwikkelen of aanbieden.
Technische Definitie
Artikel 3(63) van de EU AI Act definieert een GPAI-model als een model dat "aanzienlijke algemeenheid vertoont en competent een breed scala aan verschillende taken kan uitvoeren, ongeacht de manier waarop het model op de markt wordt gebracht." Een technisch vermoeden geldt: modellen getraind met meer dan 10²³ FLOP die tekst, audio, beelden of video genereren worden verondersteld GPAI te zijn. Modellen met meer dan 10²⁵ FLOP worden geclassificeerd als GPAI met systeemrisico, met zwaardere verplichtingen. De GPAI Code of Practice is in augustus 2025 goedgekeurd als vrijwillig compliance-kader.
Waarom Dit Belangrijk Is
Als je bedrijf ChatGPT, Claude, Gemini of een ander groot AI-model gebruikt, gebruik je een GPAI-model. Sinds augustus 2025 gelden er regels voor de aanbieders van deze modellen: ze moeten documentatie bijhouden, transparant zijn over trainingsdata, en auteursrechten respecteren.
Voor gebruikers (deployers) van GPAI-modellen is het belangrijk om te begrijpen welke verantwoordelijkheden bij de aanbieder liggen en welke bij jou. Als je een GPAI-model integreert in een hoog-risico toepassing (zoals CV-screening), verschuiven er verplichtingen naar jouw organisatie.
Daarnaast zijn de krachtigste modellen — GPT-4, Claude, Gemini — aangemerkt als GPAI met systeemrisico. Dat betekent extra eisen voor de aanbieders, inclusief adversariële tests en rapportage van incidenten. In de ChatGPT, Claude & Gemini Masterclass leer je hoe je deze modellen effectief en verantwoord inzet. De AI als Teamsport training helpt teams om GPAI breed te implementeren.
Hoe Het Werkt
De EU AI Act maakt onderscheid tussen twee niveaus van GPAI.
Het eerste niveau geldt voor alle GPAI-modellen. Aanbieders als OpenAI, Anthropic en Google moeten technische documentatie bijhouden, een samenvatting van hun trainingsdata publiceren, een auteursrechtenbeleid voeren, en informatie delen met partijen die hun model integreren in eigen producten.
Het tweede niveau geldt voor GPAI met systeemrisico — modellen getraind met meer dan 10²⁵ FLOP (een astronomisch aantal berekeningen). Dit zijn de krachtigste modellen ter wereld: GPT-4, Claude 3.7, Gemini 1.5 Pro. Voor deze modellen gelden extra eisen: uitgebreide modelevaluaties met adversariële tests, beoordeling en mitigatie van systeemrisico's, rapportage van ernstige incidenten aan het Europese AI Office, en adequate cyberveiligheid.
De GPAI Code of Practice, gepubliceerd in juli 2025, biedt een vrijwillig kader voor compliance. Aanbieders die de code volgen, kunnen die als bewijs van naleving gebruiken. De code heeft drie pijlers: transparantie, auteursrecht, en veiligheid.
Voor Nederlandse bedrijven die GPAI-modellen gebruiken is het vooral belangrijk om te weten dat de aanbieder verantwoordelijk is voor de basiscompliance. Maar zodra je het model inzet voor hoog-risico toepassingen, draag je zelf de verantwoordelijkheid voor die specifieke inzet.
Use Cases
Bedrijfsbrede AI-inzet
Een organisatie gebruikt Claude of ChatGPT voor marketing, klantenservice, analyse en codebeoordeling. Eén GPAI-model dient meerdere afdelingen. De AI als Teamsport training helpt teams om dit gecoördineerd aan te pakken.
GPAI in hoog-risico toepassingen
Een HR-tech bedrijf bouwt CV-screeningsoftware bovenop een GPAI-model. Het GPAI-model zelf is de verantwoordelijkheid van de aanbieder, maar de hoog-risico toepassing (CV-screening) is de verantwoordelijkheid van het HR-tech bedrijf.
Open-source GPAI
Meta's Llama en Mistral AI bieden open-weight GPAI-modellen aan. De AI Act stelt minder eisen aan open-source modellen, tenzij ze als systeemrisico worden geclassificeerd. Bedrijven die open-source GPAI gebruiken moeten zelf meer verantwoordelijkheid nemen.
Systeemrisico monitoring
Aanbieders van de krachtigste modellen moeten actief monitoren op systeemrisico's: kan het model misbruikt worden voor desinformatie, cyberaanvallen, of het verlagen van drempels voor biologische of chemische wapens? Bij ernstige incidenten is rapportage aan het AI Office verplicht.
Voorbeelden
GPAI vs. narrowe AI
De 10²⁵ FLOP drempel
Code of Practice als compliance-kader
Veelgemaakte Fouten
"GPAI-regels gaan alleen over de aanbieders, niet over ons"
Klopt deels: de aanbieders (OpenAI, Anthropic) dragen de meeste verplichtingen. Maar als je een GPAI-model integreert in een hoog-risico toepassing, word je zelf verantwoordelijk voor die toepassing. En de AI-geletterdheid verplichting geldt sowieso voor iedereen.
"Open-source modellen vallen buiten de AI Act"
Open-source GPAI-modellen hebben minder verplichtingen, maar zijn niet vrijgesteld. En als een open-source model de systeemrisico-drempel overschrijdt (10²⁵ FLOP), gelden alle zware verplichtingen onverkort. Meta's Llama modellen worden hier kritisch op beoordeeld.
"GPAI is hetzelfde als AGI"
Nee. GPAI (General-Purpose AI) kan veel taken aan maar is geen "denkende" AI. AGI (Artificial General Intelligence) zou menselijk niveau bereiken op alle cognitieve taken. GPAI is een juridische classificatie in de EU AI Act, AGI is een toekomstvisie.
Tools Die Dit Gebruiken
Veelgestelde Vragen
Welke modellen zijn GPAI met systeemrisico?
Wanneer gelden de GPAI-regels?
Moet ons bedrijf iets doen als we alleen GPAI gebruiken?
Wat is de GPAI Code of Practice?
Gerelateerde Termen
Wil je deze term in de praktijk leren toepassen?