Terug naar Woordenboek
intermediateBusiness & Strategie
5 min leestijd

General-Purpose AI (GPAI)

General-Purpose AI Model (EU AI Act)

Simpele Uitleg

Een General-Purpose AI model is een AI-systeem dat heel veel verschillende taken aankan, zonder dat het specifiek voor één taak is gebouwd. Vergelijk het met een Zwitsers zakmes versus een schroevendraaier: een LLM als ChatGPT, Claude of Gemini kan schrijven, programmeren, analyseren, vertalen en nog veel meer. Een narrowe AI (zoals een spamfilter) kan maar één ding. De EU AI Act stelt specifieke regels voor bedrijven die GPAI-modellen ontwikkelen of aanbieden.

Technische Definitie

Artikel 3(63) van de EU AI Act definieert een GPAI-model als een model dat "aanzienlijke algemeenheid vertoont en competent een breed scala aan verschillende taken kan uitvoeren, ongeacht de manier waarop het model op de markt wordt gebracht." Een technisch vermoeden geldt: modellen getraind met meer dan 10²³ FLOP die tekst, audio, beelden of video genereren worden verondersteld GPAI te zijn. Modellen met meer dan 10²⁵ FLOP worden geclassificeerd als GPAI met systeemrisico, met zwaardere verplichtingen. De GPAI Code of Practice is in augustus 2025 goedgekeurd als vrijwillig compliance-kader.

Waarom Dit Belangrijk Is

Als je bedrijf ChatGPT, Claude, Gemini of een ander groot AI-model gebruikt, gebruik je een GPAI-model. Sinds augustus 2025 gelden er regels voor de aanbieders van deze modellen: ze moeten documentatie bijhouden, transparant zijn over trainingsdata, en auteursrechten respecteren.

Voor gebruikers (deployers) van GPAI-modellen is het belangrijk om te begrijpen welke verantwoordelijkheden bij de aanbieder liggen en welke bij jou. Als je een GPAI-model integreert in een hoog-risico toepassing (zoals CV-screening), verschuiven er verplichtingen naar jouw organisatie.

Daarnaast zijn de krachtigste modellen — GPT-4, Claude, Gemini — aangemerkt als GPAI met systeemrisico. Dat betekent extra eisen voor de aanbieders, inclusief adversariële tests en rapportage van incidenten. In de ChatGPT, Claude & Gemini Masterclass leer je hoe je deze modellen effectief en verantwoord inzet. De AI als Teamsport training helpt teams om GPAI breed te implementeren.

Hoe Het Werkt

De EU AI Act maakt onderscheid tussen twee niveaus van GPAI.

Het eerste niveau geldt voor alle GPAI-modellen. Aanbieders als OpenAI, Anthropic en Google moeten technische documentatie bijhouden, een samenvatting van hun trainingsdata publiceren, een auteursrechtenbeleid voeren, en informatie delen met partijen die hun model integreren in eigen producten.

Het tweede niveau geldt voor GPAI met systeemrisico — modellen getraind met meer dan 10²⁵ FLOP (een astronomisch aantal berekeningen). Dit zijn de krachtigste modellen ter wereld: GPT-4, Claude 3.7, Gemini 1.5 Pro. Voor deze modellen gelden extra eisen: uitgebreide modelevaluaties met adversariële tests, beoordeling en mitigatie van systeemrisico's, rapportage van ernstige incidenten aan het Europese AI Office, en adequate cyberveiligheid.

De GPAI Code of Practice, gepubliceerd in juli 2025, biedt een vrijwillig kader voor compliance. Aanbieders die de code volgen, kunnen die als bewijs van naleving gebruiken. De code heeft drie pijlers: transparantie, auteursrecht, en veiligheid.

Voor Nederlandse bedrijven die GPAI-modellen gebruiken is het vooral belangrijk om te weten dat de aanbieder verantwoordelijk is voor de basiscompliance. Maar zodra je het model inzet voor hoog-risico toepassingen, draag je zelf de verantwoordelijkheid voor die specifieke inzet.

Use Cases

Bedrijfsbrede AI-inzet

Een organisatie gebruikt Claude of ChatGPT voor marketing, klantenservice, analyse en codebeoordeling. Eén GPAI-model dient meerdere afdelingen. De AI als Teamsport training helpt teams om dit gecoördineerd aan te pakken.

GPAI in hoog-risico toepassingen

Een HR-tech bedrijf bouwt CV-screeningsoftware bovenop een GPAI-model. Het GPAI-model zelf is de verantwoordelijkheid van de aanbieder, maar de hoog-risico toepassing (CV-screening) is de verantwoordelijkheid van het HR-tech bedrijf.

Open-source GPAI

Meta's Llama en Mistral AI bieden open-weight GPAI-modellen aan. De AI Act stelt minder eisen aan open-source modellen, tenzij ze als systeemrisico worden geclassificeerd. Bedrijven die open-source GPAI gebruiken moeten zelf meer verantwoordelijkheid nemen.

Systeemrisico monitoring

Aanbieders van de krachtigste modellen moeten actief monitoren op systeemrisico's: kan het model misbruikt worden voor desinformatie, cyberaanvallen, of het verlagen van drempels voor biologische of chemische wapens? Bij ernstige incidenten is rapportage aan het AI Office verplicht.

Voorbeelden

GPAI vs. narrowe AI

ChatGPT, Claude en Gemini zijn GPAI: ze schrijven tekst, beantwoorden vragen, programmeren, analyseren data, en genereren beelden. Een spamfilter, een aanbevelingsalgoritme van Netflix, of een specifieke medische diagnose-AI zijn narrowe AI — ze doen één ding goed maar kunnen niets anders.

De 10²⁵ FLOP drempel

Het trainen van GPT-4 kostte naar schatting meer dan 10²⁵ FLOP — dat is 10.000.000.000.000.000.000.000.000 berekeningen. Modellen boven deze drempel worden automatisch als systeemrisico geclassificeerd. Dat geldt voor GPT-4, Claude 3.7 Sonnet, Gemini 1.5 Pro en Grok 3.

Code of Practice als compliance-kader

De GPAI Code of Practice is geen wet maar een vrijwillige richtlijn. Toch is het de facto de standaard: toezichthouders gebruiken de code als referentie bij handhaving. Aanbieders die de code niet volgen, moeten aantonen dat ze op andere manieren compliant zijn.

Veelgemaakte Fouten

"GPAI-regels gaan alleen over de aanbieders, niet over ons"

Klopt deels: de aanbieders (OpenAI, Anthropic) dragen de meeste verplichtingen. Maar als je een GPAI-model integreert in een hoog-risico toepassing, word je zelf verantwoordelijk voor die toepassing. En de AI-geletterdheid verplichting geldt sowieso voor iedereen.

"Open-source modellen vallen buiten de AI Act"

Open-source GPAI-modellen hebben minder verplichtingen, maar zijn niet vrijgesteld. En als een open-source model de systeemrisico-drempel overschrijdt (10²⁵ FLOP), gelden alle zware verplichtingen onverkort. Meta's Llama modellen worden hier kritisch op beoordeeld.

"GPAI is hetzelfde als AGI"

Nee. GPAI (General-Purpose AI) kan veel taken aan maar is geen "denkende" AI. AGI (Artificial General Intelligence) zou menselijk niveau bereiken op alle cognitieve taken. GPAI is een juridische classificatie in de EU AI Act, AGI is een toekomstvisie.

Tools Die Dit Gebruiken

ChatGPTClaudeGeminiLlamaMistralGrok

Veelgestelde Vragen

Welke modellen zijn GPAI met systeemrisico?
Modellen getraind met meer dan 10²⁵ FLOP worden automatisch als systeemrisico geclassificeerd. Dit omvat momenteel GPT-4 en nieuwer van OpenAI, Claude 3.7 Sonnet van Anthropic, Gemini 1.5 Pro van Google, en Grok 3 van xAI. De Europese Commissie kan deze classificatie ook handmatig toekennen.
Wanneer gelden de GPAI-regels?
Sinds 2 augustus 2025 gelden de verplichtingen voor aanbieders van nieuwe GPAI-modellen. Aanbieders van modellen die voor die datum op de markt zijn gebracht, hebben tot 2 augustus 2027 om te voldoen. Handhaving met boetes is mogelijk vanaf augustus 2026.
Moet ons bedrijf iets doen als we alleen GPAI gebruiken?
Als gebruiker (deployer) van GPAI-modellen heb je minder verplichtingen dan de aanbieder. Wel moet je zorgen voor AI-geletterdheid van je medewerkers, en als je het model inzet voor hoog-risico toepassingen, gelden de bijbehorende eisen voor jou.
Wat is de GPAI Code of Practice?
Een vrijwillig compliance-kader gepubliceerd in juli 2025. Het heeft drie pijlers: transparantie, auteursrecht, en veiligheid. Aanbieders die de code volgen kunnen die als bewijs van naleving gebruiken. Het is niet verplicht maar wordt gezien als de de facto standaard.

Wil je deze term in de praktijk leren toepassen?