Hoog-Risico AI
High-Risk AI System (EU AI Act Bijlage III)
Simpele Uitleg
Een hoog-risico AI-systeem is een AI-toepassing die grote impact kan hebben op mensen hun leven, rechten of veiligheid. Denk aan AI die bepaalt of je een lening krijgt, of je wordt aangenomen voor een baan, of welke medische behandeling je krijgt. Omdat de gevolgen zo groot zijn, stelt de EU AI Act strenge eisen aan deze systemen: documentatie, menselijk toezicht, transparantie, en regelmatige controles.
Technische Definitie
De EU AI Act classificeert AI-systemen als hoog-risico via twee routes. Route 1 (Bijlage II): AI als veiligheidscomponent van producten onder bestaande EU-wetgeving (medische apparaten, machines, speelgoed). Route 2 (Bijlage III): acht specifieke toepassingscategorieën — biometrie, kritieke infrastructuur, onderwijs, werkgelegenheid, essentiële diensten, rechtshandhaving, migratie, en rechtspraak. Hoog-risico systemen moeten voldoen aan uitgebreide eisen: risicobeheerssysteem (Art. 9), data governance (Art. 10), technische documentatie (Art. 11), logging (Art. 12), transparantie (Art. 13), menselijk toezicht (Art. 14), nauwkeurigheid en cyberveiligheid (Art. 15), kwaliteitsmanagementsysteem (Art. 17), conformiteitsbeoordeling (Art. 43), CE-markering (Art. 48), en registratie in de EU-database (Art. 49). Volledige compliance is verplicht vanaf 2 augustus 2026.
Waarom Dit Belangrijk Is
Als je organisatie AI inzet die onder hoog risico valt, sta je voor de grootste compliance-uitdaging van de EU AI Act. En meer organisaties dan je denkt worden geraakt: gebruik je AI voor het screenen van sollicitanten? Hoog risico. Algoritmes voor kredietbeoordeling? Hoog risico. AI-triage in de klantenservice? Mogelijk hoog risico.
De gevolgen van niet-compliance zijn serieus: boetes tot €15 miljoen of 3% van je wereldwijde omzet. Maar het gaat niet alleen om boetes — een AI-systeem dat onterecht leningen weigert of sollicitanten discrimineert, schaadt echte mensen en je reputatie.
De deadline van augustus 2026 klinkt ver weg, maar de eisen zijn omvangrijk: risicoanalyses, technische documentatie, menselijk toezicht, conformiteitsbeoordelingen. Bedrijven die nu beginnen met voorbereiden hebben een voorsprong. De ChatGPT, Claude & Gemini Masterclass helpt teams begrijpen hoe ze AI verantwoord inzetten binnen de hoog-risico kaders.
Hoe Het Werkt
De EU AI Act beschrijft acht categorieën van hoog-risico AI in Bijlage III. Per categorie zijn specifieke toepassingen benoemd.
Biometrie omvat gezichtsherkenning op afstand en emotieherkenning. Kritieke infrastructuur gaat over AI in energienetwerken, watervoorziening en verkeersbeheer. Onderwijs dekt AI die bepaalt of je wordt toegelaten of hoe je examen wordt beoordeeld.
Werkgelegenheid is voor veel bedrijven het meest relevant: AI voor werving en selectie, prestatiebeoordeling, en taaktoewijzing valt hieronder. Essentiële diensten omvat kredietbeoordeling, verzekeringsprijsbepaling, en het beoordelen van recht op uitkeringen.
Voor elk hoog-risico systeem moet je een risicobeheerssysteem opzetten dat de hele levenscyclus dekt. Je moet technische documentatie bijhouden over hoe het systeem werkt, waarmee het is getraind, en hoe het is getest. Er moet altijd een mens meekijken die kan ingrijpen. En voordat je het systeem in gebruik neemt, moet het een conformiteitsbeoordeling doorlopen — voor de meeste Bijlage III systemen mag dat intern, maar voor biometrie is een externe beoordeling nodig.
Na lancering stop je niet: post-market monitoring is verplicht. Je moet blijven controleren of het systeem correct functioneert.
Use Cases
Werving en selectie
CV-screeningsoftware, AI-ranking van kandidaten, en geautomatiseerde sollicitatiegesprekken zijn allemaal hoog-risico. HR-teams moeten documenteren hoe het algoritme werkt, bias-controles uitvoeren, en menselijke beslissing garanderen bij afwijzingen. De AI voor HR training helpt hierbij.
Kredietbeoordeling
Banken en fintechs die AI gebruiken voor credit scoring moeten voldoen aan alle hoog-risico eisen. Het systeem moet transparant zijn over waarom een aanvraag wordt afgewezen, en er moet altijd menselijk beroep mogelijk zijn.
Medische diagnose-AI
AI die medische beelden analyseert of diagnoses ondersteunt valt onder hoog risico via zowel Bijlage II (medische apparatuur) als Bijlage III. Dit vereist de strengste compliance: externe conformiteitsbeoordeling door een notified body.
Onderwijs en examinering
AI-systemen die examens nakijken, studenten beoordelen, of bepalen wie wordt toegelaten tot een opleiding zijn hoog-risico. Onderwijsinstellingen moeten transparant zijn over het gebruik en menselijke controle garanderen.
Voorbeelden
De acht categorieën van Bijlage III
Conformiteitsbeoordeling in de praktijk
Verschil provider en deployer bij hoog risico
Veelgemaakte Fouten
"Onze AI maakt geen beslissingen, dus het is niet hoog-risico"
AI die beslissingen ondersteunt of voorbereidt kan ook hoog-risico zijn. Een systeem dat sollicitanten rankt maar de eindbeslissing aan een mens laat, valt nog steeds onder de werkgelegenheidscategorie als het de beslissing materieel beïnvloedt.
"We kopen AI in, dus de leverancier is verantwoordelijk"
Als deployer heb je eigen verplichtingen: menselijk toezicht organiseren, de gebruiksinstructies volgen, en afwijkingen aan de provider en autoriteiten melden. Je kunt compliance niet volledig uitbesteden.
"Augustus 2026 is nog ver weg"
De eisen zijn omvangrijk: risicobeheerssysteem, data governance, technische documentatie, conformiteitsbeoordeling. Dit kost maanden aan voorbereiding. Bedrijven die nu beginnen met een gap-analyse hebben een realistische tijdlijn. De AI-geletterdheid verplichting geldt al.
Tools Die Dit Gebruiken
Veelgestelde Vragen
Hoe weet ik of mijn AI-systeem hoog-risico is?
Wat kost compliance voor een hoog-risico systeem?
Kan een hoog-risico classificatie veranderen?
Wat gebeurt er als ik niet voldoe aan de eisen?
Gerelateerde Termen
Wil je deze term in de praktijk leren toepassen?