Terug naar Woordenboek
beginnerTechnisch
5 min leestijd

Deepfake

Simpele Uitleg

Een deepfake is een door AI gemaakt of bewerkt beeld, video of geluidsfragment dat er heel echt uitziet maar nep is. Stel je voor dat iemand een video maakt waarin jouw baas iets zegt wat hij nooit gezegd heeft — en het ziet er volkomen overtuigend uit. Dat is een deepfake. De technologie combineert "deep learning" (een vorm van AI) en "fake" (nep). Het wordt steeds makkelijker en goedkoper om ze te maken, en steeds moeilijker om ze te herkennen.

Technische Definitie

Deepfakes worden gegenereerd met drie hoofdtechnologieën. Generative Adversarial Networks (GANs) gebruiken twee neurale netwerken die elkaar trainen: een generator die nep-beelden maakt en een discriminator die probeert echt van nep te onderscheiden. Diffusion models gebruiken een stapsgewijs denoising-proces dat stabielere en hogere kwaliteit output levert. Autoencoders leren gezichten te encoderen en decoderen, waarmee face-swaps mogelijk worden. Onder Artikel 50 van de EU AI Act moeten deepfakes vanaf augustus 2026 verplicht worden gemarkeerd in een machineleesbaar formaat. Boetes voor niet-naleving lopen op tot €35 miljoen of 7% van de wereldwijde omzet.

Waarom Dit Belangrijk Is

Deepfakes zijn niet langer een sciencefiction-scenario — ze zijn een direct bedrijfsrisico. In het eerste kwartaal van 2025 verloren bedrijven wereldwijd meer dan $200 miljoen door deepfake-fraude. Bij ingenieursbureau Arup kostte één deepfake-videoconferentie $25 miljoen. Voice cloning fraude steeg met 680% in het afgelopen jaar.

Het raakt niet alleen grote bedrijven. CEO-fraude treft inmiddels zo'n 400 bedrijven per dag. Een gekloonde stem van je directeur die de financiële afdeling belt met een "dringende overboeking" — dat is geen hypothetisch scenario meer.

Voor bedrijven geldt daarnaast de wettelijke kant: onder de EU AI Act moeten AI-gegenereerde beelden, video's en audio verplicht worden gemarkeerd. Wie dat nalaat riskeert boetes tot 7% van de omzet. In de ChatGPT, Claude & Gemini Masterclass leer je hoe je AI-gegenereerde content verantwoord inzet. De AI als Teamsport training helpt hele teams bewust worden van deze risico's.

Hoe Het Werkt

Het maken van een deepfake werkt in vijf stappen, en je hebt er steeds minder technische kennis voor nodig.

Eerst worden bronbeelden verzameld: foto's of video's van het doelwit. Sociale media bieden hier vaak meer dan genoeg materiaal. Voor voice cloning zijn soms slechts enkele seconden audio genoeg.

Dan verwerkt de AI het materiaal: gezichten worden gedetecteerd, uitgelijnd en genormaliseerd. Het neurale netwerk leert de gezichtskenmerken van de bron- en doelpersoon.

Vervolgens genereert het model de synthetische media. Bij een face-swap wordt het ene gezicht naadloos over het andere geplaatst. Bij voice cloning wordt tekst omgezet naar spraak die klinkt als de doelpersoon.

Na de generatie volgt nabewerking: visuele artefacten worden weggewerkt, belichting wordt afgestemd, en audio wordt genormaliseerd. Het resultaat is vaak niet van echt te onderscheiden.

Detectie is lastig maar niet onmogelijk. Methoden zijn onder andere analyse van belichting-inconsistenties, onnatuurlijke knippatronen, audio-frequentie-analyse, en metadata-controle. Gespecialiseerde tools als Sensity AI en Reality Defender gebruiken AI om deepfakes te detecteren — maar het is een wapenwedloop.

Use Cases

CEO-fraude preventie

Financiële afdelingen moeten alert zijn op deepfake voice cloning. Een gekloonde stem van de CEO die belt met een "urgente betaling" is een reëel risico. Protocollen voor verificatie (terugbellen via een bekend nummer, multi-persoon goedkeuring) zijn essentieel.

Marketing en content labeling

Marketingteams die AI gebruiken voor beeldgeneratie moeten onder de EU AI Act deze content markeren als AI-gegenereerd. Dit geldt voor social media posts, advertenties en website-beelden. De AI voor Marketing teams training behandelt dit praktisch.

HR en identiteitsverificatie

Deepfakes worden ingezet bij sollicitatiefraude: kandidaten die met een fake gezicht op video-interviews verschijnen. HR-afdelingen moeten verificatiemethoden implementeren. De AI voor HR training bespreekt deze risico's.

Mediaverificatie en reputatiebescherming

Bedrijven moeten kunnen verifiëren of media-uitingen van hun leiders echt zijn. Een valse video van een CEO die controversiële uitspraken doet kan de aandelenkoers beïnvloeden. Detectietools en snelle responsprocedures zijn cruciaal.

Voorbeelden

De Arup-zaak ($25 miljoen)

Ingenieursbureau Arup verloor $25 miljoen door een deepfake-videoconferentie. Fraudeurs klonen de gezichten en stemmen van meerdere managers en overtuigden een financieel medewerker om het geld over te maken. De medewerker dacht met echte collega's te spreken.

Toegankelijkheid van deepfake-tools

Open-source tools als DeepFaceLab zijn gratis beschikbaar. Consumer-apps als Reface kosten minder dan €8 per maand. Cloud-diensten als Deepfakes Web rekenen €3 per uur. Je hebt geen technische achtergrond nodig om een basis face-swap te maken. Deepfake-as-a-Service is een van de snelstgroeiende cybercriminele diensten in 2025.

Detectie versus creatie

Mensen herkennen hoogwaardige deepfake-video's slechts 24,5% van de tijd correct. Moderne AI-gegenereerde video's omzeilen detectietools met meer dan 90% nauwkeurigheid. Het is een wapenwedloop: elke verbetering in detectie wordt gevolgd door een verbetering in generatie.

Veelgemaakte Fouten

"Deepfakes zijn makkelijk te herkennen"

Niet meer. State-of-the-art deepfakes zijn vrijwel niet te onderscheiden van echte media. Mensen herkennen ze slechts in een kwart van de gevallen. Vertrouw niet op je ogen — gebruik verificatieprotocollen en detectietools.

"Dit is alleen een probleem voor beroemdheden en politici"

CEO-fraude via deepfakes treft zo'n 400 bedrijven per dag. Voice cloning fraude steeg 680%. Elk bedrijf met een publiek zichtbare directie is een potentieel doelwit. De gemiddelde schade per incident is bijna $500.000.

"Het is illegaal om deepfakes te maken, dus het gebeurt niet"

Het maken van een deepfake is in Nederland niet automatisch strafbaar. Wel zijn specifieke toepassingen strafbaar: identiteitsfraude (tot 6 jaar gevangenis), wraakporno (Art. 139h Wetboek van Strafrecht), en oplichting. Handhaving is echter lastig door de anonimiteit van makers.

Tools Die Dit Gebruiken

DALL-EMidjourneyStable DiffusionDeepFaceLabSynthesiaElevenLabs

Veelgestelde Vragen

Zijn deepfakes illegaal in Nederland?
Het maken van een deepfake is niet automatisch strafbaar. Wel strafbaar zijn: identiteitsfraude via deepfakes (tot 6 jaar cel), deepfake wraakporno (Art. 139h Sr), en oplichting met deepfakes. De EU AI Act voegt daar transparantieverplichtingen aan toe: vanaf augustus 2026 moeten deepfakes verplicht worden gelabeld.
Hoe bescherm ik mijn bedrijf tegen deepfake-fraude?
Implementeer verificatieprotocollen voor financiële transacties (terugbellen via bekend nummer, multi-persoon goedkeuring). Gebruik deepfake-detectietools. Train medewerkers op het herkennen van verdachte verzoeken. Beperk de hoeveelheid video en audio van leidinggevenden die publiek beschikbaar is.
Wat zegt de EU AI Act over deepfakes?
Artikel 50 stelt dat aanbieders van AI-systemen die synthetische media genereren de output moeten markeren in machineleesbaar formaat. Gebruikers die deepfakes publiceren moeten melden dat het AI-gegenereerd is. Er is een uitzondering voor kunst en satire. Boetes lopen op tot €35 miljoen of 7% van de omzet.
Hoe goed zijn deepfake-detectietools?
De effectiviteit varieert. Gespecialiseerde tools als Sensity AI en Reality Defender detecteren veel deepfakes, maar de nauwkeurigheid kan met 50% dalen bij nieuwe, onbekende technieken. Het is een wapenwedloop. De beste strategie combineert technische detectie met procedurele verificatie.

Wil je deze term in de praktijk leren toepassen?