Deepfake
Simpele Uitleg
Een deepfake is een door AI gemaakt of bewerkt beeld, video of geluidsfragment dat er heel echt uitziet maar nep is. Stel je voor dat iemand een video maakt waarin jouw baas iets zegt wat hij nooit gezegd heeft — en het ziet er volkomen overtuigend uit. Dat is een deepfake. De technologie combineert "deep learning" (een vorm van AI) en "fake" (nep). Het wordt steeds makkelijker en goedkoper om ze te maken, en steeds moeilijker om ze te herkennen.
Technische Definitie
Deepfakes worden gegenereerd met drie hoofdtechnologieën. Generative Adversarial Networks (GANs) gebruiken twee neurale netwerken die elkaar trainen: een generator die nep-beelden maakt en een discriminator die probeert echt van nep te onderscheiden. Diffusion models gebruiken een stapsgewijs denoising-proces dat stabielere en hogere kwaliteit output levert. Autoencoders leren gezichten te encoderen en decoderen, waarmee face-swaps mogelijk worden. Onder Artikel 50 van de EU AI Act moeten deepfakes vanaf augustus 2026 verplicht worden gemarkeerd in een machineleesbaar formaat. Boetes voor niet-naleving lopen op tot €35 miljoen of 7% van de wereldwijde omzet.
Waarom Dit Belangrijk Is
Deepfakes zijn niet langer een sciencefiction-scenario — ze zijn een direct bedrijfsrisico. In het eerste kwartaal van 2025 verloren bedrijven wereldwijd meer dan $200 miljoen door deepfake-fraude. Bij ingenieursbureau Arup kostte één deepfake-videoconferentie $25 miljoen. Voice cloning fraude steeg met 680% in het afgelopen jaar.
Het raakt niet alleen grote bedrijven. CEO-fraude treft inmiddels zo'n 400 bedrijven per dag. Een gekloonde stem van je directeur die de financiële afdeling belt met een "dringende overboeking" — dat is geen hypothetisch scenario meer.
Voor bedrijven geldt daarnaast de wettelijke kant: onder de EU AI Act moeten AI-gegenereerde beelden, video's en audio verplicht worden gemarkeerd. Wie dat nalaat riskeert boetes tot 7% van de omzet. In de ChatGPT, Claude & Gemini Masterclass leer je hoe je AI-gegenereerde content verantwoord inzet. De AI als Teamsport training helpt hele teams bewust worden van deze risico's.
Hoe Het Werkt
Het maken van een deepfake werkt in vijf stappen, en je hebt er steeds minder technische kennis voor nodig.
Eerst worden bronbeelden verzameld: foto's of video's van het doelwit. Sociale media bieden hier vaak meer dan genoeg materiaal. Voor voice cloning zijn soms slechts enkele seconden audio genoeg.
Dan verwerkt de AI het materiaal: gezichten worden gedetecteerd, uitgelijnd en genormaliseerd. Het neurale netwerk leert de gezichtskenmerken van de bron- en doelpersoon.
Vervolgens genereert het model de synthetische media. Bij een face-swap wordt het ene gezicht naadloos over het andere geplaatst. Bij voice cloning wordt tekst omgezet naar spraak die klinkt als de doelpersoon.
Na de generatie volgt nabewerking: visuele artefacten worden weggewerkt, belichting wordt afgestemd, en audio wordt genormaliseerd. Het resultaat is vaak niet van echt te onderscheiden.
Detectie is lastig maar niet onmogelijk. Methoden zijn onder andere analyse van belichting-inconsistenties, onnatuurlijke knippatronen, audio-frequentie-analyse, en metadata-controle. Gespecialiseerde tools als Sensity AI en Reality Defender gebruiken AI om deepfakes te detecteren — maar het is een wapenwedloop.
Use Cases
CEO-fraude preventie
Financiële afdelingen moeten alert zijn op deepfake voice cloning. Een gekloonde stem van de CEO die belt met een "urgente betaling" is een reëel risico. Protocollen voor verificatie (terugbellen via een bekend nummer, multi-persoon goedkeuring) zijn essentieel.
Marketing en content labeling
Marketingteams die AI gebruiken voor beeldgeneratie moeten onder de EU AI Act deze content markeren als AI-gegenereerd. Dit geldt voor social media posts, advertenties en website-beelden. De AI voor Marketing teams training behandelt dit praktisch.
HR en identiteitsverificatie
Deepfakes worden ingezet bij sollicitatiefraude: kandidaten die met een fake gezicht op video-interviews verschijnen. HR-afdelingen moeten verificatiemethoden implementeren. De AI voor HR training bespreekt deze risico's.
Mediaverificatie en reputatiebescherming
Bedrijven moeten kunnen verifiëren of media-uitingen van hun leiders echt zijn. Een valse video van een CEO die controversiële uitspraken doet kan de aandelenkoers beïnvloeden. Detectietools en snelle responsprocedures zijn cruciaal.
Voorbeelden
De Arup-zaak ($25 miljoen)
Toegankelijkheid van deepfake-tools
Detectie versus creatie
Veelgemaakte Fouten
"Deepfakes zijn makkelijk te herkennen"
Niet meer. State-of-the-art deepfakes zijn vrijwel niet te onderscheiden van echte media. Mensen herkennen ze slechts in een kwart van de gevallen. Vertrouw niet op je ogen — gebruik verificatieprotocollen en detectietools.
"Dit is alleen een probleem voor beroemdheden en politici"
CEO-fraude via deepfakes treft zo'n 400 bedrijven per dag. Voice cloning fraude steeg 680%. Elk bedrijf met een publiek zichtbare directie is een potentieel doelwit. De gemiddelde schade per incident is bijna $500.000.
"Het is illegaal om deepfakes te maken, dus het gebeurt niet"
Het maken van een deepfake is in Nederland niet automatisch strafbaar. Wel zijn specifieke toepassingen strafbaar: identiteitsfraude (tot 6 jaar gevangenis), wraakporno (Art. 139h Wetboek van Strafrecht), en oplichting. Handhaving is echter lastig door de anonimiteit van makers.
Tools Die Dit Gebruiken
Veelgestelde Vragen
Zijn deepfakes illegaal in Nederland?
Hoe bescherm ik mijn bedrijf tegen deepfake-fraude?
Wat zegt de EU AI Act over deepfakes?
Hoe goed zijn deepfake-detectietools?
Gerelateerde Termen
Wil je deze term in de praktijk leren toepassen?