Wat is er gebeurd?

De Arup-zaak: Een voorbode

Begin februari 2024 ontvangt een finance-medewerker bij Arup Hong Kong een e-mail met een verzoek om deel te nemen aan een videoconferentie met senior management. De video begint. Ze ziet de CFO, duidelijk zichtbaar via webcam; vier collega's uit management, elk in afzonderlijke videoschermen; een realistische conferentie-interface met bedrijfslogo's.

Allemaal deepfakes. Real-time AI-gegenereerde avatars met synthetische gezichten, gesynchroniseerde lippen, authentiek oogcontact.

Gedurende de oproep geven de deepfake-executives instructies: fondsen overmaken naar externe rekeningen ter voorbereiding van een kritieke deal. De medewerker, onder druk in een videoconferentie met wat ze gelooft authentieke leiderschap te zijn, voert uit. Niet één keer — vijftien keer. Uiteindelijk HK$200 miljoen (~€25 miljoen / £20 miljoen) over 15 transacties.

Pas achteraf blijkt: niemand van het management was werkelijk op die oproep. De hele conversatie was synthetisch.

De zaak werd gemeld aan de Hong Kong Police Force. CNN, The Guardian, Financial Times en SCMP rapporteerden het als de eerste zaak van dit soort in Hong Kong — maar onderzoeken sindsdien tonen aan dat dit niet geïsoleerd is.

Het patroon breidt zich uit

Mei 2024 — WPP: 's Werelds grootste advertentiebedrijf wordt getarget. Fraudeurs gebruiken WhatsApp met een nepafbeelding van CEO Mark Read en bellen senior executives via Microsoft Teams met een voice clone. Het lukt niet — de executive stelt verificatievragen — maar het bewijs dat deze technologie real-time gegenereerd kan worden, zonder sporen, staat vast.

Juli 2024 — Ferrari: CEO Benedetto Vigna wordt via WhatsApp geclond. Voice-cloning, niet video. De aannemer koestert twijfels en stelt een persoonlijke vraag om identiteit te verifiëren. Poging mislukt. Maar ook luxury-bedrijven staan op de hitlijst.

Het PRMIA-case-archief toont dat deepfake-operaties tegen CFO's en finance-executives nu routineus zijn — de meeste worden niet openbaar gemaakt wegens reputatierisico.

Waarom dit ertoe doet

CFO's zijn het primaire doelwit

Finance-executives beheren kasmogelijkheden: autorisaties voor grote overschrijvingen, bankrekeningtoegang, toegang tot cash pools. Een CEO kan bevelen geven; een CFO zorgt dat het geld beweegt. Voor een fraudeur is een CFO's stem en gezicht beter dan goud.

De PwC Global Fraud Survey 2026 benoemt dit expliciet: deepfakes in combinatie met synthetische identiteiten zijn nu de dominant emerging fraud modality. Synthetic identity fraud is het snelst groeiende fraudemodus — niet omdat het voor criminelen makkelijk is, maar omdat het voor organisaties vrijwel ondetecteerbaar is totdat het geld weg is.

De technologie is toegankelijk, goedkoop en ondetecteerbaar

Tot 2023 waren deepfakes technisch moeilijk. Nu kunnen AI-tools in minuten real-time video's genereren. OpenAI Sora, Runway Gen-3, en tientallen open-source alternatieven produceren photorealistic video. Voice cloning is nog goedkoper — tien seconden audio van een LinkedIn-speech is voldoende.

Dit betekent: lage voorbereidingskosten (een fraudeur kan tientallen executives klonen voor enkele honderden dollars), geen digitale voetafdruk (deepfake-oproepen verlaten geen verdachte logging-patronen), en geen verdachte timing (het geld beweegt via legitieme kanalen, goedgekeurd door echte accounthouders).

Verificatiesystemen zijn kwetsbaar

Veel organisaties verlaten zich op gezichtsherkenning of voice ID voor verificatie. Deepfakes slaan hier direct in: AI-gegenereerde gezichten passeren biometrische controlespunten. NIST-onderzoeken (2025) tonen aan dat commerciële facial recognition systemen kwetsbaar zijn voor diepe video's.

Arup had waarschijnlijk videoconferentie-authenticatie, mogelijk twee-factor verificatie en interne audit-controles. Geen ervan detecteerde het, omdat de fraudeur niet inbrak — hij legitimeerde zich als interne auteur van zijn eigen instructie.

Dit schakelt traditionele fraude-detectie uit

Legacy antifraudesystemen kijken naar ongewone transactie-timing, abnormale bedragen en verdachte begunstigdenrekeningen. Arup's transacties kwamen van binnenshuis-IP-adressen, waren goedgekeurd door insiders (de deepfake-CFO), en waren in normale bedragen voor een bedrijf van die omvang. Het zag eruit als interne autorisatie — niet fraude.

Beleidscontext

AI Act (2025)

De EU AI Act vereist transparantieverplichtingen voor AI-gegenereerde media (leveranciers moeten het aanmelden als hoog risico), real-time detectie-vereisten voor synthetische media gebruikt in identiteitsverificatie, en accountability als een bedrijf een fraude-incident niet detecteert wegens het ontbreken van adequate risicocontroles.

De AI Act voert geen straffeisen in voor gebruikers van deepfakes — alleen voor aanbieders. Fraudeurs die openbare AI-tools gebruiken, hebben nog relatieve straffeloosheid.

NIS2 (2025)

De Netwerk- en Informatiebeveiliging Directive 2 vereist incident response binnen 72 uur voor bedrijven met meer dan 250 medewerkers, meldplicht naar toezichthouders en potentieel naar klanten, en risicobeheersing inclusief sociale engineering — wat deepfakes formeel onder valt.

Arup was juridisch verplicht het geval binnen 72 uur te melden. Dit brengt complianceverplichtingen mee voor elk bedrijf in scope.

DORA (Digitale Operationele Weerbaarheid — financiële sector)

DORA (van kracht juni 2025) vereist incident-classificatie van fraudegevallen, meld- en rapportagevereisten voor kritieke incidenten en risicobeheersing voor social engineering. Nederlandse banken, verzekeringsmaatschappijen en financiële bedrijven moeten DORA-compliant zijn — deepfake-detectie is nu formeel vereist.

Het Nederlands landschap

Nederland heeft geen eigenstandige deepfake-wetgeving, maar GDPR en het Wetboek van Strafrecht dekken fraude. Onder Nederlands strafrecht kan een fraude-incident als oplichting door middel van misleidende technologie worden bekleed, wat hogere straffen kan meebrengen bij veroordeling.

AFM-waarschuwing (2025): De Autoriteit Financiële Markten heeft advisories uitgegeven die organisaties oproepen communicatieprotocollen voor grote transacties aan te passen.

Wat kunt u morgen doen?

  • 1Implementeer Multi-Channel Verification voor alle financiële instructies boven drempelwaarde. Stel in dat alle betalingsverzoeken boven €50.000 via minstens twee onafhankelijke kanalen worden geverifieerd: (a) terugbellen via een bekende persoonlijke mobiel (niet bedrijfsgebonden nummer), én (b) out-of-band bevestiging via sms, Slack DM of telefoon naar nummer in personeelsbestand. Deepfakes kunnen real-time videocalls nabootsen — maar niet gelijktijdig twee onafhankelijke kanalen beantwoorden. Begin met drempel €100.000, rol uit naar €50.000 binnen drie maanden.
  • 2Train finance-teams op verificatievragen en anomaliescenario's. Implementeer driemaandelijkse deepfake-bewustwordingstrainingen gericht op: hoe deepfakes klinken en voelen (subtiele artefacten bij extreme camerahoeken, perfecte lipsynchronisatie als waarschuwingssignaal), verificatievragen stellen die alleen de betrokken persoon kan beantwoorden (Ferrari's methode werkte), en anomaliewaarschuwingen herkennen zoals urgente geldverzoeken en vertrouwelijke verzoeken. Begin met CFO, controller, treasurers en senior finance. Jaarlijks herhalen.
  • 3Audit uw biometrische verificatiesystemen en voeg liveness-detectie toe. Vraag uw leverancier expliciet: Kan uw systeem deepfakes detecteren? Upgrade naar liveness detection software (Incode, iProov of vergelijkbare oplossingen) en test uw systemen tegen bekende deepfake-samples (publiek beschikbaar via NIST-tests). Veel organisaties gebruiken gezichtsherkenning maar zonder liveness detection — ze controleren of gezichten overeenkomen met een ID, niet of het gezicht in real-time echt is. Audit binnen vier weken, upgrade binnen drie maanden.