jan-karel.nl
Home / ethical hacker / penetratietester / AI & Cybersecurity / Wanneer de Machine Terugbijt

Wanneer de Machine Terugbijt

Er was een tijd — en die ligt nog niet zo heel ver achter ons — dat je een phishingmail kon herkennen aan het Nederlands. Het soort Nederlands dat je krijgt als iemand een Nigeriaanse e-mail door Google Translate haalt en dan denkt: ja, dat komt wel goed. "Geachte rekeninghouder, uw bankpas is vervallen wegens onregelmatige transacties op uw spaargeld." Je moest er bijna om glimlachen.

Die tijd is voorbij.

De nieuwe generatie aanvallen

Grote taalmodellen schrijven inmiddels phishingmails die je eigen communicatieafdeling niet beter zou formuleren. Sterker nog: ze schrijven ze persoonlijker. Want een AI die toegang heeft tot je LinkedIn-profiel, je laatste Instagram-post en het persbericht van je werkgever, kan een e-mail samenstellen die zo specifiek is dat zelfs de meest argwanende medewerker even twijfelt.

En dat is nog maar het begin.

Deepfakes: je baas aan de telefoon (maar dan niet)

In 2024 verloor een financieel medewerker in Hong Kong 25 miljoen dollar. Niet omdat hij dom was. Niet omdat hij de procedure niet kende. Maar omdat hij in een videocall zat met zijn CFO en drie collega's — die er allemaal precies uitzagen en klonken als de echte personen. Alleen waren ze het niet. Het waren deepfakes. Realtime gegenereerde video's, aangestuurd door AI, overtuigend genoeg om iemand die zijn collega's dagelijks ziet, om de tuin te leiden.

De technologie die hiervoor nodig is, kostte vijf jaar geleden miljoenen en een team van specialisten. Vandaag kost het een grafische kaart en een vrije middag.

Voice cloning: drie seconden zijn genoeg

Moderne voice-cloning-modellen hebben ongeveer drie seconden van je stem nodig om een overtuigende kopie te maken. Drie seconden. Dat is korter dan de gemiddelde voicemailbegroeting. Korter dan "hallo, met Jan-Karel, ik ben even niet bereikbaar." Genoeg om vervolgens je moeder te bellen met de mededeling dat je vastgehouden wordt en dat ze nu geld moet overmaken.

Het klinkt als sciencefiction, maar het is de realiteit van 2026. Social engineering is altijd gebaseerd geweest op vertrouwen — en AI heeft het vervalsen van vertrouwen geïndustrialiseerd.

Geautomatiseerde aanvallen op schaal

Het echte probleem is niet dat AI-aanvallen beter zijn. Het is dat ze schaalbaar zijn. Een menselijke aanvaller kan misschien tien overtuigende phishingmails per dag schrijven. Een AI doet er tienduizend, elk gepersonaliseerd, elk in de juiste taal, elk met de juiste toon voor het doelwit. De marketingafdeling noemt dit "personalisatie op schaal." De beveiligingswereld noemt het een nachtmerrie.

Daarbij komt dat AI-modellen niet alleen tekst produceren. Ze analyseren ook reacties. Klikte iemand niet? Pas de toon aan. Was het onderwerp niet urgent genoeg? Probeer een ander haakje. Het is A/B-testen, maar dan voor criminaliteit.

Wat kun je doen?

Het ongemakkelijke antwoord is: de oude verdedigingen werken nog steeds, maar je moet ze serieuzer nemen. Dat betekent:

  • Verificatie via een ander kanaal. Als je CFO belt met een urgent verzoek, hang op en bel terug op het bekende nummer. Ja, ook als het onbeleefd voelt.
  • Afgesproken codewoorden voor financiële transacties boven een bepaald bedrag. Klinkt ouderwets, werkt uitstekend tegen deepfakes.
  • Awareness die verder gaat dan "klik niet op linkjes." Medewerkers moeten weten dat de stem aan de telefoon niet per definitie echt is.
  • Technische detectie — deepfake-detectietools, e-mailauthenticatie (DMARC/DKIM/SPF), en anomaliedetectie op communicatiepatronen.

Het tijdperk waarin je een aanval kon herkennen aan de spelfouten is voorbij. Maar het tijdperk waarin je jezelf kon beschermen met gezond verstand en goede procedures? Dat is er nog steeds. Je moet alleen wat harder je best doen.

Op de hoogte blijven?

Ontvang maandelijks cybersecurity-inzichten in je inbox.

← AI & Cybersecurity ← Home