Een update van bericht 033
De “collega” bestaat niet – maar jij, het slachtoffer, wel!
Criminelen doen zich steeds slimmer voor als iemand anders. Met behulp van kunstmatige intelligentie misleiden ze slachtoffers om vertrouwelijke informatie prijs te geven. En nu heb jij, het slachtoffer, een probleem – met gegevensbescherming, met integriteit, en soms zelfs met je baan. Dát is social engineering anno 2025.
AI maakt misleiding geloofwaardiger dan ooit
In plaats van slecht geacteerde telefoontjes gebruiken cybercriminelen nu AI-tools om realistische stemklonen te maken van collega’s of leidinggevenden. In Nederland is het aantal meldingen van AI-ondersteunde phishingaanvallen in 2024 met 36% gestegen ten opzichte van het jaar ervoor, volgens het Nationaal Cyber Security Centrum (NCSC). Deepfakes en automatisch gegenereerde e-mails met foutloze grammatica zorgen ervoor dat zelfs goed getrainde werknemers in de val trappen.
Je denkt dat het jou niet overkomt – totdat het dat wel doet
De meeste mensen overschatten hun vermogen om manipulatie te herkennen. Maar AI maakt het voor criminelen kinderlijk eenvoudig om geloofwaardige scenario’s te creëren die inspelen op jouw werkstress, vermoeidheid of loyaliteit.
Een voorbeeld: een ogenschijnlijk vriendelijke collega belt je op met een stem die exact klinkt als die van je echte IT-medewerker – dankzij voice-cloning AI. Hij vraagt niet om je wachtwoord, maar wil “alleen even weten” welke software je gebruikt, omdat hij zegt dat de documentatie onvolledig is. Je antwoordt. Maar dat kleine beetje informatie kan voldoende zijn voor een gerichte aanval.
De kracht van social engineering zit in de details – en AI vergroot die kracht
Social engineering speelt in op menselijke psychologie. En AI stelt criminelen in staat om die psychologie op schaal te exploiteren. Uit onderzoek van Veilig Internetten blijkt dat ruim 1 op de 5 Nederlandse bedrijven in 2024 slachtoffer werd van een poging tot social engineering – vaak met behulp van geautomatiseerde systemen die eerder op het dark web verzamelde gegevens combineren.
Wat kun jij doen?
- Neem training serieus – ook als het ongemakkelijk voelt
Veel AI-gegenereerde aanvallen zien eruit als gewone interacties. Alleen door herhaaldelijk oefenen en scenario’s herkennen, kun je patronen leren zien. Daarom bieden steeds meer bedrijven verplichte awareness-training aan. Maak er gebruik van.
- Volg vastgestelde procedures – altijd
AI maakt het makkelijker voor aanvallers om zich voor te doen als interne medewerkers. Juist daarom moet je nooit gegevens delen buiten de officiële, gecontroleerde kanalen. Vertrouw op het proces – dat is je bescherming.
- Gebruik sterke beveiliging – ook privé
Multifactorauthenticatie (MFA), wachtwoordmanagers, en beveiligingssleutels zijn belangrijker dan ooit. Criminelen gebruiken AI om wachtwoorden te raden, patronen te herkennen, en zelfs gedrag te voorspellen. MFA maakt het ze moeilijker.
- Wees alert – vertrouw op je intuïtie
Lijkt iets nét iets te soepel, te dringend, of te beleefd? AI kan beleefdheid en urgentie feilloos simuleren. Bij twijfel: controleer. Bel de afdeling zelf terug, gebruik officiële kanalen. Meld incidenten direct. In 2023 kon in 48% van de gerapporteerde gevallen de schade nog worden beperkt, volgens cijfers van CyberVeilig Nederland.
AI maakt aanvallen geavanceerder, maar je alertheid, terughoudendheid en meldingsbereidheid blijven de laatste verdedigingslinie. G.H.