Cybercriminelen zouden kunstmatige intelligentie (AI) kunnen gebruiken om het uiterlijk en de stem van ogenschijnlijk bekende mensen op online conferenties te simuleren. De vervalsingen zijn al buitengewoon goed en moeilijk te herkennen.
De wolf in schaapskleren komt niet alleen voor in sprookjes
Als vertrouwelijke gesprekken op internet worden afgeluisterd, hoeft er geen klassieke hackeraanval of een gebrek aan encryptie achter te zitten. Het kan ook zijn dat de spion ongemerkt aan het gesprek deelnam. Maar hoe kan dat als er alleen bekende gezichten werden gezien en bekende stemmen werden gehoord?
Dit wordt mogelijk gemaakt door AI (kunstmatige intelligentie) in handen van cybercriminelen. Dankzij AI is het nu mogelijk om niet alleen individuele afbeeldingen, maar zelfs video’s en geluidsopnamen te vervalsen. Dit kunnen ook live video’s en live gesprekken zijn, omdat de door criminelen gebruikte AI het videobeeld en geluid van de spion omzet in het uiterlijk en de stem van een andere persoon die wel had mogen deelnemen aan de vertrouwelijke online bijeenkomst.
Niet alleen kan er een e-mail op de verkeerde naam worden verzonden, ook kunnen er met een valse identiteit worden gebeld en online vergaderd. Onlinefraude krijgt een geheel nieuw gezicht.
Identiteitsdiefstal live en in kleur
Het nieuwe type identiteitsdiefstal wordt deepfake genoemd, bedrieglijk echt ogende, gemanipuleerde beeld-, audio- of video-opnamen, gemaakt met behulp van kunstmatige intelligentie.
Lange tijd was het erg tijdrovend om dynamische media, zoals video’s of audio-opnamen, met hoge kwaliteit te manipuleren, zoals het Duitse Bundesamt für Sicherheit in der Informationstechnik (BSI) uitlegt. Dit is nu echter veel eenvoudiger dankzij methoden uit het veld van de kunstmatige intelligentie (AI) en het gebruik van diepe neurale netwerken. De inspanning die criminelen nodig hebben voor deepfakes is navenant laag.
De toenemende real-time mogelijkheden van deepfakes zorgen ervoor dat je tijdens online vergaderingen niet langer zeker weet of je met de echte persoon praat, een aanvaller of zelfs een avatar, dat wil zeggen een kunstmatig persoon.
Dit is de beste manier om deepfakes te detecteren
Hoewel AI-processen de nepvideo’s en -stemmen nu in zeer hoge kwaliteit kunnen genereren, zijn er bepaalde zwakke punten in de deepfakes die kunnen worden gebruikt om aanwijzingen over mogelijke vervalsingen te vinden. Het Bundesamt für Verfassungsschutz (BfV) beveelt aan:
- Zorg voor een goede (beeld)kwaliteit: Hoe hoger de resolutie of het beeldformaat, hoe makkelijker het is om inconsistenties in het beeld te identificeren. Video’s moeten daarom niet op een mobiele telefoon worden bekeken, maar op een grotere monitor. Goede kleurinstellingen laten ook inconsistenties zien, bijvoorbeeld in het uiterlijk van de huid.
- Let op de gezichtsuitdrukkingen van de persoon: Natuurlijke reacties zoals knipperen met de ogen, fronsen of de bekende “boze ader” kunnen nog niet goed worden weergegeven door een AI. Een nadere blik op de ogen en het voorhoofd kan een nep onthullen. Om dit te doen, kijkt u naar het beeld vertraagd om eventuele vervormingen te zien.
- Controleer de bron: Uiteindelijk helpt het natuurlijk altijd om de bron te controleren of, als je twijfelt over het videoschakelen, terug te vragen om in ieder geval de mogelijkheid te hebben het videogesprek of de video te verifiëren.
Het Bundesamt für Sicherheit in der Informationstechnik (BSI) wijst ook op tekenen van gezichtsmanipulatie en noemt zichtbare artefacten op de naad rond het gezicht in het videobeeld, wazige contouren van tanden en ogen, beperkte gezichtsuitdrukkingen en inconsistente verlichting als waarschuwingssignalen.
Helaas leren criminele AI-processen en cybercriminelen snel, waardoor deepfakes steeds beter worden. Het is des te belangrijker om voorzichtig te zijn en niet zomaar alles te geloven wat je ziet. Dus “houd je ogen open” bij de volgende online conferentie!