Gevaar door deepfakes – hoe ontmasker je fraude met AI?

Geplaatst op 18 mei 2025, om 11:34 uur

Een gezicht kijkt in de camera, de stem klinkt vertrouwd, de boodschap is duidelijk, maar niets is echt. Wat eruitziet als een onschuldige videoboodschap, kan in werkelijkheid het werk zijn van kunstmatige intelligentie die heeft geleerd de werkelijkheid na te bootsen en vertrouwen doelbewust te ondermijnen. In Nederland zorgde onlangs een deepfake-video voor politieke onrust.

Daarin was een vermeende minister te zien die zich uitsprak over onderwerpen die nooit aan de orde waren geweest. Wat daar als een eenmalig incident werd beschouwd, kan elders ernstige gevolgen hebben. De technologie achter deepfakes wordt namelijk niet alleen steeds toegankelijker, maar ook steeds geavanceerder en effectiever.

Hoe machines gezichten stelen en waarom deepfakes zo overtuigend zijn

De term klinkt bijna onschuldig, een beetje als een internetgrap en digitaal speelgoed. Maar ‘deepfake’ beschrijft een uiterst verfijnde manipulatie waarbij kunstmatige intelligentie en machine learning worden gebruikt om levensechte beeld-, geluids- en videocontent te creëren. Technisch gezien is het geheel gebaseerd op neurale netwerken, met name op zogenaamde Generative Adversarial Networks, waarbij twee AI-systemen tegen elkaar werken. De ene genereert een fake, de andere probeert deze te ontmaskeren. Door deze voortdurende krachtmeting wordt het resultaat met elke ronde overtuigender.

Nog maar een paar jaar geleden was voor dergelijke spelletjes een grondige technische kennis nodig. Tegenwoordig volstaan een app, een selfie en een paar minuten geduld. Het resultaat: realistisch ogende video’s waarin gezichten worden verwisseld of stemmen worden nagebootst alsof het kinderspel is. Door de technologische vooruitgang zijn deepfakes niet alleen realistischer geworden, maar ook angstaanjagend eenvoudig te maken.

Als de onlinewinkel vals speelt – deepfakes als verkooptactiek

De grenzen tussen reclame en misleiding vervagen steeds meer. De afgelopen maanden zijn er steeds meer gevallen waarin beroemdheden in video’s reclame maken voor producten die ze nooit hebben gebruikt. De clip lijkt geloofwaardig, de taal klopt, zelfs de mimiek en gebaren lijken te kloppen. Pas bij nader inzien valt op dat het om een vervalsing gaat.

Deze methode wordt vooral graag gebruikt door online casino’s, dubieuze gezondheidsproducten of twijfelachtige financiële platforms. De websites zien er vaak professioneel uit, de ervaringen klinken authentiek en de kortingsacties zijn verleidelijk. Maar achter de glanzende buitenkant gaan vaak aanbieders schuil die bewust misleiding gebruiken. Het is belangrijk om alleen gebruik te maken van betrouwbare aanbieders zoals betfirstcasino.be, want uiteindelijk gaat het om geld.

Natuurlijk zijn er ook veel serieuze bedrijven in deze sectoren. Maar het gebruik van deepfakes maakt het onderscheid aanzienlijk moeilijker. Een te perfecte video of een te mooie aanbieding moet argwaan wekken. Wie met bekende gezichten adverteert zonder hen daadwerkelijk te hebben gecontracteerd, schendt niet alleen het persoonlijkheidsrecht, maar misleidt ook opzettelijk.

Van plezier tot manipulatie – wanneer deepfakes schade aanrichten

Wat begint als een onschuldige meme, kan al snel een instrument van gerichte misleiding worden. In Hongkong werd een medewerker van een financiële instelling het slachtoffer van een gemanipuleerde videoconferentie. Hij zag zijn baas, hoorde zijn stem, geloofde de instructies – en maakte ongeveer 23 miljoen euro over naar een frauduleuze rekening. Geen slechte coup vanuit het oogpunt van de daders, maar wel een waarschuwing voor iedereen die denkt dat visuele communicatie automatisch betrouwbaar is.

Ook in de politieke arena hebben deepfakes al lang hun intrede gedaan. Neptoespraken, verzonnen uitspraken en bedrieglijk echte clips van topkandidaten circuleren op sociale netwerken, beïnvloeden meningen en zaaien doelbewust wantrouwen. Daar komen nog pornografische vervalsingen bij, waarbij gezichten van echte personen op andere lichamen worden gemonteerd. Deze vorm van digitaal geweld treft vaak vrouwen en is moeilijk juridisch te vervolgen.

En dan zijn er nog alle vervalste reclamevideo’s waarin zogenaamde beroemdheden reclame maken voor producten die ze nooit hebben gezien. Een huidcrème die gewrichten geneest, een financieel product dat je in drie dagen rijk maakt – allemaal ondersteund door een bekend gezicht en een overtuigend nagebootste stem. Wie hier niet twee keer kijkt, wordt al snel het slachtoffer van slimme verkooptechnieken.

Bedrieglijk echt, maar niet perfect – hoe herken je deepfakes?

Ondanks alle technische verfijning hebben deepfakes nog steeds zwakke punten. De oogcontouren zijn vaak een verraderlijk element. Het ontbreken van knipperen, starre blikken of een vreemd gelijkmatig oogritme kunnen aanwijzingen zijn dat er iets niet klopt. Ook in de mimiek zijn verschillen te zien. Emoties komen te glad over of lijken uit een bouwpakket te komen, bewegingen zijn minimaal verschoven of plotseling haperend.

Een ander aanwijzing: inconsistenties in licht en schaduw. Het gezicht glanst onnatuurlijk, schaduwen passen niet bij de omgeving of lijken uit de verkeerde richting te komen. Vooral in de overgangen – bijvoorbeeld bij de haarlijn of bij de oren – komen vaak onzuivere randen of vage lijnen voor.

Ook qua geluid zijn deepfakes kwetsbaar. De stem klinkt soms te gelijkmatig, ademloos of robotachtig. Spreekpauzes lijken kunstmatig en de emotionele expressie is meestal vlak. Dit valt vooral op wanneer de lipbewegingen niet precies overeenkomen met de spraak of wanneer de geluidsspoor iets verschoven is. Op zulke momenten blijkt dat zelfs een perfecte illusie niet volledig is.

Technische hulpmiddelen kunnen extra ondersteuning bieden. Online tools voor beeldonderzoek, deepfake-scanners of een website die synthetische media automatisch analyseert, helpen bij het controleren van verdachte inhoud. Ze zijn echter geen vervanging voor een eigen kritische blik.

Waarom kritisch denken vandaag de dag belangrijker is dan ooit

Deepfakes ontplooien hun werking niet alleen door technologie, maar vooral door vertrouwen. Wie ongefilterde inhoud gelooft en deelt, wordt al snel ongewild onderdeel van een manipulatiemechanisme. Je moet altijd informatie zoeken op een betrouwbare nieuwswebsite. Vooral op sociale netwerken verspreiden dergelijke clips zich razendsnel. Algoritmes belonen wat aandacht genereert – en dat lukt een deepfake die verontwaardiging of fascinatie opwekt met gemak.

Wat de wet zegt en waar deze nog achterloopt

Juridisch gezien zijn deepfakes een grijs gebied. Zolang er geen persoonlijkheidsrechten worden geschonden of geen schade wordt aangericht, zijn veel vervalsingen legaal. Satirische of artistieke deepfakes zijn bijvoorbeeld toegestaan. Het wordt problematisch wanneer er opzettelijk wordt misleid of belasterd, bijvoorbeeld door verzonnen uitspraken, intieme vervalsingen of frauduleuze video’s.

Voor seksueel getinte deepfakes bestaan al eerste wettelijke regels en in veel landen staan er zware straffen op. Maar juist omdat de productie anoniem kan plaatsvinden en de inhoud zich snel verspreidt, blijft vervolging moeilijk.