top of page

Bewijs of Bedrog? De Rechtspraak in het Tijdperk van Deepfakes

De opkomst van deepfaketechnologie vormt een fundamentele uitdaging voor het functioneren van de rechtsstaat.  Deepfakes zijn een vorm van synthetisch bewijsmateriaal: gemanipuleerd of volledig gegenereerd beeld-, audio- of videomateriaal dat met behulp van kunstmatige intelligentie (AI) en machine learning tot stand is gekomen. [1] Daarbij wordt gebruikgemaakt van geavanceerde technieken, waaronder Generative Adversarial Networks (GANs), waardoor het mogelijk is uiterst realistische media te creëren die nauwelijks van echt te onderscheiden zijn. [2] Het resultaat is dat personen ogenschijnlijk handelingen verrichten of uitspraken doen die zij in werkelijkheid nooit hebben gedaan of gezegd. [3] 


Hoewel de technologie op zichzelf legitieme toepassingen kent in bijvoorbeeld de entertainment- of onderwijswereld, zijn de risico’s bij oneigenlijk gebruik aanzienlijk. Dit geldt met name in de context van de rechtszaal, waar de betrouwbaarheid van bewijsmateriaal van essentieel belang is voor een eerlijke rechtspleging. Dit artikel bespreekt de juridische implicaties van deepfakes als bewijs in straf- en civielrechtelijke procedures en bepleit waarom een herziening van het bestaande rechtskader noodzakelijk is ter bescherming van de integriteit van het bewijsrecht.


Beeld: Marijn van der Heijde
Beeld: Marijn van der Heijde

Audiovisueel bewijs in het Nederlandse strafprocesrecht

In het Nederlandse strafprocesrecht geldt de vrije bewijsleer: de rechter is vrij in de beoordeling en waardering van bewijsmateriaal, mits hij dit motiveert (artikel 338 Sv). Wettige bewijsmiddelen worden limitatief opgesomd in artikel 339 Sv, waaronder getuigenverklaringen, deskundigenrapporten en schriftelijke bescheiden. Audiovisueel bewijs wordt meestal gepresenteerd als schriftelijk bewijsstuk of dient als basis voor de eigen waarneming van de rechter. [4]


Beelden en geluidsfragmenten spelen een belangrijke rol in strafzaken, omdat ze als betrouwbaar en objectief worden gezien. De rechter kan audiovisueel bewijs waarnemen en gebruiken voor de bewijsconstructie, mits procespartijen hier niet onverwachts mee worden geconfronteerd. [5] De opkomst van deepfakes ondermijnt deze aanname en maakt het lastiger om de authenticiteit van audiovisueel bewijsmateriaal vast te stellen.


Deepfakes en de aantasting van bewijswaardering

De betrouwbaarheid van audiovisueel bewijsmateriaal staat dus onder druk. Met behulp van kunstmatige intelligentie kunnen videobeelden en geluidsfragmenten worden gemanipuleerd op een manier die nauwelijks van echt te onderscheiden is. Dit brengt twee fundamentele problemen met zich mee.


Ten eerste kunnen deepfakes worden ingezet om verdachten ten onrechte te belasten of juist om valse alibi’s te creëren. [6] Dit bemoeilijkt de waarheidsvinding en kan rechterlijke dwalingen tot gevolg hebben. Ten tweede kunnen verdachten belastend bewijsmateriaal afdoen als deepfake, ook wanneer het authentiek is. [7] Dit verschijnsel, ook wel plausible deniability genoemd, maakt het moeilijk om nog met zekerheid vast te stellen of audiovisueel bewijs betrouwbaar is. [8]


Daarnaast worden detectiemethoden steeds minder effectief. Onderzoek toont aan dat slechts ongeveer 65% van de deepfakes wordt herkend met de huidige technieken. [9] Dit betekent dat zelfs geavanceerde verificatiesystemen geen absolute zekerheid kunnen bieden over de echtheid van audiovisueel materiaal. Naarmate deepfake-technologie zich verder ontwikkelt, zal de scheidslijn tussen authentiek en gemanipuleerd bewijsmateriaal steeds verder vervagen.


Juridische risico’s van deepfakes in bewijsvoering

Deepfakes brengen meerdere juridische risico’s met zich mee. Gemanipuleerd videomateriaal kan leiden tot valse beschuldigingen of een verdachte onterecht vrijpleiten. Dit ondermijnt het vertrouwen in het rechtsproces.


Ook leidt de opkomst van deepfakes tot een bredere vertrouwenscrisis in audiovisueel bewijsmateriaal. In een samenleving waarin naar verwachting 90% van online content in de toekomst deels gemanipuleerd zal zijn, wordt het steeds lastiger om de authenticiteit van bewijs vast te stellen. [12] Dit kan ertoe leiden dat rechters en juridische instanties zelfs echt bewijsmateriaal in twijfel gaan trekken.


Een bijkomend probleem is het ontbreken van een specifieke regeling in het Wetboek van Strafvordering met betrekking tot de bewijswaarde van deepfakes. Op dit moment moeten rechters terugvallen op bestaande bewijsregels, die niet specifiek zijn ontworpen voor een tijdperk waarin beeld- en geluidsmateriaal eenvoudig te manipuleren is. [13] Dit roept de vraag op of het huidige bewijsrecht voldoende bescherming biedt tegen de risico’s van synthetisch bewijsmateriaal.


Ontwikkelingen in de Nederlandse wetgeving

In het huidige strafrecht bestaat nog geen specifieke regelgeving over het gebruik van deepfakes als bewijsmateriaal. De vrije bewijsleer blijft van kracht, maar de onzekerheid over de authenticiteit van audiovisueel bewijs neemt toe.


Het wetsvoorstel voor het nieuwe Wetboek van Strafvordering erkent in artikel 4.3.8 audiovisuele opnamen voor het eerst expliciet als wettig bewijsmiddel, naast onder meer getuigenverklaringen en schriftelijke stukken. [14] Deze opname in de wet benadrukt het groeiende belang van beeld- en geluidsmateriaal binnen strafprocedures. Opnamen hoeven — mits de verdachte daarmee instemt — niet per se tijdens de zitting te worden getoond, maar mogen ook buiten de zitting door de rechter worden bekeken.


Hoewel dit efficiënt is, brengt het risico’s met zich mee. Het wetsvoorstel bevat namelijk geen aanvullende eisen voor authenticiteitscontrole. In een tijdperk van deepfakes is het problematisch dat de rechter audiovisueel bewijs zelfstandig mag beoordelen zonder verplichte verificatie of deskundigenadvies. De verhoogde status van beeld- en geluidsmateriaal wordt zo niet vergezeld door waarborgen tegen manipulatie.


Aanbevelingen voor betere bescherming 

Volgens Van der Sloot, Wagensveld en Koops is het wenselijk om strengere authenticiteitscontroles en verificatiemethoden te ontwikkelen om de betrouwbaarheid van audiovisueel bewijsmateriaal te waarborgen. [15] Zij stellen onder meer voor om deskundigenonderzoek bij audiovisueel bewijs verplicht te stellen, geavanceerdere detectiesystemen te ontwikkelen en specifieke wetgeving te creëren over de toelaatbaarheid en bewijswaarde van audiovisueel materiaal in strafzaken. [16]


Deze aanbevelingen bieden waardevolle aanknopingspunten, maar brengen ook belangrijke operationele uitdagingen met zich mee. Het inschakelen van deskundigen lijkt wenselijk vanuit het perspectief van waarheidsvinding, maar roept vragen op over de uitvoerbaarheid in de praktijk. Deepfake-zaken zullen leiden tot nieuwe vormen van werk voor opsporingsinstanties, die hun personeelscapaciteit moeten vergroten en blijvend moeten investeren in technische expertise en detectiemiddelen. [17] Bestaande procedures voor bewijswaardering zijn bovendien gericht op traditionele manipulatievormen en zullen voortdurend aangepast moeten worden. [18] Dit laat zien dat niet alleen de wet aangepast moet worden, maar ook de manier waarop in de praktijk met bewijs wordt omgegaan.


Daarnaast is ook wettelijke verankering van de bewijswaarde van audiovisueel materiaal noodzakelijk. De huidige vrije bewijsleer biedt weliswaar ruimte voor rechterlijke afweging, maar mist specifieke richtlijnen voor synthetisch bewijs. Tegelijkertijd is een al te rigide regeling onwenselijk, omdat technologische ontwikkelingen zich snel en onvoorspelbaar voltrekken. Een systeem van open normen kan hier uitkomst bieden. Wanneer dit wordt gecombineerd met structurele toegang tot technologische expertise, bijvoorbeeld via uitbreiding van de taken en middelen van het NFI of de oprichting van een gespecialiseerd instituut, kan dit bijdragen aan een werkbaar evenwicht tussen rechtszekerheid en flexibiliteit. [19]


De complexiteit van het deepfake-probleem vraagt echter om meer dan juridische en procedurele aanpassingen alleen. Een belangrijk aanvullend spoor is educatie en mediawijsheid. [20] In een tijd waarin manipulatief beeldmateriaal steeds overtuigender wordt en online massaal circuleert, moeten zowel juridische professionals als burgers beter worden toegerust om audiovisuele content kritisch te kunnen beoordelen. [21] Denk aan trainingen voor rechters, advocaten en officieren van justitie in het herkennen van deepfakes, maar ook aan voorlichting richting het publiek om te voorkomen dat het vertrouwen in beeldmateriaal volledig verdwijnt. [22]


Daarnaast zijn technologische oplossingen onmisbaar. Nieuwe tools voor verificatie, digitale watermerken, blockchain voor herkomstverificatie en AI-gestuurde detectie kunnen ondersteuning bieden bij het onderscheiden van echt en gemanipuleerd bewijsmateriaal. [23] 


Kortom, een effectieve aanpak van deepfakes vereist een integrale strategie waarin juridische, educatieve en technologische pijlers hand in hand gaan. Alleen door deze combinatie kan het vertrouwen in audiovisueel bewijs binnen de rechtsstaat worden behouden.


Conclusie

Deepfakes vormen een ernstige bedreiging voor  de betrouwbaarheid van audiovisueel bewijs in straf- en civielrechtelijke procedures. De traditionele aanname dat beeld- en geluidsmateriaal een objectieve weergave van de werkelijkheid biedt, is niet langer houdbaar. Dit roept niet alleen technische, maar ook fundamentele juridische vragen op over de wijze waarop rechters bewijsmateriaal moeten waarderen.

Het ontbreken van een specifieke regeling voor deepfake-bewijsmateriaal in het Wetboek van Strafvordering maakt het noodzakelijk om het procesrecht aan te passen. Strengere authenticiteitstoetsen en duidelijke richtlijnen voor de bewijswaarde van audiovisueel materiaal kunnen bijdragen aan de bescherming van de rechtsstaat. 


[1] B. van der Sloot, Y. Wagensveld & B. Koops, Deepfakes: De juridische uitdagingen van een synthetische samenleving, Den Haag: WODC 2023, p. 3-4.


[2] B. van der Sloot, Y. Wagensveld & B. Koops, Deepfakes: De juridische uitdagingen van een synthetische samenleving, Den Haag: WODC 2023, p. 3-4.


[3] B. van der Sloot, Y. Wagensveld & B. Koops, Deepfakes: De juridische uitdagingen van een synthetische samenleving, Den Haag: WODC 2023, p. 3-4. 


[4]  B. van der Sloot, Y. Wagensveld & B. Koops, Deepfakes: De juridische uitdagingen van een synthetische samenleving, Den Haag: WODC 2023, p. 138-139.


[5]  B. van der Sloot, Y. Wagensveld & B. Koops, Deepfakes: De juridische uitdagingen van een synthetische samenleving, Den Haag: WODC 2023, p. 138-139.


[6] B. van der Sloot, Y. Wagensveld & B. Koops, Deepfakes: De juridische uitdagingen van een synthetische samenleving, Den Haag: WODC 2023, p. 275. 


[7]  B. van der Sloot, Y. Wagensveld & B. Koops, Deepfakes: De juridische uitdagingen van een synthetische samenleving, Den Haag: WODC 2023, p. 11.


[8]  B. van der Sloot, Y. Wagensveld & B. Koops, Deepfakes: De juridische uitdagingen van een synthetische samenleving, Den Haag: WODC 2023, p. 11.


[9]  B. van der Sloot, Y. Wagensveld & B. Koops, Deepfakes: De juridische uitdagingen van een synthetische samenleving, Den Haag: WODC 2023, p. 6. 


[12]  B. van der Sloot, Y. Wagensveld & B. Koops, Deepfakes: De juridische uitdagingen van een synthetische samenleving, Den Haag: WODC 2023, p. 7. 


[13]  B. van der Sloot, Y. Wagensveld & B. Koops, Deepfakes: De juridische uitdagingen van een synthetische samenleving, Den Haag: WODC 2023, p. 138.


[14] Kamerstukken II 2022/23, 36327, nr. 3, p. 997-998 (MvT).


[15]  B. van der Sloot, Y. Wagensveld & B. Koops, Deepfakes: De juridische uitdagingen van een synthetische samenleving, Den Haag: WODC 2023, p. 208-220. 


[16]  B. van der Sloot, Y. Wagensveld & B. Koops, Deepfakes: De juridische uitdagingen van een synthetische samenleving, Den Haag: WODC 2023, p. 208-220. 


[17] Europol, Facing reality? Law enforcement and the challenge of deepfakes, Observatory Report van het Europol Innovation Lab, Luxembourg: Publications Office of the European Union 2022, p. 15.


[18] Europol, Facing reality? Law enforcement and the challenge of deepfakes, Observatory Report van het Europol Innovation Lab, Luxembourg: Publications Office of the European Union 2022, p. 15.


[19]  B. van der Sloot, Y. Wagensveld & B. Koops, Deepfakes: De juridische uitdagingen van een synthetische samenleving, Den Haag: WODC 2023, p. 197-198.


[20] M. Westerlund, ‘The emergence of deepfake technology: a review’, Technology Innovation Management Review 2019/9, p. 44-45. 


[21] M. Westerlund, ‘The emergence of deepfake technology: a review’, Technology Innovation Management Review 2019/9, p. 44-45. 


[22] M. Westerlund, ‘The emergence of deepfake technology: a review’, Technology Innovation Management Review 2019/9, p. 44-45. 


[23] M. Westerlund, ‘The emergence of deepfake technology: a review’, Technology Innovation Management Review 2019/9, p. 46-47.






Logo Ad Informandum uitgeschreven rode letters-2.png
  • LinkedIn
  • Facebook
  • Instagram

© 2025 Ad Informandum

bottom of page