• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
  • Skip to footer
  • Nieuwsbrief
  • Magazine
  • Webshop
  • Contact en colofon

Advocatie

Dé nieuwssite voor advocaten, notarissen en juristen

  • Actueel
    • Nieuws
    • Business
    • Tuchtrecht
    • Nieuwe uitdaging
    • Deals
    • Human Interest
    • Opinie en blogs
  • Innovatie & Tech
  • Podcasts
  • De Stand
    • Advocatuur Top 50
    • Notariaat Top 30
    • Archief De Stand
  • GZL 2022
  • Vacatures
  • Opleidingen
  • Partners
    • Berkeley Bridge
    • EVE
    • Hoffelijk Juridisch
    • Intervisie Advocatuur
    • Mutsaerts
    • Nalanda
    • OSR
    • PO-Online
    • YER Legal

Column: deepfakes, de overtreffende trap van photoshop

13 maart 2019 door Advocatie Redactie

Niek van de Pasch 300

In strafzaken wordt de whodunnit-vraag steeds belangrijker. Rechters selecteren en waarderen alle bewijsmiddelen, om het antwoord van de officier te verifiëren (of falsifiëren?). Het is volgens de Hoge Raad namelijk aan de strafrechter om ‘van het beschikbare materiaal datgene tot het bewijs te bezigen wat deze uit een oogpunt van betrouwbaarheid daartoe dienstig voorkomt’.

Door Niek van de Pasch

Vanuit allerlei hoeken schieten experts ons daarbij te hulp. Zo schrijven rechtspsychologen bijvoorbeeld planken vol over waarnemingen, herinneringen en verklaringen van getuigen. Verbalisanten geloven we meestal op hun ambtsedig woord, maar dat is vooral beslissend bij verdachten van overtredingen die een heterdaadje ontkennen. Het blijft echter altijd prettiger om informatie zo direct mogelijk te consumeren.

Wie gedrag in een context moet beoordelen, is daarom blij als die gebeurtenis is opgenomen. Als een foto meer zegt dan duizend woorden, zegt een video immers meer dan duizend foto’s. Filmpjes kunnen dan ook meedoen als bewijsmiddelen, onder meer via onze eigen waarneming op zitting.

Helaas is dit geen situatie waar life imitates art. In misdaadseries ontmaskeren digitale speurneuzen boeven met één druk op de zoomknop. Hun tapes hebben – eventueel na een behendige remaster – zo’n fabelachtige resolutie, dat ze tweelingbroers op hun lachrimpels kunnen onderscheiden in de reflectie van een besteklade.

De praktijk is vaak wat minder fancy. Bewakingscamera’s registreren soms maar nét hoe winkeldieven een gele pixel onder hun jas verstoppen. En met de beeldfrequentie van een diavoorstelling glippen uitgedeelde optaters nog weleens tussen de frames door. De stand van de techniek is natuurlijk wel al iets opgeschoven, zoals iedereen met een smartphone dagelijks ervaart. Maar is verder ook altijd beter?

Enter deepfakes: de overtreffende trap van een vervalste handtekening of gephotoshopt plaatje. Een kwade genius voedt zijn systeem met honderden of duizenden fragmenten aan beeld en geluid. Het programma analyseert deze bestanden minutieus, om zo een datamodel van iemand te construeren. De software kan diegene vervolgens van alles laten doen of zeggen. Tot nu toe gaat het bijna altijd om twee dingen: fopspeeches door politici of natuurfilms met beroemdheden.

Misschien wel het beste voorbeeld van dat eerste fenomeen is de (zogenaamde) toespraak van Barack Obama over de gevaren van nepnieuws, die website Buzzfeed en komiek Jordan Peel samen produceerden. Bij publieke en sociale hoogwaardigheidsbekleders zijn audiovisuele grondstoffen handig genoeg in overvloed voorradig. Op sociale media en WhatsApp circuleren tegenwoordig echter ook genoeg selfies en spraakberichten om jan-en-alleman erbij te lappen.

Op zich is manipulatie van bewijsmateriaal natuurlijk niks nieuws. Toch lijkt deze ontwikkeling om twee redenen extra spannend. Ten eerste voelen bewegende beelden intuïtief als ‘het’ bewijs van ‘de’ waarheid. Alsof je er zelf bij was en het met eigen ogen zag. Dit laatste bastion van ongerepte bewijsvoering manifesteert zich nu nog als veilige haven, maar verdient binnenkort dus meer alertheid.

Ten tweede laat een zogeheten ‘generatief adversariaal netwerk’ (dit kunstmatig intelligent ‘gan’ creëert veel deepfakes) geen sporen meer na die mensen zullen opmerken. De enige die nog een kans maakt om echt van nep te onderscheiden, is dan – u raadt het al – een volgend algoritme. Is wat ons rest dus een wedloop van programmeurs die elkaar de loef afsteken met codetaal vol drieletterafkortingen?

Nou zal het met grootschalige trucage vast wel meevallen. Het venijn zit ‘m daarentegen misschien juist in het omgekeerde scenario: niet zozeer nep dat doorgaat voor echt, maar veeleer echt dat wordt weggezet als nep – een nieuwe vorm van plausible deniability dus. Als een geavanceerde applicatie volgens experts werkelijk nul traceerbare aanwijzingen voor geknoei zal herbergen, hoe reageren wij juristen straks dan op een deepfake-verweer? Zal dat ooit twijfel gaan zaaien die redelijk genoeg is om serieuze rechtsgevolgen te bewerkstelligen? Moeten we de grondslagen van onze overtuiging herijken?

Het sinterklaascadeau van de Europese Commissie was eind vorig jaar een heus ‘actieplan tegen desinformatie’. Specifiek over het verschijnsel deepfakes luidt de noodkreet uit Brussel: ‘De gebruikte instrumenten en technieken veranderen snel. De respons moet net zo snel evolueren.’ Wetgevers in Engeland en Amerika denken op dit moment al na over specifieke deepfake-delicten. Ook op andere terreinen binnen het strafproces lijkt bewustwording intussen op z’n minst welkom.

Filed Under: Innovatie & Tech, Opinie en blogs

Vorige artikel
Loyens & Loeff blijft verbonden aan 's werelds grootste blockchain hackathon
Volgende artikel
Correspondent Legal Tech: is Artificial Intelligence niet vooral een hype?

Primary Sidebar

Topvacatures

Advocaat insolventie en herstructurering (hybride) Rotterdam

(Gevorderde) advocaat-stagiaire of advocaat-medewerker Vastgoed Amsterdam

Meer vacatures

OverFusies

Magazine

Magazine

Best gelezen

  • ‘Lawyers by day, artists by night’
  • Advocaat in den vreemde: ‘Het gaat hier meer over het strategisch onderhandelen’
  • ChatGPT: wat kan dat betekenen voor juridische zoekmachines?
  • Nieuwe Uitdaging bij… Jones Day, Six Advocaten en Stek
  • RTL en Talpa Fusie tussen RTL Nederland en Talpa gaat niet door

Footer

  • Nieuws
  • Business
  • Human Interest
  • Innovatie & Tech
  • Opinie en blogs
  • Tuchtrecht
  • Gouden Zandlopers 2022
  • Top 50 Advocatuur
  • Top 30 Notariaat
  • Advocatie Magazine
  • Vacatures
  • Partners
  • Twitter
  • Facebook
  • LinkedIn
  • Instagram
  • Youtube
  • Nieuwsbrief
  • Contact en colofon
  • Meld nieuws
  • Adverteren
  • Vacature indienen

Advocatie is een uitgave van
Sdu
Maanweg 174
2516 AB Den Haag

Powered by Sdu

  • Disclaimer
  • Privacy Statement & Cookieverklaring
SDU

Het laatste nieuws van Advocatie
twee keer per week in je mail
?

Meld je aan voor onze nieuwsbrief:

Aanmelden

×