• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
  • Skip to footer
  • Nieuwsbrief
  • Magazine
  • Webshop
  • Contact en colofon

Advocatie

Dé nieuwssite voor advocaten, notarissen en juristen

  • Actueel
    • Nieuws
    • Business
    • Tuchtrecht
    • Nieuwe uitdaging
    • Deals
    • Human Interest
    • Opinie en blogs
    • Buitenland
  • AI, tech & legal
  • Podcasts
  • De Stand
    • Advocatuur Top 50
    • Notariaat Top 30
    • Archief De Stand
  • Uitgelicht
  • GZL 2024
  • Vacatures
  • Opleidingen
  • Partners
    • Howden
    • OSR
    • PO-Online

Liever een keurmerk op data dan een waakhond voor algoritmes

24 juni 2019 door Advocatie Redactie

Watchdog-300

D66 en CDA hebben het kabinet dinsdag in een motie opgeroepen om een toezichthouder op te zetten die het gebruik van algoritmes bij de overheid in de gaten houdt. Dat las ik afgelopen week bij Tweakers. De macht van algoritmes is een steeds grotere angst aan het worden.

Door Arnoud Engelfriet, correspondent Legal Tech

Ze zijn niet transparant, ze kunnen al snel discrimineren of oneerlijk behandelen en ambtenaren voelen zich vaak verplicht om te doen wat het algoritme zegt in plaats van hun eigen afwijkende opvatting over de zaak door te zetten. Een loffelijk idee, alleen vergeten de indieners van de motie waar het eigenlijk om gaat: it’s the data, stupid.

Aanleiding voor het voorstel is eerdere berichtgeving van de NOS over de macht van algoritmes. Schokkend vond ik vooral dat niet duidelijk was waar en hoe men geautomatiseerde besluitvorming toepast. De NOS had vele Wob-verzoeken nodig om een en ander een tikje inzichtelijk te krijgen. Of er een volledig nieuwe toezichthouder moet komen of dat bijvoorbeeld de Autoriteit Persoonsgegevens extra bevoegdheden krijgt, moet nog worden besloten.

Een algoritme is een reeks instructies die door een computer wordt uitgevoerd, zo meldt de NOS netjes. Alleen hebben we het hier niet over algoritmes in klassieke zin. Een klassiek algoritme is als een taartrecept: doe eerst dit, als de temperatuur hoog genoeg is doe dan dat, doe daarna zus tenzij X want dan zo. En computers gaan dat dan rechtlijnig uitvoeren. (Kennen jullie die van de programmeur die totaal uitgeput uit zijn douche werd gehaald? Op de shampoofles stond namelijk: haren natmaken, shampoo aanbrengen, uitspoelen, herhalen).

Dergelijke algoritmes worden top-down ontworpen. Begin met de hoofdlijnen, zoek de simpele randgevallen en voeg daar uitzonderingen voor toe, draai het een paar keer en voeg extra uitzonderingen of bijzondere regels toe. Dat groeit door de tijd heen, maar in principe is elke stap bewust genomen en iedere uitbreiding weloverwogen. In theorie is daarmee iedere stap uit te leggen.

De algoritmes waar het voorstel van D66 en het CDA over gaat, zijn echter geen klassieke algoritmes. Ik zou dit haast kunstmatige intelligentie noemen, maar het is ‘gewoon’ machine learning: het zoeken naar trends en verbanden op basis van grote bakken met data. Eigenlijk gewoon statistiek: in deze bak data zijn dit de fraudeurs en dit niet, en dan flink doorrekenen wat die gemeenschappelijk hebben om zo een voorspellende functie te bedenken die van een nieuwe aanmelder zegt of deze een fraudeur is.

Die voorspellende functie, geladen met die data, is dan een algoritme in de zin dat het een reeks instructies is – maar praktisch gezien is het onvergelijkbaar met die klassieke algoritmen. Sterker nog: ik durf wel te zeggen dat die functie an sich totaal niet interessant is. Daar zijn er genoeg van, en hoewel ieder deep neural net vast zijn eigen prachtige theorie en implementatie heeft, is dat niet waar het om gaat. Laad datzelfde net met nieuwe data en je krijgt iets compleet anders.

Het gaat dus om die data en niets anders. Welke data gaat erin, hoe is die samengesteld en hoe wordt geborgd dat dit een eerlijke en objectieve samenstelling is? Want dáár komt al die ellende van. Vaak is data uit beperkte bron geselecteerd, of ergens aangekocht, en in ieder geval is het niet getest op representativiteit en actualiteit. Daar gaat het dan meteen mis, want met slechte brondata ga je natuurlijk nooit goede voorspellingen doen. Maar het enge is, het lijken bij het testen best goede voorspellingen, want je houdt altijd een stukje van je brondata apart om eens mee te testen. En ik geloof onmiddellijk dat je dan goede uitkomsten krijgt. Logisch, het is dezelfde bron en op dezelfde manier gecategoriseerd.

Ik zou er dus voor willen pleiten om geen tijd te verspillen aan die algoritmes, maar juist de problemen bij de bron te bestrijden: geen data de overheid in tenzij met keurmerk. De data moet kloppen, eerlijk zijn en volledig. Dat dáár een toezichthouder voor komt, lijkt me een prima idee.

Filed Under: AI, tech & legal

Vorige artikel
Hoe voorkomen we eindeloze rechtszaken over zelfrijdende auto's?
Volgende artikel
Column: een schokgolf door de legal tech scene

Primary Sidebar

Topvacatures

Advocaat-medewerker Verzekerings- en Aansprakelijkheidsrecht (3-6 jaar ervaring) Rotterdam

Meer vacatures

Opleidingen & events

Verdieping Begrijpelijk Schrijven voor juristen

Basiscursus Positief beïnvloeden en effectiviteit vergroten

Training Generative AI en Prompt Engineering

Verdiepingscursus NLP: Positief beïnvloeden en effectiviteit vergroten

Basiscursus NLP: Positief beïnvloeden en effectiviteit vergroten

Meer Sdu Opleidingen

OverFusies

Magazine

Magazine

Best gelezen

  • Nieuwe uitdaging bij HabrakenRutten, Clairfort, Windt Le Grand Leeuwenburgh e.a.

  • Nieuwe advocaat van Diddy was zelf slachtoffer seksueel geweld

  • AI als ruggengraat van de advocatuur

  • Fleur en Michelle starten damespakkenlijn: ‘Voor mannen? Oger, Suitsupply, The Society Shop. Voor vrouwen? Niks’

  • Rechter beslist over 57 miljoen euro: Parlevliet moet binnen tien dagen handelen

Meer AI content

19 AI-basistermen voor juristen: Een handig woordenlijstje

Aan de slag met AI-geletterdheid – opleidingsaanbod

GenIA-L: de slimme AI-toepassing die jouw (advies)praktijk transformeert

AI OPLEIDINGEN

Ben je klaar om een stap te zetten in de wereld van AI? Wil jij de mogelijkheden van (generatieve-)AI optimaal en verantwoord benutten binnen jouw organisatie?

Lefebvre-Sdu heeft verschillende opleidingen die jou helpen om de kracht van AI in jouw werk te benutten. Na afloop ben je niet alleen in staat om de impact van AI op jouw organisatie te beoordelen, maar ben je ook volledig op de hoogte van het juridisch kader en kun je AI-toepassingen binnen de geldende regelgeving implementeren.

Bekijk het cursusaanbod

Alle opleidingen, of variaties hiervan, bieden we ook in-company aan.

Footer

  • Nieuws
  • Business
  • Human Interest
  • Innovatie & Tech
  • Opinie en blogs
  • Tuchtrecht
  • Gouden Zandlopers
  • Top 50 Advocatuur
  • Top 30 Notariaat
  • Advocatie Magazine
  • Vacatures
  • Partners
  • Facebook
  • LinkedIn
  • Instagram
  • Youtube
  • Nieuwsbrief
  • Contact en colofon
  • Meld nieuws
  • Adverteren
  • Vacature indienen

Advocatie is een uitgave van
Sdu
Maanweg 174
2516 AB Den Haag

Powered by Sdu

  • Disclaimer
  • Privacy Statement & Cookieverklaring
SDU

Het laatste nieuws van Advocatie
twee keer per week in je mail
?

Meld je aan voor onze nieuwsbrief:

Aanmelden

×