• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
  • Skip to footer
  • Nieuwsbrief
  • Magazine
  • Webshop
  • Contact en colofon

Advocatie

Dé nieuwssite voor advocaten, notarissen en juristen

  • Actueel
    • Nieuws
    • Business
    • Tuchtrecht
    • Nieuwe uitdaging
    • Deals
    • Human Interest
    • Opinie en blogs
  • Innovatie & Tech
  • Podcasts
  • De Stand
    • Advocatuur Top 50
    • Notariaat Top 30
    • Archief De Stand
  • GZL 2022
  • Vacatures
  • Opleidingen
  • Partners
    • Berkeley Bridge
    • EVE
    • Hoffelijk Juridisch
    • Intervisie Advocatuur
    • Mutsaerts
    • Nalanda
    • OSR
    • PO-Online
    • YER Legal

AI is enorm dom en daarom is ethiek in AI zo enorm belangrijk

7 oktober 2019 door Advocatie Redactie

Ethisch-300

Ethiek en Artificial Intelligence (AI), twee begrippen die steeds vaker in een adem genoemd worden. Want als we overal AI gaan inzetten, met name voor besluitvorming en automatische systemen, dan moeten we vooraf nadenken over de impact en of het wel ethisch wenselijk is. Maar wordt de juiste ethische discussie wel gevoerd? AI is namelijk ontzettend dom.

Door Arnoud Engelfriet

Het is hoe dan ook goed dat er meer aandacht komt voor AI en ethiek, maar het blijft opletten dat de juiste discussie plaatsvindt. Je moet het vooral niet hebben over de ethische overwegingen die AI-software maakt bij besluitvorming. Het gaat om de ethiek van mensen die wordt overlaten aan AI-systemen.

Wat AI precies is, weet volgens mij niemand. Ik houd het bij de cynische constatering dat AI de inzet van statistiek-gedreven voorspellingen is. die griezelig veel lijkt op hoe mensen zouden handelen. De weersvoorspelling is dus geen AI, een machine learning-systeem dat tumoren herkent is op het randje (want nieuw en computer dus griezelig) maar een humanoïde robot die contextuele grappen maakt, die is AI.

De technologie achter AI is op zich vaak verrassend simpel. Meestal gaat het om machine learning, analysetechnieken op grote bakken data waarmee het systeem regels afleidt om voorspellingen te doen. Heb je een stapel met een miljoen spamberichten en een miljoen niet-spamberichten, dan komt daar een griezelig accurate herkenning van spam uit. Ondanks dat niemand vooraf harde regels stelt (‘als het uit China komt en Viagra wordt genoemd, dan is het spam’). Die regels worden ‘van onderaf’, uit de data dus, afgeleid: ‘90% van de spam komt uit China, en slechts 1% van de niet-spam, dus als het uit China komt dan is het spam’.

AI kun je gebruiken om ‘echte’ beslissingen te maken. Grofweg sloop je dan de mens uit het proces en koppel je de uitkomst van de AI aan de input van het vervolgsysteem. Kom hier met die stapel financiële gegevens, laat de AI zeggen of een hypotheek risicovol is en gebruik de ja/nee om de afwijsbrief dan wel het contract te genereren. En dát is waar je die ethiek zo broodnodig hebt.

A-ethisch 
AI is dom. Althans, doet rechtlijnig wat er uit de data volgt. Dat klinkt heel logisch en fair, maar veronderstelt dat die data-analyse op een faire manier gebeurt. En dat is een risicovolle veronderstelling, want die data is vaak niet fair, en daarmee de AI ook niet. Wees je in het verleden vaak hypotheken af van mensen die Achmed heten, dan doet de AI dat net zo braaf. Dat het bij jou toeval was, doet er niet eens meer toe. Maar die AI is niet onethisch omdat die zo blind aan het discrimineren is. Die doet gewoon wat de data hem ingeeft. De AI is a-ethisch.

Ethiek bij AI komt dus altijd pas een stap later. De AI zegt nee, wat gaan we daarmee doen? Is het wenselijk om die uitvoer te vertrouwen, kunnen we randgevallen herkennen en wat gaan we doen als achteraf een besluit niet in orde blijkt te zijn?

Ethiek komt trouwens óók een stap eerder. Bij de dataverzameling. Want als je een niet-representatieve dataset hebt, dan zal de AI daar verkeerd mee omgaan. Zoals ik een paar columns geleden zei, dáár komt al die ellende van. Vaak is data uit beperkte bron geselecteerd, of ergens aangekocht, en in ieder geval is de data niet getest op representativiteit en actualiteit. Daar gaat het dan meteen mis, want met slechte brondata ga je natuurlijk nooit goede voorspellingen doen.

De werkelijke ethische vraag zou dus volgens mij moeten zijn: we gaan nu een mens vervangen door een procedé dat op basis van statistiek een conclusie trekt; is dat wel wenselijk? Hoe voorkomen we daarin dat het misgaat voor de betrokken burgers of klanten?

 

Filed Under: Actueel

Vorige artikel
Boudewijn Smit (NautaDutilh) wint Chambers Future Leader LGBTQ+ award
Volgende artikel
Pieter Janssen (JanssenBroekhuysen) verlaat kantoor en advocatuur

Primary Sidebar

Topvacatures

Gevorderd advocaat-stagiaire / beginnend medewerker Amsterdam

Advocaat-stagiaire | Corporate M&A (m/v/x) Amsterdam

Meer vacatures

OverFusies

Magazine

Magazine

Best gelezen

  • Het roer om: bekende strafrechtadvocaat ontwerpt nu interieurs op maat
  • Algemene raad geeft advies over toezicht advocatuur: niet-advocaten in bestuur
  • Vier weken schorsing voor advocaat die cliënt in de kou liet staan
  • Nieuwe Uitdaging bij… Hogan Lovells, Six advocaten en Taylor Wessing
  • Advocaten kroongetuige Nabil B. leggen taken neer

Footer

  • Nieuws
  • Business
  • Human Interest
  • Innovatie & Tech
  • Opinie en blogs
  • Tuchtrecht
  • Gouden Zandlopers 2022
  • Top 50 Advocatuur
  • Top 30 Notariaat
  • Advocatie Magazine
  • Vacatures
  • Partners
  • Twitter
  • Facebook
  • LinkedIn
  • Instagram
  • Youtube
  • Nieuwsbrief
  • Contact en colofon
  • Meld nieuws
  • Adverteren
  • Vacature indienen

Advocatie is een uitgave van
Sdu
Maanweg 174
2516 AB Den Haag

Powered by Sdu

  • Disclaimer
  • Privacy Statement & Cookieverklaring
SDU

Het laatste nieuws van Advocatie
twee keer per week in je mail
?

Meld je aan voor onze nieuwsbrief:

Aanmelden

×