• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
  • Skip to footer
  • Nieuwsbrief
  • Magazine
  • Webshop
  • Contact en colofon

Advocatie

Dé nieuwssite voor advocaten, notarissen en juristen

  • Actueel
    • Nieuws
    • Business
    • Tuchtrecht
    • Nieuwe uitdaging
    • Deals
    • Human Interest
    • Opinie en blogs
    • Buitenland
  • AI, tech & legal
  • Podcasts
  • De Stand
    • Advocatuur Top 50
    • Notariaat Top 30
    • Archief De Stand
  • Uitgelicht
  • Vacatures
  • Opleidingen
  • Partners
    • Howden
    • OSR
    • PO-Online

Is het genoeg als AI-algoritmes geen bias meer hebben?

20 januari 2020 door Advocatie Redactie

Onbewuste bias

Bias of vooringenomenheid in algoritmes en artificial intelligence, veel is er al over geschreven. Het lijkt zelfs het grootste actuele probleem te zijn dat grootschalige adoptie van AI nog in de weg staat.

Door Arnoud Engelfriet

Want het is natuurlijk niet de bedoeling dat AI de besluitvorming over gaat nemen als daarmee discriminatie of uitsluiting van bepaalde groepen optreedt, of als mensen worden afgewezen op basis van een vooringenomenheid die we onwenselijk vinden. Maar zelfs als we dat probleem oplossen, blijft de inzet van AI en algoritmes een moeilijke.

Het probleem achter die bias is dat we AI vaak een eind laten kauwen op een hele berg data en vervolgens conclusies laten trekken op basis van een onderlinge samenhang. Maar waarom die samenhang er is, of hoe men tot een patroon is gekomen, dat kan zo’n AI vaak niet zeggen. Maar ‘computer says no’ is juridisch onaanvaardbaar, ook als zo’n uitleg er eigenlijk niet is.

Uitlegbaarheid van AI is dus het devies. Laat maar eens zien (met een beslisboom of lijst van relevante factoren) hoe je tot dat besluit bent gekomen. En als je dan ziet dat daar een ‘verboden’ factor is gebruikt, dan bijstellen die hap. Of een moreel kompas eronder dat automatisch zorgt voor correctie. Op die manier voorkom je vooringenomenheid, in ieder geval een heel eind.

Fundamenteler probleem
Maar is dat genoeg, zeker bij juridische analyses en uitspraken zoals in rechtspraak? Ik denk het niet. Er is namelijk een veel fundamenteler probleem met AI dan alleen maar dat de uitspraak mogelijk biased is, of gebaseerd op een gebrekkige dataset. AI is namelijk fundamenteel zeer behoudend, en kan niet omgaan met rare situaties waarin de data niet voorziet. Of met voortschrijdend maatschappelijk inzicht. En laten dat nu precies factoren zijn waar de rechtspraak regelmatig mee geconfronteerd wordt.

AI is bedoeld om standaardzaken te automatiseren. Patronen opsporen binnen het gewone, zodat deze in de toekomst sneller en beter (want consistenter) kunnen worden afgehandeld. Bevat deze aanvraag tekortkomingen, lijkt deze persoon op een verdachte, is er een crimineel bezig in ons netwerk. Dat soort patronen kun je prima met een AI opsporen.

Dergelijke patronen zijn namelijk neutraal: zo ziet crimineel gedrag er nu eenmaal uit, of zo bepaal je nu eenmaal gelijkenis van twee gezichten. Laat je dat echter los op juridische situaties dan krijg je een heel ander verhaal. Feitelijk vergelijk je dan een casus met een rits eerdere casussen, en de uitkomst zal dan vergelijkbaar zijn met die eerdere uitspraken. Dat klinkt mooi – consistentie in rechtspraak is een groot goed – maar echte vernieuwing zit er niet in.

AI is goed in vergelijken
Dat is ook precies hoe AI werkt. Een robotrechter leert geen rechtsregels zoals menselijke juristen doen, en leert zelfs niet uit het analyseren van eerdere jurisprudentie wat belangrijke factoren zijn. AI’s zijn goed in het vergelijken: een dataset waar elk item (oftewel elk vonnis) in zit, bepalen welke factoren per item essentieel zijn om in een bepaald bakje te horen.

Dat is een beetje hoe een ervaren menselijke rechter ook werkt. Oké, een standaard-incassozaakje, of daar heb je weer een fotoclaim met het bekende verhaal over citaatrecht. Maar niet helemaal: een AI-tool kijkt blind naar alle factoren die hij ziet, en dat kunnen ook onbedoelde factoren zijn (als advocaat X pleit of de eiser woont in Amstelveen, dan is dat een indicatie dat de zaak niet sterk is).

Uiteindelijk is de kern echter wel dat AI alléén afgaat op de eerdere dataset. Hij leert immers alleen daaruit hoe er recht gesproken moet worden. Een afwijking van die dataset is daarbij niet te verwachten. Computers zijn immers niet creatief, en niet gevoelig voor ongewone omstandigheden, nieuwe feiten of het overtuigendste pleidooi. Dat is ook de reden waarom robotrechters alleen voor standaardwerk ingezet moeten kunnen worden, én dat er altijd ruimte moet zijn om die ongewone omstandigheden te kunnen stellen waarna een mensenrechter er naar kijkt.

De grote uitdaging bij AI in het recht zal dus zijn hoe de gekke gevallen eruit gevist worden en door een mens behandeld gaan worden.

Eerste advocatenkantoor zonder advocaten goedgekeurd

Read More

AI als ruggengraat van de advocatuur

Read More

Amerikaan laat AI-avatar voor hem pleiten in rechtszaak

Read More

Rechtbank Rotterdam doet proef met AI als schrijfhulp in strafvonnis

Read More

Filed Under: AI, tech & legal, Opinie en blogs Tagged With: legal tech

Vorige artikel
Bas Beljaars: ‘Innovatie met effect op de klantrelatie, daar gaat het om’
Volgende artikel
Auto’s: Seat Tarraco

Primary Sidebar

Topvacatures

Advocaat medewerker Familierecht Den Haag

Advocaat ondernemingsrecht Veldhoven

Meer vacatures

Opleidingen & events

Verdieping Begrijpelijk Schrijven voor juristen

Basiscursus Positief beïnvloeden en effectiviteit vergroten

Training Generative AI en Prompt Engineering

Verdiepingscursus NLP: Positief beïnvloeden en effectiviteit vergroten

Basiscursus NLP: Positief beïnvloeden en effectiviteit vergroten

Meer Sdu Opleidingen

OverFusies

Magazine

Magazine

Best gelezen

  • De passie van Latisha Nunumete: vechten tegen de zwaartekracht

  • ‘Waardeloze’ dwangsom laat burgers met lege handen achter

  • Uitgelicht – ‘Hoorrecht in verhuiszaken; wat is de invloed van het kindgesprek?’

  • Ex-medewerkers beschuldigen Knoops’ Advocaten van schrikbewind

  • Man veroordeeld tot gevangenisstraf voor mishandeling van advocaat

Meer AI content

19 AI-basistermen voor juristen: Een handig woordenlijstje

Aan de slag met AI-geletterdheid – opleidingsaanbod

GenIA-L: de slimme AI-toepassing die jouw (advies)praktijk transformeert

AI OPLEIDINGEN

Ben je klaar om een stap te zetten in de wereld van AI? Wil jij de mogelijkheden van (generatieve-)AI optimaal en verantwoord benutten binnen jouw organisatie?

Lefebvre-Sdu heeft verschillende opleidingen die jou helpen om de kracht van AI in jouw werk te benutten. Na afloop ben je niet alleen in staat om de impact van AI op jouw organisatie te beoordelen, maar ben je ook volledig op de hoogte van het juridisch kader en kun je AI-toepassingen binnen de geldende regelgeving implementeren.

Bekijk het cursusaanbod

Alle opleidingen, of variaties hiervan, bieden we ook in-company aan.

Footer

  • Nieuws
  • Business
  • Human Interest
  • Innovatie & Tech
  • Opinie en blogs
  • Tuchtrecht
  • Gouden Zandlopers
  • Top 50 Advocatuur
  • Top 30 Notariaat
  • Advocatie Magazine
  • Vacatures
  • Partners
  • Facebook
  • LinkedIn
  • Instagram
  • Youtube
  • Nieuwsbrief
  • Contact en colofon
  • Meld nieuws
  • Adverteren
  • Vacature indienen

Advocatie is een uitgave van
Sdu
Maanweg 174
2516 AB Den Haag

Powered by Sdu

  • Disclaimer
  • Privacy Statement & Cookieverklaring
SDU

Het laatste nieuws van Advocatie
twee keer per week in je mail
?

Meld je aan voor onze nieuwsbrief:

Aanmelden

×