
Moet de Rechtspraak alle gerechtelijke uitspraken beschikbaar stellen voor het trainen van AI-systemen? Columnist Marijn Rooijmans begrijpt de wens, maar is niet blind voor de risico’s. “Dit gaat over de legitimiteit van ons rechtssysteem.”
Een paar weken geleden schreef ik hier dat er een revolutie gaande is. Dat AI niet alleen verandert hoe we werken, maar ook wat we onder werk verstaan. Dat maakte nogal wat los, gezien de reacties die ik kreeg.
En sindsdien heeft de werkelijkheid een klein sprintje getrokken.
Een paar dagen nadat m’n column op Advocatie verscheen, werd in Engeland de eerste AI-first law firm toegelaten door de Engelse orde van advocaten. Ook werd bekend dat AI platform Perplexity gebruikers voor hun juridische vragen direct toegang geeft tot antwoorden van Legal Zoom. En vorige week maandag las ik in het FD dat de Nederlandse Orde van Advocaten er bij de Rechtspraak op aandringt om veel meer uitspraken te publiceren, zodat AI er beter op getraind kan worden. Een volstrekt logisch verzoek natuurlijk, want om AI echt te kunnen gebruiken, moet het gevoed worden met relevante data. Hoe meer hoe beter.
Forumshoppen
In datzelfde artikel las ik echter ook dat de Nederlandse Vereniging voor Rechtspraak, de vakorganisatie van rechters, hierbij aarzelingen heeft. Ze zien een gevaar in het ontsluiten en analyseren van al die uitspraken. Net als de Franse wetgever in 2019, vreest men dat informatie over uitspraken van individuele rechters ertoe leidt dat rechtzoekenden hun zaak gaan aanbrengen bij de rechter waarbij ze de meeste kans op succes hebben: forumshoppen op basis van data.
NVvR-voorzitter Marc Fierstra wordt in het FD artikel gequote: “(…) een door kunstmatige intelligentie geschreven analyse van de vonnissen van een individuele rechter (druist) ook in tegen het principe van de toga. Die wordt juist in de rechtbank gedragen als symbool dat de persoon van de rechter er niet toe doet, en dat je allemaal in dienst bent van hetzelfde systeem.”
Maar who are we kidding? Elke jurist weet uit de praktijk allang dat de ene rechter de andere niet is. Fierstra’s stelling rust op een juridisch ideaal, maar schuurt met de werkelijkheid. Door met dat argument te pleiten tegen het met AI analyseren van uitspraken van individuele rechters, zeg je eigenlijk: ‘laten we vooral blijven doen alsof rechters volledig inwisselbaar zijn.’
Toga-principe
Je kunt ook argumenteren dat AI het toga-principe juist versterkt. Meer transparantie en AI-gebruik zullen er onvermijdelijk toe leiden dat onderlinge verschillen tussen rechterlijke uitspraken kleiner worden. Zo ontstaat dan eindelijk een situatie waarin de persoon van de rechter er écht niet meer toe doet.
Je kunt je overigens wel afvragen of we dat als samenleving moeten willen. In alle eerlijkheid: ik ben daar nog niet helemaal over uit. AI kan veel betekenen voor ons overbelaste systeem. Het kan het recht eerlijker en voorspelbaarder maken. Het zou alleen wel heel naïef zijn om te denken dat er alleen zegeningen zijn. Zeker omdat we de langetermijnimpact van AI totaal nog niet overzien.
De zorgen van de NVvR zijn begrijpelijk. Als beroepsvereniging vertegenwoordigen ze de rechters en officieren van justitie en hun werk wordt enorm beïnvloed door AI. De verantwoordelijkheid ligt uiteindelijk bij de Rechtspraak. Onlangs verscheen een visiedocument waarin ze uitlegt hoe ze AI verantwoord wil inzetten.
Transparante opdracht
Goed dat de Rechtspraak hier erg mee bezig is, maar het zou van mij meer mogen gaan over de vraag door wie die AI modellen gebouwd, getraind en beheerd worden. Gaat dat gebeuren door een publieke instelling met een transparante opdracht? Een (Europees of Nederlands?) techbedrijf met een commercieel belang? Als AI straks beslissingen beïnvloedt, of zelfs mede vormt, hoe weten we dan als rechtzoekenden, als samenleving hoe dat precies werkt?
Misschien is het toch verstandiger om al die uitspraken voorlopig nog niet beschikbaar te stellen voor het trainen van AI-systemen. Niet omdat profiling van rechters zo’n groot gevaar is, maar omdat we, zodra we die data uit handen geven, een van de laatste middelen kwijtraken om zelf nog grip te houden.
AI is namelijk geen neutraal gereedschap. Als het een plek krijgt in ons rechtssysteem – en dat tij is natuurlijk al niet meer te keren – dan moeten we nú beslissen: wie zit er aan de knoppen?
Want als we daar niet op tijd over nadenken, krijgen we een systeem waarin degene met het beste, meest geavanceerde AI-model ook het meeste gelijk krijgt. Dan worden rechtsgelijkheid en rechtvaardigheid inwisselbaar voor rekenkracht.
En nu ik er zo over nadenk, zijn dit vragen die veel verder reiken dan juristen als beroepsgroep. Dit gaat over iets fundamentelers: over de legitimiteit van ons rechtssysteem.
Zoals je merkt ben ik er nog niet klaar mee. We hebben het misschien niet helemaal zelf in de hand, maar de mogelijkheden die we als samenleving hebben om te sturen, die moeten we niet ongebruikt laten.
Wat denk jij?