• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
  • Skip to footer
  • Nieuwsbrief
  • Magazine
  • Webshop
  • Contact en colofon

Advocatie

Dé nieuwssite voor advocaten, notarissen en juristen

  • Actueel
    • Nieuws
    • Business
    • Tuchtrecht
    • Nieuwe uitdaging
    • Deals
    • Human Interest
    • Opinie en blogs
    • Buitenland
  • AI, tech & legal
  • Podcasts
  • De Stand
    • Advocatuur Top 50
    • Notariaat Top 30
    • Archief De Stand
  • Uitgelicht
  • Vacatures
  • Opleidingen
  • Partners
    • Howden
    • OSR
    • PO-Online

‘AI-geletterdheid’, wat betekent dat precies?

4 februari 2025 door Sdu

We vragen het aan Joris Krijger, techniekfilosoof die werkzaam is als Ethics & AI Officer bij De Volksbank. Daarnaast promoveert Joris aan de Erasmus Universiteit Rotterdam op het onderwerp Ethiek en AI.

Vanaf februari 2025 wordt AI-geletterdheid een wettelijke vereiste als gevolg van de AI Act. De leveranciers van AI-systemen en de organisaties die AI-systemen gebruiken zijn op grond van artikel 4 van de AI Act verplicht om er voor te zorgen dat alle medewerkers, die gebruikmaken van AI ook AI-geletterd zijn. Hoe definieer je AI-geletterdheid vanuit jouw perspectief als techniekfilosoof en Ethics & AI Officer bij De Volksbank?

“Laten we vooropstellen dat nog veel onduidelijkheid is over wat AI-geletterdheid precies is. Als je naar de wettekst kijkt dan staat er dat je naar het beste van je vermogen inspanningen moet doen om een voldoende begrip van AI te krijgen. Er zitten dus abstracte termen in die voor meerdere interpretaties vatbaar zijn. Bij De Volksbank interpreteren we het als volgt; het gaat over het vermogen van medewerkers om AI systemen kritisch te evalueren en te begrijpen hoe AI werkt. Weten wat het kan en wat het niet kan zodat medewerkers ermee om kunnen gaan op een manier die verantwoord is en die past bij de organisatiewaarden. Ook gaat het om inzicht in hoe AI de organisatie raakt en welke (ethische) vraagstukken, kansen en risico’s het met zich meebrengt.”

Welke stappen kunnen organisaties nemen om hun AI-geletterdheid te verbeteren?

“Bij De Volksbank heeft iedere medewerker een basistraining AI doorlopen en daarnaast hebben we  gespecialiseerde leerpaden aangeboden aan medewerkers die, zoals we dat zeggen ‘dichter op het vuur zitten als het om AI gaat’.

Naast educatie vinden we ook interdisciplinaire samenwerking als het gaat om AI belangrijk. We betrekken bij AI projecten niet alleen technici, maar vanuit verschillende disciplines wordt meegedacht en gewerkt. Ook ben ik bij De Volksbank bezig om organisatiebreed dus juist niet alleen bij de technische, inkoop-  of ontwikkelafdelingen, te laten zien, welke kansen en risico’s AI kan bieden.

We proberen bij de ethische beoordeling van AI systemen zoveel mogelijk diverse geluiden mee te nemen. Dat gaat dan niet zozeer over geletterdheid, maar wel over hoe nemen we als organisatie beslissingen over het gebruik van AI en wie krijgen daar allemaal een stem in? Daar kun je een commissie of klankbordgroep voor maken waarin vertegenwoordigers van verschillende delen van de organisatie iets kunnen inbrengen.

Tenslotte wat goed werkt, is medewerkers op de hoogte houden van wat er gebeurt in de wereld van AI. Niet te technisch, maar in begrijpelijke taal. Ik merk bij De Volksbank maar ook bij andere organisaties een enorme nieuwsgierigheid naar AI. Die kun je gebruiken voor meer bewustzijn en het goed informeren van je mensen.”

Wat zijn de belangrijkste ethische vraagstukken rond AI die je tegenkomt in jouw werk bij De Volksbank?

“Dat zijn eigenlijk de usual suspects als het om ethiek en AI gaat. AI traint op historische data en in die historische data zitten allerlei vooringenomenheden ‘bias’, zaken die mogelijk niet meer representatief zijn voor de wereld zoals die nu is of passen bij de waarden van jouw organisatie. Het bekende voorbeeld is Amazon met een HR systeem waarbij vrouwen op voorhand uit het selectieproces werden verwijderd voor technische functies. Dat betekent niet dat AI intentioneel discrimineert maar omdat het getraind was op data waarin vrouwen geen technische functies hadden. Dan kan het, ook zonder de data te hebben over of iemand man of vrouw is, zichzelf aanleren dat een vrouw niet thuishoort op een technische positie. Dat zijn risico’s die je wilt voorkomen.

Een ander belangrijk ethisch vraagstuk is de uitlegbaarheid van AI; soms is het gewoon zo complex dat je het niet eens meer kunt volgen of uitleggen. Gooit het, in het voorbeeld van hierboven, vrouwen bewust eruit? Omdat het zulke complexe berekeningen zijn, snappen we het niet meer. De belangrijkste vraag die achter beide uitdagingen zit is hoe we AI inbedden in bestaande werkpraktijken. Hoeveel gaan we uit handen geven aan AI? We delegeren een taak aan een autonoom systeem, maar hoeveel van de verantwoordelijkheid van die taak delegeren we? Alles? Het voelt niet helemaal eerlijk als we tegen de vrouwelijke sollicitanten, die zijn afgewezen, zeggen ‘dat is nou eenmaal het AI systeem’. Maar bij zulke complexe een zelflerende systemen is het ook gek als we bijvoorbeeld de ontwikkelaar, die vaak ook niet weet hoe het systeem zich precies gaat gedragen, verantwoordelijk houden. Dus de vraag is: bij wie ligt de verantwoordelijkheid dan? Dat zijn vraagstukken die rond AI spelen nog los van de privacyvraagstukken en robuustheid- en validatie aspecten.”

Wat kunnen organisaties doen om aan de slag te gaan met AI en ethiek?

“Uit mijn onderzoek komt heel sterk naar voren, en dat sluit ook aan bij bovenstaande antwoord, dat alleen ontwikkelaars trainen of kaders meegeven niet werkt. Verantwoorde AI is een organisatie vraagstuk. Omdat er zoveel contextuele aspecten meewegen in of een AI verantwoord gebruikt wordt of niet denk ik dat de belangrijkste stap nu is dat organisaties zorgen dat ze, in hun structuren en processen, mechanismen inbouwen om ethiek een plek te geven. Organisaties zouden moeten streven naar wat ik ‘ethische volwassenheid’ noem. Dat betekent dat je nog los van welke waarden je prioriteert bij AI (kies je voor snelheid of uitlegbaarheid bijvoorbeeld) je een aantal dingen inregelt om die afweging bewust te kunnen maken. We hebben onderzoek gedaan naar wat maakt dat organisaties op een goede manier met de ethiek van AI om kunnen gaan. Daarin hebben we zes dimensies in gevonden, namelijk: awareness & culture (er moet bewustzijn van ethiek zijn maar ook ruimte en middelen voor worden vrijgemaakt), beleid (goede kaders over de ethiek van AI), governance (ethische mechanismen in het proces om te kunnen corrigeren en bijsturen), communicatie en training (het intern en extern communiceren van het belang van ethiek en het trainen van niet alleen de data scientists maar de hele organisatie; de AI geletterdheid), ontwikkel- en inkoopprocessen (ethiek niet op ad hoc basis en eenmalig betrekken bij de inkoop of ontwikkeling maar als continue toets in het proces), en tooling (de juiste instrumenten om de ethische aspecten mee boven tafel te krijgen en te bespreken zoals technische middelen die ‘bias’ laten zien of impact assessments). (Voor meer informatie zie: The AI ethics maturity model: a holistic approach to advancing ethical data science in organizations | AI and Ethics)”

In hoeverre zie je voor organisaties waar juridische processen en dienstverlening centraal staan nog specifieke uitdagingen?

“Juist in de juridische sector leven hele interessante vragen rond AI. Omdat een deel van het juridisch werk goed te automatiseren valt, is gebleken dat AI van grote toegevoegde waarde kan zijn. Dus ik vermoed dat in de juridische sector een existentiële vraag komt rond wat nu een goede juridische dienstverlener definieert in het AI tijdperk. Wat moet hij/zij nou in huis hebben om toekomstbestendig te zijn? Dat gaat over het type werkzaamheden, de kwaliteit van de werkzaamheden tot het verdienmodel. Wat betekent het voor je verdienmodel als AI de drempel voor juridische hulp verlaagt maar ook als de productiviteit stijgt als gevolg van AI?

Daar zit iets ethisch in: wat is onze ‘purpose’ en in hoeverre kan AI daaraan bijdragen? Het vraagt om omdenken en ook een beetje nederigheid. We moeten de menselijke capaciteiten gaan omarmen maar misschien ook erkennen dat we soms beter af zijn als dingen ten dele uit handen gegeven kunnen worden aan AI. Dan komt er ruimte voor andere zaken waar de menselijke expertise en de kennis des te relevanter wordt. Hoe je daar goed op voor sorteert dat is een super interessante uitdaging voor de komende paar jaar.”

Joris Krijger is een van de docenten van de opleiding Certified AI Strategy & Implementation Legal. Een opleiding gericht op verantwoorde en optimale toepassing van AI in organisaties waarin juridische dienstverlening/werkprocessen centraal staan. Meer informatie vind je hier.

Cel geëist voor belastingfraude door ‘juridisch adviseurs’

Lees meer

NRC: OM blokkeert overdracht dossiers gearresteerde advocaat Shukrula

Lees meer

Notariskantoren en belastingadviseurs kunnen nu nabestaandenmachtiging aanvragen

Lees meer

De passie van Latisha Nunumete: vechten tegen de zwaartekracht

Lees meer

Man veroordeeld tot gevangenisstraf voor mishandeling van advocaat

Lees meer

Advocaat geschorst na verdenking van ontvoering kinderen Dalfsen

Lees meer

Filed Under: AI, AI, tech & legal, Nieuws

Vorige artikel
Nieuwe cao voor rechters en OvJ's: meer salaris en uitkeringen, en maatregelen tegen werkdruk
Volgende artikel
Bij elektronisch procederen is notificatiebericht cruciaal

Primary Sidebar

Topvacatures

Advocaat medewerker Familierecht Den Haag

Advocaat ondernemingsrecht Veldhoven

Meer vacatures

Opleidingen & events

Verdieping Begrijpelijk Schrijven voor juristen

Basiscursus Positief beïnvloeden en effectiviteit vergroten

Training Generative AI en Prompt Engineering

Verdiepingscursus NLP: Positief beïnvloeden en effectiviteit vergroten

Basiscursus NLP: Positief beïnvloeden en effectiviteit vergroten

Meer Sdu Opleidingen

OverFusies

Magazine

Magazine

Best gelezen

  • De passie van Latisha Nunumete: vechten tegen de zwaartekracht

  • ‘Waardeloze’ dwangsom laat burgers met lege handen achter

  • Uitgelicht – ‘Hoorrecht in verhuiszaken; wat is de invloed van het kindgesprek?’

  • Ex-medewerkers beschuldigen Knoops’ Advocaten van schrikbewind

  • Man veroordeeld tot gevangenisstraf voor mishandeling van advocaat

Meer AI content

19 AI-basistermen voor juristen: Een handig woordenlijstje

Aan de slag met AI-geletterdheid – opleidingsaanbod

GenIA-L: de slimme AI-toepassing die jouw (advies)praktijk transformeert

AI OPLEIDINGEN

Ben je klaar om een stap te zetten in de wereld van AI? Wil jij de mogelijkheden van (generatieve-)AI optimaal en verantwoord benutten binnen jouw organisatie?

Lefebvre-Sdu heeft verschillende opleidingen die jou helpen om de kracht van AI in jouw werk te benutten. Na afloop ben je niet alleen in staat om de impact van AI op jouw organisatie te beoordelen, maar ben je ook volledig op de hoogte van het juridisch kader en kun je AI-toepassingen binnen de geldende regelgeving implementeren.

Bekijk het cursusaanbod

Alle opleidingen, of variaties hiervan, bieden we ook in-company aan.

Footer

  • Nieuws
  • Business
  • Human Interest
  • Innovatie & Tech
  • Opinie en blogs
  • Tuchtrecht
  • Gouden Zandlopers
  • Top 50 Advocatuur
  • Top 30 Notariaat
  • Advocatie Magazine
  • Vacatures
  • Partners
  • Facebook
  • LinkedIn
  • Instagram
  • Youtube
  • Nieuwsbrief
  • Contact en colofon
  • Meld nieuws
  • Adverteren
  • Vacature indienen

Advocatie is een uitgave van
Sdu
Maanweg 174
2516 AB Den Haag

Powered by Sdu

  • Disclaimer
  • Privacy Statement & Cookieverklaring
SDU

Het laatste nieuws van Advocatie
twee keer per week in je mail
?

Meld je aan voor onze nieuwsbrief:

Aanmelden

×