De snelle opkomst van AI en algoritmes brengt nieuwe juridische risico’s met zich mee. Volgens de Autoriteit Persoonsgegevens blijven transparantie, toezicht en governance rond AI achter bij de technologische ontwikkeling.
De inzet van artificiële intelligentie (AI) en algoritmes in Nederland groeit snel, maar de beheersing van de bijbehorende risico’s blijft achter. Dat stelt de Autoriteit Persoonsgegevens (AP) in de nieuwste Rapportage AI & Algoritmes Nederland. Volgens de toezichthouder passen organisaties steeds vaker AI toe, terwijl toezicht, transparantie en verantwoorde implementatie nog onvoldoende zijn ontwikkeld. Daardoor kan de bescherming van fundamentele waarden en grondrechten onder druk komen te staan.
Voor juristen en advocaten is vooral relevant dat het gebruik van AI steeds vaker samenhangt met juridische verplichtingen rond privacy, discriminatie en transparantie. Organisaties moeten bij de inzet van AI-systemen rekening houden met bestaande regelgeving, zoals de Algemene verordening gegevensbescherming (AVG), en met de Europese AI-verordening.
De implementatie van die AI-verordening verloopt volgens de AP echter traag. Europese lidstaten lopen achter bij het aanwijzen van toezichthouders, het organiseren van toezicht en het ontwikkelen van standaarden die organisaties nodig hebben om aan de regels te voldoen. Die onzekerheid kan leiden tot economische nadelen en juridische risico’s voor organisaties die AI-systemen ontwikkelen of inzetten.
AI kan systeemrisico’s versterken
De rapportage besteedt daarnaast aandacht aan zogenoemde systeemrisico’s: risico’s die niet alleen individuele burgers raken, maar maatschappelijke systemen als geheel kunnen verstoren. Naarmate AI steeds sterker verweven raakt met sectoren zoals financiën, digitale infrastructuur en informatievoorziening, groeit ook de kans dat fouten of verstoringen zich door meerdere systemen tegelijk verspreiden.
Voorbeelden zijn algoritmische handel in financiële markten, afhankelijkheid van een beperkt aantal AI-aanbieders en de invloed van aanbevelingsalgoritmes op online platforms. Ook generatieve AI en autonome AI-agents kunnen nieuwe risico’s veroorzaken doordat systemen zelfstandig beslissingen nemen of acties uitvoeren zonder menselijke tussenkomst.
Volgens de AP vereist het beheersen van dergelijke risico’s een gezamenlijke aanpak van wetgevers, toezichthouders en organisaties. Individuele partijen kunnen systeemrisico’s namelijk niet zelfstandig beheersen.
AI en juridische risico’s bij werving en selectie
Een concreet voorbeeld van juridische risico’s is het gebruik van AI bij werving en selectie. Werkgevers gebruiken steeds vaker algoritmes om vacatureteksten te genereren, sollicitaties te filteren of kandidaten te beoordelen. Hoewel deze systemen efficiëntie kunnen vergroten, kunnen zij ook bestaande vooroordelen in datasets reproduceren en versterken.
Daarnaast ontbreekt vaak transparantie over de manier waarop AI-systemen tot een beoordeling komen. Kandidaten weten niet altijd dat AI wordt gebruikt en kunnen moeilijk controleren waarom zij wel of niet worden geselecteerd. Volgens de AP kan dit leiden tot discriminatie en staat het op gespannen voet met het recht op uitleg en de verplichtingen uit de AVG.
De Europese AI-verordening zal daarom strengere regels introduceren voor AI-systemen die worden gebruikt bij werving en selectie. Deze systemen worden aangemerkt als hoog-risico toepassingen en moeten voldoen aan eisen rond datakwaliteit, transparantie en menselijk toezicht.
De AP roept het kabinet op om werk te maken van duidelijke kaders, toezicht en transparantie rond AI. Volgens de toezichthouder dreigt de technologische ontwikkeling anders sneller te gaan dan de juridische bescherming van burgers.






