Slimmer met Regelgeving

AI toepassen op rechterlijke uitspraken: ondermijning van de rechtsstaat?

Zouden we alle rechterlijke uitspraken niet als open data moeten publiceren? Voorstanders zeggen van wel: dat zou de rechtspraak pas echt transparant en controleerbaar maken. Maar er zijn ook tegengeluiden, waarbij men wijst op de risico’s: gebruik van Artificial Intelligence (A.I.) met deze data kan leiden tot toepassingen en analyses die de rechtsstaat ondermijnen. Marc van Opijnen schreef een blog over dit zeer relevante onderwerp, met als voorbeeld de situatie in Frankrijk.

In Nederland worden alle uitspraken van de vier hoogste rechters gepubliceerd. Van de rechtbanken en gerechtshoven wordt een selectie gepubliceerd. Vanwege de Algemene verordening gegevensbescherming (AVG) worden de persoonsgegevens in de uitspraken wel gepseudonimiseerd (AVG-term voor ‘geanonimiseerd’), om te voorkomen dat herleidbaar is over welke personen het gaat. Dit levert nog veel handmatig werk op, waarbij AI overigens juist wel wat ondersteuning kan bieden maar nog lang niet alles kan vervangen. Je kunt de anonimiseringsrichtlijnen van de Rechtspraak hier vinden. Een aantal landen om ons heen gaat verder in het publiceren. Frankrijk heeft in 2016 een wet aangenomen die bepaalt dat alle rechterlijke uitspraken als open data ter beschikking moeten worden gesteld. Maar kwam daar vervolgens op terug.

Want wat kan er gebeuren als je A.I. toepast op rechterlijke uitspraken? Marc geeft een paar voorbeelden, die wereldwijd al plaatsvinden en dan met name in de Angelsaksische wereld. Je kunt bijvoorbeeld proberen om de uitkomst van een (potentiële) gerechtelijke procedure te voorspellen. Je kunt met A.I. de beste argumenten voor een zaak gaan verzamelen. Je kunt ook onderzoeken hoe rechters ten opzichte van elkaar tot een uitspraak komen. En dan afwegen aan welke rechter je een zaak gaat voorleggen. En je kunt met A.I. zelfs vermeende rechterlijke willekeur blootleggen.

En dat is precies wat er in Frankrijk in 2016 gebeurde. Met A.I. werd er onderzoek gedaan op 250.000 uitspraken in asielzaken. Dat liet zien dat er aanzienlijke verschillen bestaan tussen de uitspraken van individuele rechters. Publicatie van het onderzoek leidde tot bedreiging van onderzochte rechters en een hoop tumult. Kortom, de rechterlijke onafhankelijkheid was in het geding. Het werd duidelijk dat rechters door deze inzet van A.I. kwetsbaar worden voor framing en maatschappelijke kritiek. Het effect daarvan kan weer zijn dat rechters zich gaan aanpassen, om de kritiek voor te zijn, en zich richten op het gemiddelde. Overigens, wat helaas ondergesneeuwd raakte in de publieke opinie, is dat je ook terecht vraagtekens kunt stellen bij kwaliteit van de gebruikte data en de AI-algoritmes.

De Franse wetgever veranderde daarop de wet. De nieuwe wet biedt twee opties: het pseudonimiseren van de namen van rechters én de mogelijkheid om dergelijk onderzoek te verbieden. Marc is kritisch over de gekozen opties. Maar zijn conclusie ondersteunen wij van Slimmer met Regelgeving van harte: laten we in Nederland vooral niet overhaast en lichtzinnig besluiten tot publicatie van alle uitspraken, zonder daarbij slim na te denken over het doel van dergelijke publicatie, en het beoogde effect. Op zijn minst dient gewaarborgd te worden dat dergelijke open data niet misbruikt wordt. Nog beter zou zijn dat A.I. gebruikt wordt om slimmere diensten aan te bieden aan burgers, zodat burgervragen over uitspraken direct worden beantwoord, zonder dat er ongelijkheid ontstaat over de beschikbaarheid van eigen A.I. middelen.

De blog van Marc van Opijnen is hier te vinden.

Art Ligthart

Voeg opmerking toe