.

.
‘Abduction of Europa’ (Rembrandt Harmensz. van Rijn, Amsterdam - 1632 - fragment)

woensdag 6 december 2023

Rechters in Europa adviseren over gebruik kunstmatige intelligentie



Afgelopen week heeft de Consultative Council of European Judges (CCJE naar de Franse afkorting) Opinie 26 (2023) vastgesteld, die gaat over het gebruik van nieuwe technologie in de rechtspraak. De CCJE is onderdeel van de Raad van Europa, bestaat uit rechters van de 48 lidstaten en adviseert het Comité van Ministers over actuele onderwerpen die de onafhankelijkheid en onpartijdigheid van de rechterlijke macht aangaan. Opinie 26 gaat over méér dan alleen intelligente technologie. Toch ligt de nadruk in het advies vooral op kunstmatige of artificiële intelligentie (AI) en AI systemen. Die staan - nadat ChatGPT ons afgelopen jaar liet zien wat het allemaal kan – hoog op de rechtspraak-agenda.

Engelengeduld

Paragraaf voor paragraaf, zin voor zin en soms woord voor woord, schaafden rechters uit de lidstaten, van Azerbeidzjan tot Andorra en van Zweden tot Zwitserland, aan een tekst, die in het afgelopen jaar is voorbereid door een werkgroep, waarin ik met plezier over de opinie heb meegedacht. Wie denkt dat het al lastig is om in een meervoudige kamer het eens te worden over de tekst van een vonnis, moet eens bij de CCJE komen kijken. Met engelengeduld laten de aanwezigen elkaar uitpraten, en ontstaat al discussiërend een eindtekst. Laten we hopen dat AI dit onderdeel van het rechterlijk ambacht nooit overbodig zal maken. Snelheid en efficiëntie zijn niet altijd beter, en zeker bij een lastig onderwerp als dit geldt het voordeel van de traagheid.

De kansen

Het advies benadrukt dat AI kan bijdragen aan de verwezenlijking van de rechtsstaat. De kansen van (intelligente) technologie liggen vooral op het terrein van tijdige en effectieve rechtspraak, en – omdat AI kansberekeningen kan maken over de uitkomst van een juridische casus - in het vermogen van AI-systemen om geschillen te voorkomen (z.g. preventive law), of om alternatieve afdoening door mediation of arbitrage te bevorderen. Op die manier wordt de rechtspraakorganisatie ontlast.

Maar ook voor Old School rechtspraak zijn de mogelijkheden van AI groot. Bijvoorbeeld bij het inboeken van zaken, het filteren van niet-ontvankelijkheden, zaakstoedeling en het bewaken van termijnen; maar ook inhoudelijk, bij de voorbereiding van zaken (door het uitvoeren van nationaal en Europeesrechtelijk jurisprudentieonderzoek, het sorteren van de relevante feiten en maken van samenvattingen, het responderen op verweren, en zelfs bij het opstellen van concept-uitspraken). Tegelijkertijd waarschuwt Opinie 26 er voor dat – juist omdat AI zoveel mogelijkheden biedt - onverstandig gebruik ervan kan leiden tot een marginalisering van de rol van de rechter. (Zie ook hierna).

Definitie

Wat het lastigste probleem leek, namelijk de definitie van AI en AI-systemen, werd in Straatsburg voor het laatst bewaard. Want wereldwijd ontbreekt een breed gedragen omschrijving, omdat de alfa-, bèta- en gammawetenschappen elk hun eigen perceptie van AI hebben. Hannah Ruschemeier, van de Duitse Universiteit van Hagen, schreef daar een helder artikel over. Élke definitie van AI schiet op dit moment tekort, schrijft zij, en met die kennis in het achterhoofd namen de aanwezigen genoegen met een voorlopige omschrijving van AI in de bijlage bij het advies.

De mens-rechter

Interessant is dat de discussie in Straatsburg op enig moment ging over de vraag of Opinie 26 met zoveel woorden moet uitdrukken dat de rechter een mens is (moet zijn). Bespottelijk, vond de IJslandse collega dat. En inderdaad, niemand zal er bij de totstandkoming van het EVRM in 1950 aan getwijfeld hebben dat met ‘rechter’ in artikel 6 een human judge is bedoeld, en dat het Verdrag met ‘een eerlijke en openbare behandeling van ieders zaak door de rechter’ doelt op human activity. Maar de wereld draait door. Hoewel de mens-rechter zo snel niet zal verdwijnen, omdat AI niet overál goed in is – lees het mooie proefschrift van collega-rechter Manuella van der Put – zal de komende generatie al wel gewend raken aan andere vormen van geschillenbeslechting, waar misschien geen mens meer aan te pas komt. Hun day in court wordt ooit mogelijk hun day online.

Tekenen bij het AI-kruisje?

Toch moet de mens-rechter goed opletten dat AI niet op zijn stoel gaat zitten. Want ‘nuttige ondersteuning’ door AI systemen zou onopgemerkt kunnen overgaan in een niet te controleren invloed van AI op rechterlijke oordeelsvorming. Als blijkt dat AI goed in staat is om op gedegen wijze inhoudelijk bij te dragen aan het oplossen van een juridische puzzel, dan zal gaandeweg de verleiding groot worden om daarop blind te vertrouwen. En niet alleen uit luiheid van rechters of de juridische ondersteuning, maar ook omdat de rechtspraakorganisatie, bedoeld of onbedoeld, dat van hen zou kunnen verlangen (productiecijfers). Niet voor niets heeft de CEPEJ (European Commission for the efficiency of justice) de totstandkoming van Opinie 26 met grote belangstelling gevolgd.

Deze problematiek is trouwens niet nieuw, en speelde ook toen de CCJE eerder de mogelijk te grote inhoudelijke invloed van gerechtssecretarissen op rechterlijke beslissingen besprak. Opinie 22 (2019) overwoog daarover:

“Decision-making is at the heart of the judge's duties in all legal systems. Judicial assistants must support judges in their role, not replace them. Therefore, judicial assistants should not be engaged at the expense of appointing judges in adequate numbers.”

Rechterlijk domein

Waar het hier in de kern om gaat is de vraag wat in de zin van art. 6 EVRM tot het rechterlijk domein moet worden gerekend en hoe bij de invoering van AI-systemen de noodzakelijke rechterlijke autonomie kan worden beschermd. (Dit is trouwens een prachtig onderwerp voor een dissertatie!) Hier komt art. 92 van de Opinie van pas, dat gaat over de kerntaak van rechters. Zij zijn in een democratische rechtsstaat niet alleen de hoeders maar soms ook verkenners van het recht. AI technologie mag rechtsontwikkeling niet in de weg staan:

"The use of technology must, above all, respect the nature of the judicial process. First, many judicial decisions are discretionary decisions, based on the particular facts of an individual case. Second, judges play an essential role in the development of the law. They do not merely apply fixed and immutable rules. Judges must be able to correct or add to the law if it falls short or threatens to derail it in its concrete application. Technology must not step into the realm of justice. Technology must not discourage or impede the critical thinking of judges as this can lead to stagnation of legal development and an erosion of the system of legal protection. Technical tools must therefore respect the process of judicial decision-making and the autonomy of judges."

Machtsvraagstuk

Maar met een duidelijk juridisch en ethisch kader voor het gebruik van AI systemen in de rechtspraak alléén zijn we er nog niet. Een bekend aforisme in de wereld van AI luidt: AI will not replace you, but the person using AI will. Het wordt vaak aangehaald om de vrees weg te nemen dat AI de mens overbodig zal maken. Maar het is evenzeer een waarschuwing voor degene die achter het stuur plaatsneemt van AI design.

‘Het echte probleem van AI is niet AI’, schreef Rijer Passchier, hoogleraar digitalisering en de democratische rechtsstaat aan de OU, onlangs in een opiniestuk voor de Volkskrant. Hij bedoelt daarmee dat wereldwijd de macht om over AI-technologie te beschikken in handen is van slechts enkele zeer grote commerciële bedrijven. Zij bepalen, als eigenaren van AI en de infrastructuur die AI nodig heeft, bijna eenzijdig welke AI verder ontwikkeld wordt, in welk tempo, welke risico's daarbij acceptabel zijn, welke waarden AI moet dienen en onder welke voorwaarden anderen AI mogen gebruiken. Dat vraagt om voorzichtigheid. Vergeet niet dat AI systemen niet per se neutraal zijn. Er moet steeds rekening mee worden gehouden dat intelligente technologie wordt aangestuurd door algoritmen die discrimineren op grond van ras, etniciteit, geslacht of gender, of onbedoeld gebruik maakt van data die zelf discriminerend zijn.

Opinie 26 onderkent dat AI (ook) een machtsvraagstuk is, en waarschuwt er voor dat private partijen de rechterlijke autonomie kunnen bedreigen. Maar dit gevaar doet zich evenzeer voor waar de verantwoordelijkheid voor het beheer van de rechterlijke organisatie, en daarmee voor AI-systemen, direct of indirect, bij de politiek ligt (de minister van justitie). Rechters kunnen daarom beter niet afwachten totdat het mis gaat, luidt de boodschap. Opinie 26 adviseert aan de lidstaten de instelling van een vaste rechtspraakcommissie die judicial oversight houdt op het ontwerp en gebruik van (AI), en een speciale Ombudsman die klachten over AI gebruik in de rechtspraak behandelt.

Tot slot

Het gebruik van AI systemen in de rechtspraak valt niet te stuiten. Het biedt ons nieuwe kansen, maar het vraagt ook om nieuwe vaardigheden. Er wordt met name een beroep gedaan op ons vermogen om de resultaten van AI-technologie kritisch te evalueren en te interpreteren, en om de betrouwbaarheid en nauwkeurigheid van AI-algoritmen te beoordelen en mogelijke vooroordelen of ongewenste gevolgen te ontdekken. Dat betekent dat rechtspraakmedewerkers op alle niveaus, betrokken moeten worden – en betrokkenheid moeten tonen! – bij het ontwerp, de invoering en implementatie van AI-technologie.

Marc de Werd is senior raadsheer in het gerechtshof Amsterdam, hoogleraar Europese rechtspleging aan de UvA en lid van de CCJE

Geen opmerkingen:

Een reactie posten