Robotrechter of Kunstmatig Intelligente(KI) assistent?

18/05/18

Robotrechter of Kunstmatig Intelligente(KI) assistent? Zullen rechters en advocaten op termijn worden vervangen door robots? Kan de angst voor vooringenomenheid of chagrijnige rechters worden weggenomen door objectieve, neutrale robotrechters? Het wraken van rechters door Geert Wilders zou dan in ieder geval niet meer hoeven voor te komen. Maar is de robotrechter wel zo objectief als de algoritmen, die het functioneren van de robotrechter bepalen, zijn ontworpen door menselijke programmeurs? En worden ook ethische beginselen meegenomen door eisen te stellen als “ethics by design”? Er van uit gaande dat de menselijke rechter een intelligent wezen is dat deze aspecten afdoende in zijn beslissing betrekt, kunnen we er dan ook op vertrouwen dat de vorm van intelligentie zoals door David Wechsler in 1955 werd geformuleerd "Het totale vermogen van het individu om doelbewust te handelen, rationeel te denken en effectief om te gaan met zijn omgeving”, in moreel juridische zin en met normbesef ook kan worden verwacht van de Kunstmatige Intelligente rechter? Volgens Mireille Hildebrandt is dat een laatste een brug te ver 1. In haar bijdrage om te komen tot een standpunt artificiële intelligentie en recht stelt zij dat AI, door haar gekenschetst als “Machine Learning” wordt ingezet om juridische kennis te verrijken, door onverwachte inzichten te bieden op basis van het doorzoeken van grote hoeveelheden tekst. Zij stelt verder dat dit tegenwicht kan bieden aan vastgeroeste ideeën, omissies en inconsistenties en nieuwe argumentatielijnen kan aandragen. Zij ziet met name een probleem in het feit dat de KI niet gebaseerd is op inzicht in de materie of begrip voor de belangen van partijen, maar een puur statistisch-wiskundige werkwijze is. Uitgaande van voeding met voorgaande jurisprudentie betekent dit dat er weinig ruimte komt voor afwijking in standpunten. Dit geldt inderdaad voor “machine learning” in beperkte zin: door patronen in beschikbare gegevens te identificeren en vervolgens de kennis toe te passen op nieuwe gegevens. Echter hierbij is niet meegenomen dat de toepassing van KI zich verder zal ontwikkelen, in de zin van verwerking van andere dan statische data zoals sociale–, emotionele en culturele impulsen uit de betreffende omgeving en op basis daarvan zelfstandig beslissingen kan nemen,. Van status quo naar de toekomst Voor een inschatting van een toekomstig beeld van de rechtspraak is het verstandig de ontwikkeling te bezien vanuit de status quo. Wanneer en waarom zouden we de mogelijke inzet van kunstmatige intelligentie en robots overwegen ter versterking van kwaliteit van de rechtspraak? Eind 2017 ontstond paniek bij de rechtsmacht aangezien in Oost- en Noord-Nederland het meer dan een jaar duurde voordat een hoger beroep zou worden afgehandeld. Dat schuurde aan tegen een overtreding van de redelijke termijn van artikel 6 EVRM. Gerechtshof Arnhem-Leeuwarden riep de hulp in van collega's uit Amsterdam om de grote achterstand in de afhandeling van zo’n 5000 zaken weg te werken. In hoeverre kan deze overbelasting van de rechterlijke macht worden weggenomen door kunstmatig intelligente assistenten? In 2016 wees een experiment met een kunstmatig intelligent algoritme uit dat op basis van 584 zaken van datzelfde Europees Hof voor de Rechten van de Mens met 79 % nauwkeurigheid een vonnis kon worden gewezen dat overeenkwam met het daadwerkelijke vonnis. Maar op de dag van de rechtspraak, 28 september 2017, resulteerde de toepassing van het data analyse programma LexIQ in nogal wat missers in vergelijking met de rechter van vlees en bloed. Het betrof hier overigens maar twee zaken. De kans dat deze technologie in hoog tempo wordt verbeterd in zorgvuldigheid acht ik zeer waarschijnlijk gezien de ontwikkelingen van de mogelijkheden van kunstmatige intelligentie met de wet van Moore in het achterhoofd. Zeker wat betreft de snelheid van afhandeling zal er fors winst te behalen zijn met behulp van vergelijkbare programma’s. De vraag die velen bezighoudt is echter of de motivatie van de beslissingen door dit soort systemen wel voldoende transparant is om de toets voor gebruik door het juridisch metier, en met name door de rechterlijke macht, te doorstaan. Hierbij kan per analogie worden verwezen naar voorbeelden van toepassing van KI systemen bij de rechterlijke macht, advocatuur en de opsporing en vervolging in de VS en het Verenigd Koninkrijk. In de VS wordt al op ruime schaal gebruik gemaakt van kunstmatige intelligentie voor zowel het vaststellen van borgsommen alsook de “risk assessment” voor tijdelijke in vrijheidstelling bij strafzaken 2. Bij het hoger beroep ingesteld door een veroordeelde die met behulp van een AI systeem “Compass’ was veroordeeld en inzage wilde hebben in hoe het ’blackbox‘ algoritme tot die veroordeling was gekomen, achtte het hooggerechtshof het afdoende dat de kennis van de output van het algoritme voldoende transparant was en zodat ergeen grond voor verwerping van het vonnis was. De Europese Commissie benadrukte juist dat,op basis van de resolutie van het Europees Parlement en de Algemene Verordening Bescherming Persoonsgegevens (AVG), het van groot belang is inzicht te hebben in de werking van het algoritme 3. In dergelijke gevallen hebben betrokkenen recht op zinvolle informatie over de bij de beslissing betrokken logica. Ook binnen de advocatuur lijkt het gebruik van AI systemen in opkomst door de toepassing van KI analyse algoritmen. In een vergelijkende test tussen 20 menselijke advocaten en het KI-systeem “Law Geex Artificial Intelligence algorithm“, scoorde de KI toepassing aanmerkelijk beter op het gebied van analyse en verbetering van een aantal standaard contracten. De accuratesse van het systeem was 94 %. De advocaten scoorden 85%; ok niet slecht maar de advocaten hadden daar gemiddeld 92 minuten voor nodig en het KI-systeem 26 seconden! Voor het opsporingswerk van politie is ook al een KI-big data-systeem ontwikkeld genaamd VALCRI om de arbeidsintensieve aspecten van de misdaadanalist in enkele seconden uit te voeren door grote hoeveelheden data zoals teksten, laboratoriumrapporten en politiedocumenten te analyseren om elementen te selecteren die verder onderzoek rechtvaardigen. De Britse politie in West Midlands zal VALCRI voor de komende drie jaar testen met geanonimiseerde gegevens, wat neerkomt op ongeveer 6,5 miljoen dossiers. Een soortgelijk proces is aan de gang bij de politie in Antwerpen 4. Bovengenoemde toepassingen zullen zonder twijfel steeds vaker worden ingezet, maar zijn met name gericht op analyse van de data ter ondersteuning van de besluitvorming door natuurlijke personen. Zal hierdoor de neiging ontstaan om blind te varen op de uitkomsten van die analyses? Verschillende opvattingen over toepassing van KI in de rechtspraak Zou de robotrechter een oplossing kunnen bieden door zowel snelheid als zorgvuldigheid in het vonnissen te vergroten? Frits Bakker gaf op de dag van de rechtspraak in 2017 aan dat er onderscheid mag worden gemaakt op grond van de aard van de rechterlijke beslissing, waarbij routinematige beslissingen wellicht door een AI-systeem kunnen worden genomen: ‘Als de rechterlijke beslissing draait om de inhoudelijke beoordeling van feiten en conflict, wil de burger dat hij gezien en gehoord wordt. Dat is hard nodig. En als de rechterlijke beslissing een routinematige beslissing is, wil de burger snel, efficiënt en goedkoop door het proces worden geleid 5.’ Jaap van de Herik sprak in juni 1991 zijn inaugurele rede uit onder de titel ‘Kunnen computers rechtspreken?,’ waarbij hij verwachtte dat hier in de toekomst sprake van zou kunnen zijn 6. De bevestiging van dat antwoord herhaalde hij in 2016 in het blad Mr. door te stellen dat hij verwachtte dat niet alleen routinematige, maar verdergaande, vonnissen rond 2030 al door de robotrechter zullen worden gewezen. Henri Prakken lijkt hier een wat afwijkende mening over te hebben aangezien hij in het NJB begin dit jaar aangaf dat er een denkfout wordt begaan door de voorspelkracht van algoritmes en mogelijke analyses op basis van data invoer te verwarren met besluiten. Volgens hem berust deze denkfout op een verkeerd idee over de voorspellende waarde van algoritmes waarbij het verschil tussen het voorspellen en het nemen van juridische beslissingen wordt veronachtzaamd 7. Hier heeft hij wel een punt. De (huidige) algoritmes zijn zodanig opgesteld dat ze alleen kunnen voorspellen op basis van numerieke waarden. Motivering van het vonnis is (nog) niet mogelijk. In een special omtrent ”Legal Tech” in het blad Computerrecht geven Dory Reiling, Leo van der Wees, Kees van Noortwijk en Richard de Mulder aan dat er nog een technologisch tekort bestaat aan het gebruik van zelflerende algoritmen ter ondersteuning, laat staan ter vervanging, van besluitvorming door de rechterlijke macht 8. Conclusie Volgens Henri Prakken kunnen big-data-algoritmes in meer algemene zin voor rechters en andere juristen zeker nuttig zijn, maar hij ziet een robotrechter nog niet aan de juridische einder verschijnen. Van Noortwijk en De Mulder zien vooral een betere ontsluiting van relevante , geselecteerde informatie. Van den Herik ziet zeker een toenemende rol voor zelfstandige beslissingsmodellen; maar ook hij sluit zijn ogen niet voor de risico’s. Als de voorstellen van de computers steeds meer samenvallen met het oordeel van de rechters, dan krijg je een sluipend proces van monotisering, hetgeen ook al door Maxim Februari in zijn bijdrage in NRC in 2015 werd gekenschetst met de woorden: ”Robotrechters produceren McDonalds rechtspraak 9.” Er is zeker een risico van ongewenste eenvormigheid indien teveel wordt gevaren op statistische gegevens waarbij geen rekening wordt gehouden met de omstandigheden van het geval. De huidige stand van AI brengt dit gevaar met zich mee omdat er sprake is van “narrow design”gericht op een beperkte taak. Pas als er sprake zal zijn van “dynamic adaptive” design zullen alle omstandigheden meewegen bij de besluitvorming en kan sprake zijn van een acceptabel gemotiveerd vonnis. Hoewel het verleidelijk is om nieuwe vergezichten in de ontwikkeling van KI in de rechtspraktijk te omarmen drukt de realiteit van de moeizame toepassing van KEI ons toch weer met de neus op de feiten. Hoewel… ‘People overestimate the impact of AI in the short term, and underestimate the impact of AI in the long term’. – Richard Susskind Rob van den Hoven van Genderen Directeur Center Law & Internet, VU Managing Partner Switchlegal Advocaten, Amsterdam 1.Standpunt artificiële intelligentie en recht ten behoeve van de Vaste commissie voor Justitie en Veiligheid Tweede Kamer der Staten-Generaal , 21 maart 2018 2.https://www.wired.com/2017/04/courts-using-ai-sentence-criminals-must-stop-now/ 3.Gebaseerd op de AVG, geautomatiseerde verwerking, inclusief profilering. artikel 13, 14, 15 en 22 4.http://blogs.discovermagazine.com/crux/2017/05/16/are-we-ready-for-robot-judges/#.WvB1xpdcI2w. 5.https://www.rechtspraak.nl/Organisatie-en-contact/Organisatie/Raad-voor-de-rechtspraak/Nieuws/Paginas/Terug-naar-rechter-van-vlees-en-bloed-dankzij-techniek.aspx. 6.H.J. van den Herik, Kunnen Computers Rechtspreken?, oratie Leiden, 1991. 7.NJB (4), 23 januari 2018. 8.A.D. Reiling en L. Van der Wees, Automatisering in het rechtsbedrijf; en K. van Noortwijk en R. de Mulder, Special Legaltech, Computerrecht, 2 april 2018. 9. Maxim Februari, NRC Handelsblad, 25 augustus 2015, p.16.
DOOR communicatie & vorm