AI and Law: When artificial becomes human

Op 22 april 2021 mocht ik vanuit de studio in Groningen als dagvoorzitter het online symposium AI and Law: When artificial becomes human begeleiden. Als “prikkelende” opening droeg ik daar de volgende tekst voor:

“AI and Law: When artificial becomes human”. Dat is een spannende titel. Het deed me denken aan mijn docent informatica. Ik zat in de brugklas van het havo/vwo in Delfzijl, en in het computerlokaal hing hij bij de allereerste les een hele grote poster op de deur met de volgende tekst: “Het probleem is niet dat computers zullen gaan denken als mensen, maar dat mensen gaan denken als computers. 

 Het fascineerde me als brugpieper enorm: Als computers gaan denken als mensen, zullen computers dan ook net zo slim gaan worden als mensen? En lange tijd heb ik gedacht dat het zo’n vaart niet zou gaan lopen. Ik bedacht daarvoor allerlei argumenten, zoals dat een computer niet uit zichzelf creatief zou kunnen zijn, of later toen ik al rechten studeerde, dat het niet mogelijk zou zijn om beslis of kennisregels te verzinnen die iedere mogelijke situatie zouden afdekken. Zo kan een computer leren dat je bij rood licht moet stoppen, en bij groen licht mag doorrijden. Maar wat indien door een fout beide lichten gelijktijdig aan staan? Je zou de computer wellicht nog kunnen leren dat je dan in niet vantevoren bedachte situaties, zekerheidshalve moet stoppen, maar dat levert mogelijk ook weer problemen op met andere weggebruikers. 

Het zijn allerlei argumenten die ook al in 1950 in het paper met de titel Computing Machinery and Intelligence, door Alan Turing zijn beschreven. Ook beschrijft hij daarin het argument dat mensen bang zijn om hun superioriteit te verliezen. Angst voor het onbekende, angst dat een computer ons als mens zou kunnen overtroeven en uiteindelijk overheersen. Een fenomeen wat in de afgelopen jaren ook door veel filmmakers aangegrepen is. Turing voorspelde in 1950 dat een mens die rond het jaar 2000 de computer vragen zal gaan stellen, uit de antwoorden niet zal kunnen afleiden of het antwoord afkomstig is van een mens of van een machine. 

Even terug naar die poster uit mijn brugklasjaar. “Het probleem is dat mensen gaan denken als computers”. Ik denk dat die stelling onjuist is. Het echte probleem is dat mensen juist helemaal niet meer nadenken wanneer computers hun iets voorschotelen. Tekenend is het onderzoek van Jaap Dijkstra waarin hij twee groepen van strafrecht experts achter een intelligent systeem zet, en in het ene geval door het systeem altijd de conclusie wordt getrokken dat iemand strafbaar is, terwijl bij de tweede groep op exact dezelfde feiten altijd vrijspraak wordt geadviseerd. Beide groepen vonden de uitkomsten van het systeem zeer betrouwbaar.

Of het onderzoek van Groothuis waarin ze laat zien dat een slim systeem dat bij gemeentes werd gebruikt om te bepalen of iemand recht heeft op een uitkering, in ontzettend veel gevallen er volledig naast zat. De medewerkers controleerden de uitkomsten niet meer, of ze begrepen zelf ook niet hoe het systeem tot de uitkomsten kwam. Deze onterechte afwijzingen van een uitkering werden pas ontdekt wanneer iemand in bezwaar of beroep ging, en een mens buiten het systeem om naar de zaak ging kijken. 

In 2005 schreef ik daarom samen met Dijkstra een paper waarin we beargumenteren en bepleiten dat het voor de buitenwereld transparant en controleerbaar moet gaan worden hoe een dergelijke blackbox tot zijn uitkomsten komt. Funfact: dat paper werd afgewezen bij een wetenschappelijk tijdschrift omdat het probleem volgens de ene reviewer niet zou bestaan, en volgens de andere reviewer onze destijds voorgestelde oplossing (pas op het algoritme open source concepten toe, en laat het systeem ook zelf uitleg geven) te futuristisch zou zijn.

Toch hoor je nog vaak dat een dergelijke transparantie bij AI niet zou kunnen. Er zou volgens de fanboys sprake zijn van deep learning, neurale netwerken, big data. Termen die je als leek doen duizelen, en waardoor de discussie vaak wordt doodgeslagen. Ik constateer hieruit echter vooral dat het gebrek aan transparantie te wijten is aan de huidige stand van de techniek. Die is dus klaarblijkelijk nog niet zover dat ze, net als dat we van een mens zouden vragen of zelfs zouden eisen, uitleg kan geven over hoe en waarom het AI tot een bepaalde uitkomst is gekomen. We leggen de lat voor een AI klaarblijkelijk een stuk lager dan voor een mens. En laten we eerlijk zijn: het IQ van AI is natuurlijk gewoon nul. Twijfel en wantrouwen blijken dan ineens onmisbare eigenschappen van een mens te zijn. Eigenschappen die nodig zijn om met het AI te werken en de uitkomsten te kunnen controleren.

De vraag die we denk ik vandaag tijdens dit symposium moeten gaan beantwoorden is of nieuwe wetgeving zich dient te richten op de ontwikkeling van de techniek, op het gebruik van de techniek of op de controle van de techniek. Of wellicht op alle drie.

Leave a comment

Your email address will not be published. Required fields are marked *