• No results found

4. INVLOED VAN RECHTSSUBJECTIVITEIT OP DE VERGOEDING VAN SCHADE DIE DE PATIËNT LIJDT, DAN WEL GELEDEN HEEFT

8.1. Transcript dr W.F.G Haselager (Pim)

24 maart 2020 Universitair hoofddocent Artificiële intelligentie Radboud Universiteit Nijmegen

De vraagstelling in mijn onderzoek luidt: Kan een robot ‘persoonlijk’ aansprakelijk worden gehouden voor een fout in de operatiekamer? Op dit moment zijn er twee oplossingen. De robot kan allereerst gekwalificeerd worden als hulpzaak. Daardoor kan de arts aansprakelijk worden gehouden voor de schade. Anderzijds kan de producent aansprakelijk worden gehouden door middel van productaansprakelijkheid. Nu operatierobots autonomer worden, voelt handhaving van deze huidige oplossingen mijns inziens onredelijk. Vandaar mijn mogelijke oplossing: het toekennen van rechten en plichten aan robots zodat zij mogelijk zelf aansprakelijk kunnen worden gehouden.

Haselager: Begrip voor het onderwerp, ondanks dat ik om principiële redenen tegen het toekennen van rechten ben aan robots. Het is principieel onmogelijk robots de schade en het risico te laten dragen. Wel goed vraagstuk, ook binnen de Europese Unie worden hier oplossingen voor gezocht.

In uw eerste mail: “Ik vrees echter wel dat ik vooralsnog het toekennen van rechten en plichten aan robots op principiële gronden afwijs”.

Haselager: Allereerst een ethische, meer filosofische reden. Je kunt robots niet straffen, want “he does not care”. De maatregelen zullen slechts metaforisch van aard zijn. Er zullen altijd mensen achter zitten van vlees en bloed. Zoals de gebruiker, de producent en de aandeelhouder. Zij zullen indirect geraakt worden door de ‘straf’ en zullen veranderingen uitvoeren. Je kunt de robot hooguit vernietigen of her-programmeren, maar nogmaals: hij voelt de sanctie niet.

In 2005 heb ik een paper uitgebracht over de verschillende vormen van autonomie. In de AI noemen we een object autonoom indien deze zonder online ingrijpen werkt. Zoals een klok. Dit is meer divers bij robots, want de robot kan reageren door middel van sensoren en motoren. Het zijn eigenlijk complexe klokken. Een robot is dus ook ander autonoom dan de mens. Er zijn fundamentele verschillen tussen de autonomie van de mens en de robot. Bij de robot is sprake van een afgeleide vorm van autonomie, omdat achter de preparatie ervan nog een mens zit. Dat geldt ook voor ‘zelflerende’ systemen, die moeten eerst door mensen in elkaar gezet worden. Daarnaast hebben robots geen weet van wat ze doen; ze hebben geen begrip, ze doen het ‘automatisch’. Robots hebben dus geen besef van aanwezigheid, handeling of consequentie, ze voelen daarbij niets.

Maar wat als (operatie)robots slagen voor de Turingtest waarmee autonome intelligentie wordt aangetoond?

Haselager: Dit brengt twee vragen met zich mee. Allereerst; wat betekent het als ze voor de test slagen? En ten tweede; waarom is het zo moeilijk voor de tot nu toe ontwikkelde robots om te slagen voor de Turingtest?

Het eerste betekent niet overdreven veel. De Turingtest is een ogenschijnlijke intelligentiemeting. Verwijzend naar het artikel Chinese room argument (1980). Het feit dat je voldoet aan de Turingtest, betekent niet dat je begrip hebt van de situatie. Een robot kan dus heel goed doen ‘alsof’ hij intelligent is. Dat maakt de Turingtest een bot wapen.

Ten tweede is het vooralsnog onmogelijk gebleken voor robots om voor de Turingtest te slagen, want zij hebben geen gezond verstand en geen oog voor relevantie. Dat lijken computationeel uiterst complexe processen te zijn. Als mens zijn we in staat om veel irrelevante details te negeren, maar we weten niet hoe we daartoe in staat zijn. En we weten ook niet hoe we dit in de robot kunnen implementeren. Daarom zal een robot hoe dan ook falen voor de Turingtest.

Veel mensen hebben de veronderstelling dat de robot een rationeel systeem is, maar dat is niet altijd zo. Een robot is enerzijds superintelligent (en op sommige momenten veel slimmer dan de mens), maar op andere momenten oliedom. Verwijzing naar YouTube: https://www.youtube.com/watch?v=iQ9zXZbGjpI, met name na minuut 34; en uni van NL: https://www.youtube.com/watch?v=JgAg4VYLjfQ).

Rob van den Hoven van Genderen stelt een ‘beperkte’ rechtssubjectiviteit voor en maakt een vergelijking met gehuwde vrouwen vroeger. Zij hadden ook een beperkte rechtsbevoegdheid. Ook refereert hij naar slaven in het Romeinse rijk die op den duur ook een zekere mate van rechtspersoonlijkheid kregen. Hoe zou u tegenover zo’n beperkte rechtssubjectiviteit staan voor operatierobots?

Haselager: Waarom zou je dit willen? In mijn ogen willen individuele gebruikers af van hun afgeleide verantwoordelijkheid voor de fouten van een robot. Hetzelfde geldt voor de bedrijven die af willen van hun productaansprakelijkheid. Tegelijkertijd willen ze ook niet geremd worden in de ontwikkeling van die robots (zogenaamde chilling effects). Gebruikers vinden het bij de afname van robots te duur om zich tegen mogelijke fouten te verzekeren. Het is dus met name een economisch probleem, dus niet een principiële maar een praktische aanleiding om dit op te lossen.

En wat los je op? Je introduceert daarmee een derde partij in de verhouding en je moet een budget voor verhaal creëren. Feitelijk maak je de menselijke verantwoordelijkheid voor het gedrag van de robots, zowel van producent als gebruiker, minder zichtbaar. Maar dat zal de schade niet verminderen.

Wat er dan gebeurt is dat de overheid uiteindelijk op moet komen voor de schade. Ditzelfde gebeurde bij het storten van chemisch afval in de Rijn in de jaren ’70. Robots zijn een nieuwe klasse vervuilers voor de samenleving in dat opzicht.

In mijn ogen is het onredelijk om artsen en producenten aansprakelijk te houden indien robots autonoom worden. Mijn idee is daarom om een constructie te bedenken waarbij zij salaris krijgen en met dat salaris zich kunnen verzekeren voor mogelijke aansprakelijkheden. Hoe denkt u daarover?

Haselager: Deze gekunstelde constructie met begrippen als salaris en verzekering maken de discussie alleen maar onduidelijker. Nogmaals: je stuit hierbij op het probleem van het ‘raken’ van de robots. Dat kun je niet. Je kunt ze hooguit vernietigen. Bij bedrijven raak je uiteindelijk de eigenaars of aandeelhouders. Als je de mens uit de verantwoordelijkheidsketen haalt haal je het fundament onder aansprakelijkheid uit.

Ten tweede is het belangrijk dat we ons realiseren wat dit uiteindelijk inhoudt. Gaan we onze ijskasten (relatief simpele robots, hoewel ook die snel complexer te maken zijn) en zelfrijdende auto’s salaris betalen?

Ten derde ben ik met het artikel van Abeba Birhane en Jelle van Dijk ‘Robot rights? Let’s talk about Human Welfare Instead’ eens dat we door het toekennen van rechten aan robots de mens ontmenselijken.

Heeft u mogelijke aanbevelingen om op een andere wijze met deze ontwikkeling van autonome (zelflerende) operatierobots om te gaan met betrekking tot aansprakelijkheid?

Haselager: In een artikel van ‘Het beste idee’ heb ik gepleit voor een robotbewijs. Vergelijkbaar met een rijbewijs. Dat betekent dat je als gebruiker moet slagen voor een theorie-examen, een praktijkexamen en een verzekering moet sluiten voor het gebruik ervan. Mogelijk ook moet bijscholen, gezien de enorme voortdurende veranderingen in robotica. Ik denk dat de robotica in dit opzicht veel kan leren van de reguleringspraktijken bij auto’s en vliegtuigen.

Maar betekent dat dat de robot als object zal blijven worden gezien?

Haselager: De robot zal inderdaad als product moeten blijven worden gezien. Daarbij zal er een ‘data recorder’ moeten worden ingevoerd, net als bij vliegtuigen. Deze black box registreert exact wat er gebeurt op welk moment, en onder wiens verantwoordelijkheid. Er zijn veel partijen in een ziekenhuis met formele verantwoordelijkheden. Dit zal dan via een blockchain-constructie moeten worden geregistreerd, zodat het hacken daarvan vrijwel onmogelijk is.

We kunnen, en ook jij in je scriptie kan, veel leren uit de auto-industrie en de vliegtuigindustrie. We mogen hopen dat we met robots hetzelfde bereiken als hen. Leg verbanden met de gebruikersaansprakelijkheid. Denk ook aan kwaliteit, opleiding en verzekeringsaspecten.

Juristen zijn fan van juridische fictie, begrijpelijk ook, en begrippen als ‘rationele persoon’ hebben zeker een functie. Om robots daadwerkelijk persoonlijk aansprakelijk te houden moet echter om principiële gronden worden afgewezen. Zeker kan aan hen geen rechten wordt toegekend. Vooral vanwege de gronden dat ze nog geen feitelijk begrip hebben, superintelligentie afwisselen met gebrek aan gezond verstand, en principieel omdat we daarmee onszelf ontmenselijken. Daarnaast wordt de schade diffuser: de schade wordt geponeerd bij de zwakkeren in de samenleving die zich minder goed kunnen verweren of bij de overheid (de belastingbetalers).

Maak ook een vergelijking met slimme auto’s en robots. Ze zijn nu nog niet helemaal zelfrijdend, maar slechts half zelfrijdend onder sommige omstandigheden. Op een congres voor de Nederlandse Vereniging van Verzekeraars sprake ik over premies voor robots in de openbare ruimte; het is voor verzekeraars lastig waar ze allemaal rekening mee moeten houden. Jouw scriptieonderwerp is daarom zeker van belang.

Heeft u meer aanbevelingen?

Haselager: In Delft sprake ik met een Franse chirurg uit Strasbourg. Ze legde me een interessant praktijkvoorbeeld voor. Een chirurg was aan het opereren met een Da Vinci-operatierobot. De chirurg duwde op de verkeerde knop, waardoor de verkeerde handeling werd uitgevoerd. Weliswaar werd de (verkeerde) handeling perfect uitgevoerd. Gelukkig kon de schade worden beperkt, omdat de aanwezige chirurg de interne bloeding snel kon stoppen.

Traditioneel gezien kan worden gesproken van een goede chirurg, nu de bloeding werd gestopt. In de moderne tijd kan wellicht worden gesproken van een ‘slechte’ chirurg, omdat op het verkeerde knopje werd gedrukt.

Wat betekent deze ontwikkeling voor de professionaliteit en de vakbekwaamheid van de chirurg? Welke cursussen zullen moeten worden gevolgd?

Check ook het boek “The laws of Robots” van Ugo Pagallo (Springer uitgeverij). Daarin gaat hij in op aspecten van robotrechten en maakt een vergelijking tussen robots en organisaties. Moreel gezien kunnen ze niet verantwoordelijk worden gehouden, maar juridisch gezien wel.

Het feit is wel dat, net als bij rechtspersonen, natuurlijke personen achter de organisaties aansprakelijk worden gehouden.

Haselager: Ja, dat is de crux. Niet de robot zelf. Besteed in het eindoordeel van de scriptie dus met name aandacht aan de levensvatbaarheid van de door jouw bedachte constructie.