• No results found

Interview 9, Jochanan Eynikel

Functie

Sector Ethiek

Kan u uzelf even kort voorstellen? Dus uw functie en voor welke organisatie dat u werkt enzo?

Ja, dus ik ben Jochanan Eynikel. Ik werk als filosoof bij ondernemersnetwerk ETION. Een netwerk dat ongeveer 1500 bedrijven en organisaties in Vlaanderen verenigd die toch kiezen om op een bewust, waarde gedreven manier te ondernemen. En ik werk in de denktank eigenlijk op het thema “waarde gedreven ondernemerschap” en naar aanleiding wat betreft deze thematiek hier, ook alles wat te maken heeft met waarde gedreven innovatie en ethiek van technologie.

Sociale_Robots Oké en op welke manier komt u in aanraking met sociale robots?

Hoe kom ik daarmee in aanraking? Ik ben er een paar tegengekomen op evenementen en heb mij ook verdiept in de literatuur daarrond en ben gaan spreken met mensen die ze maken of die ze programmeren. Het is niet dat ik zelf veel ga interageren met die sociale robots hé. We hebben ze zelf eens op een evenement zo’n Pepper robot gehad die mensen verwelkomt en zo eens een NAO robot. Het is meer de filosofie rond robotica waarmee ik in aanraking kom dan wel de technologie zelf.

Voorbeelden Oké en kunt u enkele specifieke voorbeelden geven waarmee u al dan niet in aanraking bent gekomen, bijvoorbeeld zoals Pepper die u reeds aanhaalde.

Die ik ken hé. Sophia, Pepper, NAO, Zohra of ja dat is eigenlijk een NAO robot hé, Jibo maar die is denk ik nooit ontwikkelt denk ik, zo die familierobot die uw gezichten herkent en die soort van babysit functioneert. De vraag is natuurlijk ook wanneer is het een sociale robot hé. Is Siri een sociale robot? Ik ga er nu vanuit dat we van fysieke, mechanische technologie spreken, maar als het gaat over sociale interactie, dan is van Apple die Siri ook een sociale robot. Dus daar moeten we het straks een over hebben. De seksbots zijn ook, daar ben ik nog niet mee in aanraking gekomen, maar die zijn mij ook wel bekend.

Vervanging_Zorgverleners Oké, prima. Nu de eerste deelvraag gaat over de ouderenzorg, want ethiek speelt daar vaak een belangrijke rol. Mogen volgens u, dus uw persoonlijke mening, mogen zorgverleners bij ouderen vervangen worden door sociale robots?

Omdat er expliciet “vervangen” staat, ben ik eerder geneigd tot neen. Natuurlijk, als je meer technologie gebruikt zou het kunnen dat bepaalde functies overbodig worden, maar ik denk dat.. Ik weet niet of uw onderzoek zich richt op sociale robots vandaag of wat er ooit mogelijk is in de toekomst, want dat maakt al een verschil. Zeker wat ze vandaag kunnen, kunnen ze denk ik nog niet een persoon volledig vervangen, mar ze kunnen natuurlijk misschien wel assisteren in

dat er wel een grote ethische uitdaging is met hoe kwaliteitsvol is de zorg. Want een element dat ik denk dat een heel belangrijk onderdeel is in de zorg dat is aandacht. Aandacht geven aan iemand. Eenzaamheid, ik ben de cijfers kwijt, maar ik denk dat het aantal percentage van mensen die langdurig ziek zijn of in oudere centrum zitten, de factor eenzaamheid is daar enorm groot. Eenzaamheid, je kunt verstrooid worden door televisie bijvoorbeeld of misschien een robot die met u praat, maar dat is nog niet hetzelfde als mensen die hun aandacht geven. Ik geef dat voorbeeld regelmatig in mij cursussen technologie ethiek dat het feit dat je de tijd neemt om iemand een bezoek te brengen, daar zit een enorme waarde in die een robot niet kan geven. In tegendeel, ik zeg niet dat een robot geen gesprek kan voeren he ofzo, maar het feit dat iemand z’n tijd vrij maakt waarmee hij iets anders had kunnen doen, dat is iets anders dat een robot niet heeft. Het heeft geen, sowieso al geen besef of dat hij andere dingen had kunnen doen. Dus, ja, ik loop misschien wat vooruit naar andere vragen, maar dus het puur vervangen ben ik geneigd om nee te zeggen, maar taken kan het wel ja overnemen.

Vervanging_Voordelen Vervanging_Nadelen Vervanging_Rollen Ethische_Gevolgen

Oké, super. En ziet u daarbij nog andere voordelen of nadelen, bijvoorbeeld zoals u al zei dat er gesnoeid kan worden in het personeel of net dat zorgverleners het echte werk kunnen doen doordat ze meer tijd hebben dan daarvoor.

Ja, nu. Pas op, als je ziet, de gezondheidszorg nam al een heel groot hap uit het budget, het zal nu ook interessant zijn om in de toekomst te zien wat de invulling zal zijn na deze pandemie natuurlijk. Ik denk dat aan de ene kant dat er niet verder bespaart zal worden, maar aan de andere kant zit de overheid nu natuurlijk met enorm groot gat in haar begroting. Dus, ik denk dat het voordeel wel kan zijn dat technologie bepaalde dingen efficiënter maakt, nu daar ga ik misschien wel iets breder dan sociale robots, maar als administratie bijvoorbeeld, kan geautomatiseerd worden, opnieuw waardoor bijvoorbeeld verpleegpersoneel zich echt kan richten op echte zorg zoals aandacht geven en niet met van die papierzaken bezig zijn, dan is dat ook een besparing dat wel ergens terecht komt op een bepaalde functie die wat meer of minder nodig wordt. Dat is op zich ethisch niet problematisch als een ziekenhuis zegt, kijk we gaan wat minder administratief personeel aanhouden of gepensioneerde mensen in die setting in die functies niet vervangen, waardoor we meer budget hebben voor zorgpersoneel, dan is dat ethisch denk ik heel verdedigbaar. Dus besparen op zich is niet onethisch. Als het een besparing is die tegelijkertijd de kwaliteit van de zorg geen aandachtspunt is of te weinig, en het puur is om centen te besparen, dan is het wel problematisch.

Vervanging_Druk En denkt u dat de druk om zorgverleners te vervangen door sociale robots zal toenemen naarmate dat sociale robots meer genormaliseerd worden in de maatschappij?

Als het effectief zo is dat sociale robots meer geaccepteerd worden en bijvoorbeeld ook, want ik besef ook wel wij kijken naar robots en zeker ouderen, dat is iets heel vreemds. Maar de jongerengeneratie die daarmee opgroeien bij wijze van spreken Dat is nu niet echt het geval, maar daar zo misschien ooit wel een tijd komen. We gaan misschien wel anders naar kijken, misschien robots wel al aanvaarden als een soort van vervanging van een persoon. Maar als die aanvaarding dus er meer is, dan denk ik wel dat er toch wel een obstakel weggenomen wordt bij beslissingnemers of we die technologie gaan gebruiken, want dat is toch wel iets dat je vandaag misschien dat degene die meer voor de centen kijken zullen zeggen ja maar ja dat kunnen we toch de mensen of patiënten niet aandoen zo’n zorgrobot. Ik spreek nu altijd over zorgrobot, maar ja we

wel effectief gaan kunnen hé. Want zo ver ik weet, is dat allemaal nog zeer beperkt wat ze kunnen vandaag.

Waardevolle_Interactie Oké, super. En kunnen volgens u sociale robots waardevolle interactie voeren met ouderen?

Het hangt een beetje van af van de persoon die voor u zit hé. Het probleem met interactie met sociale robots is dat, het is geen symmetrische communicatie, in de zin van die robot kan reageren als die heel goed geprogrammeerd is en dus verstandig reageren, maar er zit natuurlijk geen bewustzijn achter. En daar ga ik nu ook van uit dat we niet over de mens 2.0 spreken, maar wel over goed geprogrammeerde sociale robots. Dus op zich, zelfs in een soort van therapeutisch gesprek zal de robot maar antwoorden op basis van het feit dat die goed geprogrammeerd is en niet vanuit bewustzijn. Maar wil dat ook zeggen dat dat niet kan helpen? Als iemand, hoe moet ik het zeggen, ik vind dat een delicaat voorbeeld, maar bijvoorbeeld bij dementerenden die, je ziet die experimenten met die zeehond robotjes, je ziet dat die mensen daar wel plezier mee beleven met dat wezentje, het interageert misschien zoals een hondje of katje, dat heeft blijkbaar wel waarde voor die persoon. Eigenlijk moet mijn antwoord zijn “ja”, maar als het gaat over zijn dat betekenisvolle interacties bij mensen of normale op intellectueel niveau, dat denk ik niet. Maar op zich kunnen zij wel waarde leveren. Er zijn ook al voorbeelden geweest van chatbots die worden ingeschakeld om jongeren die problemen hebben te woord te staan op z’n minst bij eerste hulp bij psychische aandoeningen en die kunnen dan toch blijkbaar wel die mensen naar de juiste kanalen verder verwijzen. Dus ze hebben een waarde, maar daarom is dat nog niet dezelfde als de menselijke.

Waardevolle_Interactie_

Definitie Oké en wat verstaat u dan precies onder waardevolle interactie?

Een interactie is waardevol als de mens, als het gaat om mens-machine interactie, wanneer de mens zelf het waardevol vindt. Natuurlijk als ik spreek met zo’n zeehondje, ga ik dat weinig waardevol vinden. Als een persoon, daarom niet elke, maar een persoon met dementie daarvan opleeft en die heeft er iets aan, dan heeft het duidelijke waarde voor die persoon. En iets dat heel belangrijk is, het is een aanbeveling om mee te nemen voor u, daar bestaat geen eenduidig antwoord op. Alles van waarde is persoonlijk. Voor de ene is familie veel belangrijker, voor de andere werk. Ik denk dat je wel kan zeggen dat de interactie toch iets mist, in de zin van, ik en veel anderen weten toch, dat die machine of robot zelf, geen bewustzijn heeft en dat dat toch iets mist om een echt gesprek te voeren. Maar dat wilt niet zeggen dat voor iedereen het zo is. Omgekeerd, moeten we wel opletten dat mensen met dementie of met een handicap of minder begaafd zijn, dat we daar geen misbruik gaan maken van zoiets omdat ze zogezegd toch niet beter weten.

Evolutie_Mens_Interactie Oké, super. En op welke manier denkt u dat die sociale robots een impact zullen hebben op de evolutie van menselijke interactie?

Ik had me een beetje voorbereid, dus ik ga eens kijken wat ik heb opgeschreven. Ja, dat is een soort van toekomstvoorspelling en ik ben daar altijd wat

mensen geen relaties meer gingen aangaan. Het is een vervanging voor het ontbreken van seksuele bevrediging. En nu zal dat misschien ook via machines gebeuren, het is eigenlijk al bezig en misschien in de toekomst nog meer, maar ik denk toch niet dat het wezenlijke dat we zoeken in anderen, niet alleen het seksuele natuurlijk maar ik geef maar een voorbeeld, dat dan ja volledig vervangen kan worden door technologie. Ik weet niet of het helemaal het antwoord is op uw vraag hoor, maar het is moeilijk om zo voorspellend te beantwoorden. Laat ons zeggen dat een aantal relaties nog meer bemiddeld zullen worden door technologie, maar ik denk niet dat ze de intrinsieke nood aan menselijke interactie zullen vervangen.

Zou het dan positief of negatief of gewoon neutraal uitdraaien die impact op interactie?

Neutraal denk ik gewoon ja. Er zullen negatieve invloeden zijn, maar er zullen ook wel positieve zijn. Dus laat ik maar gewoon neutraal zeggen ja.

Aansprakelijkheid Verantwoordelijkheid

Oké. Nu, de tweede deelvraag is omtrent wetgeving. Denkt u dat een sociale robot aansprakelijk kan gesteld worden als die bijvoorbeeld een fout medicijn voorstelt aan de arts en de arts dit voorschrijft aan de patiënt, waardoor die patiënt schade oploopt of zelfs sterft?

Het juridische is minder mijn ding, maar ik heb daar wel iets over te zeggen omdat het ook met ethiek raakt hé. Mijn antwoord is eerder nee. Omdat een robot geen morele actor is. En een morele actor is iemand, dat weet u misschien wel zelf hé. Maar dat is iemand die op z’n minst weet wat hij doet en daar verantwoordelijkheid voor kan nemen en daar komt dan weer eigenlijk bij verantwoordelijkheid, ja daar moet je echt beroep doen op iemand zijn intrinsieke motivatie om het goede te doen ook wanneer je het foute kan doen. En dat is misschien zelfs meer opbrengt. Wij rijden niet door het rood, ook al zouden we denken van er is hier toch niemand in de buurt, omdat we weten dat het ons zuur kan eindigen. Ten eerste door een ongeval, ten tweede door boetes. En een robot heeft dat bewustzijn niet, ja ik heb het al gezegd. Eigenlijk is de vraag, om iemand aansprakelijk te stellen, kan die zelfstandig een beslissing nemen die robot? Je zou kunnen zeggen ja, het is een autonome robot, maar zelf in die mate dat we als fabrikant niet kunnen voorspellen wat de uitkomst is en dat is er eigenlijk niet. Pas op, het is niet helemaal waar wat dat ik zeg, want er zijn wel reeds voorbeelden van artificiële intelligentie waarbij dat er een ontwerper niet helemaal kan inschatten wat er gebeurt. Maar ook dan gaat het niet omdat de robot een eigen wil heeft, maar eerder omdat we de data of technologie nog niet helemaal hebben ontcijferd. Dus mijn antwoord is eerder nee en zelfs in die zin dat we daar ook mee moeten opletten. Een robot aansprakelijk stellen, dan creëren we eigenlijk een moral hazard voor de ontwikkelaar of innovatoren hé. Zij kunnen dan zeggen “ik heb hier een sociale robot gemaakt die assisteert over informatie geven over medicijnen, maar als die beslist om een verkeerd medicijn te geven, dat heb ik niet geprogrammeerd.” En op den duur krijg je een soort van vacuüm. Dat kan een reden zijn dat die ontwerpers dan niet meer zouden bezig zijn met die ethische zaken. Want dat is dan toch zogezegd de verantwoordelijkheid van die robot. Bovendien zie ik, ik weet niet of je die persoon, of ja persoon zeg ik nu al, maar die robot, of je zou kunnen die verantwoordelijkheid kunnen afdwingen? Kan je een robot straffen? Of je nu een robot een eeuw in de gevangenis stopt, die heeft geen ervaring van verveling, van besef, van pijn. Dus nee. Dat denk ik niet.

Dat is de moeilijkheid hé. Dus ik snap wel dat we misschien de rechtspraak zullen moeten aanpassen als er vandaag in een vacuüm zitten waarbij niemand verantwoordelijk wordt. Dat begrijp ik wel. De keten van verantwoordelijkheid wordt zo ruim hé, als je bijvoorbeeld een geavanceerde zorgrobot zelf

toedienen van medicijnen of eventueel zelf medicijnen zou toedienen. Is dat dan de fabrikant van de hardware? Is dat dan de software ontwikkelaar? Is dat dan de gebruiker die ook wat invloed heeft op die robot? Of zelfs de familie die zegt aan de robot “zie dat hij zeker zijn medicijnen pakt”. Ik zelfs als eens gehoord bij zelfrijdende wagens, stel dat er een probleem is met de wifi connectie waarop die wagen rijdt, dat die verantwoordelijk is. Het is om te zeggen dat het zeer breed is. Ik denk dat het zo dicht mogelijk moet liggen bij de instantie die het meeste invloed heeft op de uitkomst van de robot. Dat wilt zeggen dat je misschien de uitkomst zult moeten beperken, waardoor dat de

aansprakelijkheid voorzien is. Dat de robot bepaalde dingen niet kan doen of niet kan ingaan op bepaalde dingen. Ik ben nu geneigd om dat nu eerder naar de fabrikant te brengen, maar welke fabrikant dat is nu ook al zo specifiek. Eerder de softwarefabrikant, maar laat het ons ook maar zo dicht mogelijk bij de ontwerpers en programmeurs houden. In die zin dat dat hen dan ook zal verplichten met veel morele verbeelding, om met ons moreel besef dat we hebben als mensen ook zo te ontwerpen. En niet laten afhangen van we zullen wel zien hoe het in de echte wereld evolueert.

Vergelijking_Bedrijf Oké, super. Nu die aansprakelijkheid van sociale robots wordt in de literatuur door verscheidene auteurs met verscheidene zaken vergeleken. Een van die dingen is bedrijven. Denkt u dat bedrijven en sociale robots te vergelijken zijn op vlak van aansprakelijkheid?

Ik snap die vergelijking, in de zin van, een bedrijf kan iets bezitten, een bedrijf kan contracten afsluiten. Maar ik denk dat de vergelijking met bedrijven net laat zien dat het uiteindelijk op mensen moet uitkomen. Ik heb nee gezegd op de vraag of ze aansprakelijk kunnen zijn, maar als er een soort van vorm is die maakt dat een robot via een soort van beperkte aansprakelijkheid verzekerd is maar dat het wel uitkomt bij iemand die wel die verantwoordelijkheid kan nemen, dus niet de robot maar wel de fabrikant of dergelijke meer, het is een soort van tussenvorm. Bij bedrijven ook, als een bedrijf aansprakelijk wordt gesteld, bijvoorbeeld een medicijn met grote neveneffecten, uiteindelijk zijn het wel, hoe dat bedrijf, zal dat middelen moeten uitbetalen, dan ja er zijn

bestuurders of aandeelhouders die dan minder inkomsten zullen hebben. Het komt uiteindelijk wel neer op een groep van mensen die verantwoordelijk zijn. Maar de vergelijking moet ook wel ver genoeg doorgetrokken worden. Het is niet dat een bedrijf boetes kan betalen of gestraft kan worden zonder dat er daar ergens ook een menselijke impact zal zijn of een menselijke

verantwoordelijkheid wordt aangesproken. Er zijn ook mensen van bedrijven die in een gevangenis terecht komen. Neem nu het energiebedrijf Enron, die begin jaren 2000 failliet is gegaan. Wel, de mensen van het bestuur en de CEO zitten wel in het gevang door het wanbeheer dat hun bedrijf heeft getoond. Dan moet je het ook wel dus doortrekken tot de beslissingsnemers achter de robot.

Vergelijking_Minderjarige Oké, super. Nu de tweede vergelijking is die met minderjarigen. Omdat die ook menselijke ouders hebben en zo jou je een robot ook kunnen zien,

de fabrikant van de robot, of de trainer van de robot of de ontwikkelaar, die uiteindelijk bepaald in de opvoeding van de sociale robot, hetzij in de programmering van de sociale robot. Dus dat programmeren die een groot stuk van de output van robot bepaalt, zoals ouders een groot stuk van de output van kinderen bepalen. Ik vind die vergelijking niet slecht, al blijft er nog altijd een groot verschil. Minderjarigen betekent ook zeventienjarigen. Daarvan kunnen we niet zeggen dat die geen enkel moreel besef hebben natuurlijk. En dat blijft bij robots toch afwezig, zelfs al die 184 jaar oud zijn bij wijze van spreken.

Vergelijking_Dier Oké, nu de laatste vergelijking is die met dieren. Snapt u die vergelijking