• No results found

Interview 7, Margo van Kemenade

Functie

Sector

Zou u uzelf kort even kunnen voorstellen? Dus welke functie u bekleedt in het professioneel leven en voor welk bedrijf of organisatie u werkt.

Ik ben general manager in Holland Academy. En Holland Academy is een organisatie die ongeveer 144 opleidingen onbekostigd onderwijs heeft. Nascholingen en bijscholingen voor professionals. Dat is wat ik in het dagelijks leven. Daarnaast heb ik bijna mijn PhD afgerond en dat is ook de reden dat Johan je naar mij verwezen heeft. Ik ben ook nog docent ethiek en techniek bij werktuigbouwkunde en electrical engineering. Dus dat komt er ook nog bij. En ik ben ook PhD student bij Johan Hoorn.

Sociale_Robots Ethiek

En op welke manier komt u in aanraking met sociale robots dan?

Nou, dat is via mijn PhD onderzoek aan de Vrije Universiteit in Amsterdam. En daar onderzoek ik de morele bezwaren die zorgverleners hebben ten aanzien van de inzet van sociale robotica, dus ik kijk met name naar zorgverleners, dus niet de gebruikers. Wat vinden zorgverleners ervan? Welke gaan ze gebruiken en welke niet? En waarom? En daarbij ook nog eens, niet alleen zorgverleners, maar ook studenten in de zorg omdat ik vermoedde dat met een andere generatie het een ander probleem zou zijn.

Oké, dus zo komt u dus dan ook in aanraking met ethische zaken, dus heb ik al direct het antwoord op de volgende vraag.

Precies, het is echt het centrum van mijn research, die ethische aspecten.

Voorbeelden Kunt u enkele voorbeelden geven van sociale robots? Eventueel waarmee u zelf te maken mee hebt gehad?

Ja. Ten eerste verdeel ik in mijn onderzoek en heb ik het eigenlijk over zorgrobots. Dus sociale robots die in de zorg worden toegepast, dat is mijn focus. Is dat bij jou ook of is het breder?

Nee, bij mij gaat het echt wel puur om sociale robots in het algemeen, met een focus op ethische en juridische zaken. Maar geen specifieke focus op bepaalde sociale robots, dat niet nee.

Oh ja, ja. Nou, ik heb een onderverdeling qua robots in assisterende, monitorende en gezelschapsrobots. En die zijn allemaal sociaal. Wat is dan wat mij betreft een sociale robot? Dat is voor mij een robot die voor z’n functioneren moet interacteren met mensen. Op welke manier dan ook, er moet interactie zijn. Dat kan van alles zijn, maar dan is het voor mij een sociale robot. Ik zal even van elk soort een voorbeeldje noemen. Bijvoorbeeld een assisterende zorgrobot heb je de Rida, en met name de Rida 2. En dat is een tilrobot. Die tilt mensen van de vloer, uit bed in een rolstoel of uit de rolstoel in bed. Dat kan die. Dat kan die ook zelfstandig. Dat is de eerste. De tweede bijvoorbeeld is een monitorende robot, daar heb je er verschillende van. Ik denk daarbij aan zorg op afstand meestal via een monitor. Op stand monitoren kan bijvoorbeeld zijn het is een, ik kan even niet meer op de naam, maar het is een soort van rijdende paal en die rijdt in je huis rond en die helpt jou herinneren aan dag en nacht structuur of dat je moet eten of dat soort dingen. Die helpt dan jou daarmee. En

van in mijn onderzoek, dat ga ik zo wel eens vertellen, is bijvoorbeeld de PARO. Ik denk dat je daar al iets van gehoord hebt, die hele grote zeehond?

Ja, ja. Absoluut!

Ja, wel, dat is een gezelschapsrobot. En wanneer is nu iets een robot? Want daar is er ook wel vaak discussie over. Daar hanteren wij eigenlijk de volgende definitie: er moet iets elektromechanisch in zitten, het is een apparaat die wordt aangedreven, er moet dus ook iets aan bewegen aan dat apparaat, dat kunnen oogjes zijn die knipperen, ledlampen of het hele ding dat beweegt, maar er moet iets aan bewegen. Dan kan je natuurlijk ook een wasmachine hebben, die er tot nu toe ook aan de kenmerken voldoet. Het grootste en eigenlijk voornaamste onderscheidende factor is dat een robot zijn eigen beslissingen maakt. Nou ja, met eigen beslissingen bedoel ik dat natuurlijk tussen haakjes, want het is natuurlijk op basis van algoritmes. Er is wel algoritme die we er zelf hebben ingestopt. Dus bijvoorbeeld zo’n tilrobot die zou kunnen besluiten, hé er is iemand op de grond, dat is niet de bedoel dus ik til die even in bed. Zo’n iemand kan natuurlijk ook op dat moment yoga aan het doen zijn. En dat vinden mensen dus eng, want zo’n robot maakt geen onderscheid. Meestal vinden mensen dat eng ja.

Vervanging_Zorgverleners Vervanging_Voordelen Vervanging_Nadelen Vervanging_Druk

Oké, dat is duidelijk. Nu, binnen de ouderenzorg, zouden zorgverleners vervangen mogen worden door sociale robots volgens u?

Volgens mij wel, volgens henzelf niet, logischerwijs. Ja, mogen is natuurlijk is een heel breed begrip in dit geval. Mogen van de wet, mogen van.. Het gaat heel sterk tegen ons rechtvaardigheidsgevoel in of, ja. Ik denk zeker dat dat wel mag. Ik kan dat ook genuanceerder geven. Bijvoorbeeld, het is wel heel erg fijn als een zorgverlener altijd bij je blijft, die niet andere dingen gaat doen. Dus de inhoud van de zorg gaat wel veranderen, denk ik. Ja hoor. Ik heb een heel mooi voorbeeld als je daar tijd voor hebt?

Ja, ja! Zeker! Graag zelfs.

Bijvoorbeeld, ik ben heel ver het land ingegaan om lezingen te geven over mijn ervaringen met het onderzoek en wat mij altijd opviel, was dat de mensen zeiden van “ja maar moet je horen als een robot een oudere moet gaan wassen dat is toch verschrikkelijk, daar moet je toch niet aan denken? Zo’n iemand is naakt en kwetsbaar. Komt er een stuk koude techniek bij kijken. Nee dat mogen we nooit doen.” Dat was echt altijd het antwoord op mij vraag van welke processen binnen de zorg mogen niet geautomatiseerd worden, bijna 90% van de mensen, van de zorgverleners zeiden “nou ja, het wassen”. “Het wassen daar moeten we echt niet aan beginnen”. Het leek mij best logisch toen ik dat zo hoorde. Weet je ja, dat is logisch, dat moet je ook niet doen, maar toen sprak ik een tijdje daarna, een kleine 2-3 maanden daarna, sprak ik een oudere heer van 83. En ik legde hem zo dit voor en hij werd dagelijks gewassen door de thuiszorg. Die kwamen hem wassen. En die zei tegen mij: “Mevrouw, weet u hoe vernederend het voor mij is te moeten uitkleden voor een meisje van 23-24 jaar? Dat dan ook nog steeds een ander is. Ik weet hoe ik eruitzie voor mijn leeftijd, je schaamt je daar

over. Maar ik geloof wel dat alle techniek zo menselijk te maken is dat het ons tot dienst is. We hebben altijd al angst voor techniek, altijd. Of het auto’s waren of de stoomtrein. Het maakt eigenlijk niet uit, we hebben altijd angst gehad voor techniek en dat is altijd tijdelijk geweest en dan zijn we eraan gewend en dan ja. Nu stappen we toch ook zo zonder problemen in een lift of in een auto? Dus we gaan toch ook wel zonder problemen in een robotauto stappen hoor. Dat geloof ik wel.

Vervanging_Rollen Oké, u zei reeds dat zorgverleners die mensen wassen, vervangen zouden kunnen worden. Zijn er nog andere rollen? Of er is geen andere rol die volledig vervangen kan worden door een robot?

Ja, dat geloof ik zeker. Dat wel. Er is geen enkele rol die volledig vervangen kan worden. Je deelt het op in functies en taken, en dan heb je daar steeds een andere robot voor.

Ethische_Gevolgen En de ethische gevolgen voor ouderen? Stel dat er toch een zorgverlener vervangen wordt door een sociale robot. Zouden de ouderen zich bijvoorbeeld eenzamer voelen of net minder ofzo?

Dat is ook weer zo’n grappige. Ik heb hier geen eenduidig antwoord op. Je hebt, even kijken hoor, kan je de vraag nog eens herhalen voordat ik een antwoord geef die het helemaal niet was?

Ja hoor! De vraag is wat de ethische gevolgen zullen zijn voor ouderen indien een zorgverlener vervangen wordt door en sociale robot.

Oh ja, ja. Pakken we even de eenzaamheid erbij. Eenzaamheid is in ieder geval in Nederland is dat heel schrijnend, die eenzaamheid onder ouderen. Er zijn heel veel eenzame ouderen. En die daar ook echt onder lijden, echt onder lijden. Je kan denken als, ja. Heb je toevallig die documentaire ‘Ik ben Alice” gezien?

Ja, onlangs nog!

Dat was mijn onderzoek, daar zit ik ook in, je ziet mij daar ook in. Wij hadden eigenlijk van tevoren nooit gedacht dat ze daar zo goed op zouden reageren. En natuurlijk is het schrijnend en natuurlijk is het de druk op groeiende kwaad, maar het is al beter dan niets. Stel, nou, je bent in de 80, zo’n 80-85 en je bent er nog goed bij. Maar al je kennissen zijn dood en misschien heb je een of twee kinderen, maar die wonen in het buitenland. Een vrouw had een zoon en die woonde in Portugal, al haar vrienden en kennissen waren al dood. Die was echt, echt verschrikkelijke alleen. Die zei, ook al was het maar een klein beetje, want die Alice kon eigenlijk niet zoveel hé, het was echt bijna gênant, het kon echt amper wat. Maar ze was wel zo geprogrammeerd dat als je dan zou vragen” wat wordt het weer?”, dan kon de computer in Alice wel gewoon een antwoord opleveren wat het weer zou worden. En die vrouw zei “ik weet ook wel dat dat elke keer een computer is gewoon, maar het was toch, ik kon toch ergens een vraag kwijt aan iemand en het was beter dan niets.” Dus ja, de ethische bezwaren enerzijds, het is schrijnend dat we op deze manier met onze ouderen omgaan, dat vind ik echt. Onze zorg in Nederland is absoluut verkeerd ingericht. Maar ja, die situatie zo zijnde. Nu met Covid is het helemaal rampzalig natuurlijk. Het heeft ethische consequenties, zeker, maar je moet je tegelijkertijd afvragen of het niet inzetten van die middelen niet erger is?

Waardevolle_Interactie Oké, dat is duidelijk. Nu vindt u dat sociale robot waardevolle interactie kunnen voeren met ouderen?

Ja, dat denk ik wel ja.

Waardevolle_Interactie_

Definitie En wat verstaat u dan precies onder waardevolle interactie?

Als jij bijvoorbeeld een therapeut hebt, een goeie. Die is in staat gesprekstechnieken toe te passen. Hij onthoudt zich van een oordeel, hij of zij luistert en knikt en gebruikt de doorvraagtechniek. En heeft alle aandacht en alle tijd, of dat straalt die toch uit. Die techniek, als je die in een robot stopt, dan is het eigenlijk best wel heel goed mogelijk om daar een gesprek mee te voeren, zodanig dat je je toch enigszins gehoord voelt. Het is nooit ter vervanging van een mens. Het wordt ook nooit beter dan een mens, absoluut niet. Maar als er nou eens geen mens is, of in het geval, en die zijn nu aan het komen, dat zijn een soort van chatbots voor dementerende ouderen en dementerende ouderen bellen natuurlijk 3-4 keer per dag naar hun oudste dochter met een of ander verhaal, meestal hetzelfde verhaal. Nou, daar heb je niet altijd zin in. Nu zijn er chatbots die dus, iemand denkt dat die zijn dochter belt, net zoals wij, als wij nu naar IKEA bellen, dan denken we dat we met een mens aan de lijn zitten, maar dat is dus niet zo. IKEA heeft een chatbot. En na een tijdje als het ingewikkeld wordt dan neemt een mens het wel over. Maar die techniek kan je ook bij dementerende of lichtdementerende mensen toepassen die tien keer per dag naar huis willen bellen, bijvoorbeeld. Of ergens naartoe willen bellen. En dan ja, kan je ook denken van dan zit je toch iemand te foppen? Ja dat doe je wel. Dat klopt. Maar ja, aan de andere kant is het misschien ook wel frustrerend als iemand de hele tijd … krijgt of die wil bellen, hij hoort ook wel het chagrijn aan de andere kant zo van bel je nu alweer? Maar hij weet het niet, want hij is dementerend. Ja, wie weet scheelt dat enorm voor je gemoedsrust als je gewoon tien keer op een dag gewoon even lekker hebt kunnen kletsen. Voor jou gevoel en een keer per dag heb je echt iemand aan de lijn. Ja, dat klinkt heel beroerend, maar ja. Het zou wel handig kunnen zijn.

Morele_Competenties Morele_Comp_Welke

Ja, dat is waar. Nu, vindt u sociale robots morele competenties kunnen bezitten of zouden moeten bezitten? Dus dat ze weten dat er normen zijn, morele beslissingen kunnen nemen, enzovoort.

Nou, dat zal wel moeten. Dat zal wel moeten, het kan niet anders, dus ja. Die stoppen we er zelf in hé, die morele competenties. Een robot gaat een waarde reflecteren die wij als maatschappij hebben. Of moeten reflecteren. Nou ja, als je dan naar de zelfrijdende auto gaat. Daar moeten beslissingen genomen worden die maatschappij overstijgend zijn. Voor de grap zou je eens kunnen kijken. Het MIT heeft een hele leuke test voor autonomous cars. Google het ja, autonomous cars van MIT ja, driving test. En uiteindelijk krijg je steeds een stapje verder een moreel probleem voorgeschoteld, zoals ja, moet de hond dood of moet de bejaarde dood of moet degene die door rood loopt of een jongeling enzo. Dat zal je in een auto moeten stoppen, maar we zijn er niet uit welke set regels moet nou, welke zou een robotauto nu moeten hebben? En wat men nu probeert te doen is een database bouwen, dat je heel …. gezien, kunt zeggen van

en ga je dingen vermijden die je misschien wel goed hadden uitgepakt. Dus het is onvermijdelijk en ik hoop dat het positief is.

En wat zou er dan volgens u veranderen bij menselijke interactie? Zou u daar een voorbeeld van kunnen geven ofzo?

Ik zit eens te denken. Een positief voorbeeld zou kunnen zijn dat als we gewend zijn van te interageren met een robot die alle tijd van de wereld heeft, nooit boos wordt of weinig. Dat wij dat ook meer … in krijgen in het voeren van conversaties zonder of relatief zonder emotie. Dat we daar gewoon gewend aan geraken dat dat de norm is. Een robot krijg je natuurlijk niet kwaad.

Ja, tenzij het geprogrammeerd wordt hé natuurlijk.

Ja, precies.

Aansprakelijkheid Nu, de wetgeving kan ook een rol spelen bij de ethiek bij sociale robots. Denkt u dat een sociale robot aansprakelijk kan gesteld worden? Bijvoorbeeld in het geval waarbij een sociale robot een verkeerd medicijn voorstelt aan de arts om voor te schrijven en de arts schrijft dat medicijn voor en hierdoor sterft de patiënt. Wie is er dan aansprakelijk? Of wie kan er aansprakelijk gesteld worden?

Ja, hele belangrijke vraag. Ik heb geregeld met studenten … als het ging om industriële robots. Een industriële robot die kan ook schade toebrengen. Ja wie zijn schuld is dat dan? De maker? De onderhouder? De eigenaar? Degene die het neer heeft gezet? Ik vind het een moeilijk vraag. Kan je hem nog een keer stellen? Dan kan ik zo’n concreet mogelijk antwoord te geven.

Ja hoor. De vraag is of een sociale robot aansprakelijk kan gesteld worden indien hij verkeerd advies geeft aan een arts en hierdoor een patiënt sterft.

Nee, ik denk dat degene die het algoritme heeft ontwikkeld aansprakelijk gesteld zou moeten worden. De programmeur of desnoods de operateur als die een verkeerde toets heeft ingetoetst, maar ja dan is het geen robot meer hé natuurlijk. Dus ja nee de programmeur ja.

Oké, prima.

Hier moeten we als maatschappij met alles mee hé, want dit gaat nog gebeuren. Deze situatie gaat gebeuren.

Ja, hopelijk niet natuurlijk, maar misschien inderdaad onvermijdelijk.

Ja, ja.

Vergelijking_Bedrijf Nu, in de literatuur gingen verscheidene auteurs de vergelijking gaan maken van sociale robots met verschillende zaken, en een daarvan was de vergelijking met bedrijven als het aankomt op aansprakelijkheid. Gaat u akkoord met die vergelijking van sociale robots met bedrijven op vlak van aansprakelijkheid?

Nee, eigenlijk niet. Bedrijven? Als in organisaties?

Ik zal een voorbeeldje geven. Stel dat een bedrijf iets foutiefs doet, dan is dat bedrijf aansprakelijk, niet de mensen die erachter zitten. Nu stel dat de sociale robot iets zou van schade zou toebrengen en dat je gaat zeggen van kijk we zien het als een bedrijf en houden het op dezelfde manier aansprakelijk zoals we met een bedrijf zouden doen.

Oh, op die manier! In plaats van wat ik daarnet zei van de programmeur. Ja iemand moet aansprakelijk kunnen zijn ja. Dat is meestal de organisatie die dat op zich neemt. Dus ja, dan is het antwoord ja.

Vergelijking_Minderjarige En vindt u een sociale robot vergelijkbaar met een minderjarige als het aan komt op aansprakelijkheid? Dus dat zijn menselijke ouders, al dan niet gedeeltelijk, aansprakelijk zijn?

Ja wie is dan die ouders? Is dat die programmeur? Of is dat het bedrijf?

In de literatuur waren dat de eigenaars van de robot die gezien worden als de ouders, dus bij wie de robot als het ware verblijft, wie het dus heeft aangekocht.

De gebruiker dus in dat geval? Nou, ik vind dat moeilijk. Ik zou daar niet direct ja op kunnen zeggen.

Vergelijking_Dier En ziet u de vergelijking met dieren op vlak van aansprakelijkheid? Want dieren verstaan dat ook niet echt als die schade toebrengen aan iemand.

Ja, precies. Als je een hond hebt en die bijt iemand, dan is het toch de baas daarvoor aansprakelijk. Nou, als je het zo bekijkt dan wel ja. Alhoewel er dan wel aparte wetgeving moet komen ja

Beste_Vergelijking En welke vindt u dan het best vergelijkbaar met sociale robots op vlak van aansprakelijkheid? De bedrijven, de dieren of de minderjarigen?

De dieren, ja.

Rechtspersoonlijkheid Oké, nu zouden sociale robots rechtspersoonlijkheid moeten toegekend krijgen? Dus dat ze contracten kunnen sluiten, rechten en plichten bezitten, goederen kunnen bezitten en dus echt een volwaardig persoon zijn binnen het handelsverkeer?

Nee ik denk het niet nee.

En waarom precies niet?

Omdat de beslissingen die ze nemen, al dan niet moreel, erin geprogrammeerd