• No results found

Interview 2, Michiel Joosse

Functie

Sector

Sociale_Robots

Eerst en vooral, zou u uzelf eerst kort kunnen voorstellen? Dus wat dat u doet van functie in uw professioneel leven en voor welke organisatie enzo?

Ja. Ik ben Michiel Joosse en ik ben business analist bij het Nederlands Openbaar Ministerie voor een specifiek voor een wet over verplichte zorg. Maar wat ik te maken heb met sociale robots is dat ik hiervoor eerst informatiekunde gestudeerd en vervolgens onderzoek gedaan naar mens en robot interacties. Ik ben erop gepromoveerd op m’n proefschrift over sociale robots en specifiek over robots in een publieke ruimte, dus op het vliegveld. Dus dat is wat ik nu doe en met sociale robots te maken heb.

Ethiek Oké en komt u op een bepaalde manier in aanraking met ethische zaken nu nog? Of vroeger?

Nou, daar heb ik over nagedacht. Ik zit natuurlijk in mijn huidige werk heb ik ook wel te maken met rechtsgelijkheid en rechtsongelijkheid, dus dat is op zich wel ja ethisch tot op zekere hoogte, ja.

Voorbeelden Oké, super. En kent u enkele specifieke voorbeelden van sociale robots, zoals bijvoorbeeld Pepper of andere waarmee u in contact bent gekomen of gewoon weet?

Ja, met de NAO en Pepper heb ik gewerkt. Euhm, aibo en PARO ook natuurlijk. Dus die vier, dat zijn denk ik wel de robots die je het meeste ziet. Verder wat ik zag in mijn werk is dat er heel veel laboratoria zelf robots bouwen. En die zijn dan zo’n ontworpen dat ze echt geschikt zijn voor de taak die ze moeten doen en in mijn geval was dit ook zo. Dus voor het project waar ik op heb gewerkt, dat heette Spencer, dat was een aparte gidsrobot voor gebouwd die echt 1 meter 92 hoog was en groot en ja. Dus dat zijn wel de belangrijkste robots.

Vervanging_Zorgverleners Oké. Dan gaan we over naar de eerste deelvraag, namelijk over

ouderenzorg. Zouden volgens u dan zorgverleners bij ouderen vervangen mogen worden door sociale robots?

Nee, ze mogen niet vervangen worden. Ik denk wel dat sociale robots ze kunnen complementeren. Dus dat sociale robots bepaalde deeltaken over kunnen nemen. En het utopische beeld dat ik misschien heb, en misschien andere onderzoekers ook, is dat ze zeggen “nou als we genoeg robots bouwen en die goed genoeg maken, dan hebben we de ouderen verzorgers ook tijd voor ander werk”. Dus dan zouden ze een praatje kunnen maken ofzo. Dan worden ze ontlast in hun werkzaamheden. Dus ik denk dat dat voor mij, als ik naar ouderenzorg kijk en robots, dat sociale robots vooral kunnen ontlasten en taken over kunnen nemen. Misschien niet persé de taken waar mensen slechter in zijn, maar gewoon taken die sociale robots over kunnen nemen, zodat mensen de taken kunnen doen die robots niet kunnen doen.

En is dit vooral uit ethisch standpunt dat je denkt dat dat niet goed is om een oudere achter te laten met een sociale robot? Vooral daarom?

om en we gaan daar lekker heen en dan komt het goed. En het kan praktisch niet, want ik denk niet dat bijvoorbeeld steunkousen dat een robot die kan aantrekken. Dat lijkt me nog best lastig. Tegelijkertijd, denk ik wel dat we ook wel die sociale robots in kunnen zetten bij die ouderen, om een deel van het sociale contact over te kunnen nemen. Dus dat is een beetje tegenstrijdig. Dat vind ik een beetje paradoxaal, want we proberen dus wel ervoor te zorgen dat robots sociaal kunnen zijn, kunnen praten met mensen, maar dan, er zit ergens een soort van grens. Ja.

Vervanging_Voordelen Vervanging_Nadelen

En wat zouden er dan vooral van nadelen zijn als men sociale robots bij ouderen inzet?

Ik denk dat het grootste nadeel is, wat ik zie, is dat robots tot nu toe redelijk toch wel beperkt zijn in wat ze zelfstandig kunnen, qua spraak en hoeveelheid betekenis die ze kunnen geven aan conversaties en gesprekken. Dus ik denk dat de capaciteit van sociale robots nog niet rijk genoeg is om alleen maar zo’n robot bij ouderen neer te zetten. Dus ik denk dat dat mijn grootste probleem zou zijn met het gedacht dat wij alleen maar sociale robots bij ouderen zouden zetten en zelf weg zouden gaan.

Vervanging_Druk Oké en denk je dat die druk om mensen te vervangen door sociale robots zal toenemen naarmate dat de robots meer door de maatschappij genormaliseerd gaan worden?

Ja, dat denk ik wel. Natuurlijk deels omdat we steeds ouder worden als samenleving en dus moeten meer mensen werken. Dus dat is zeg maar het economische, dus zeg maar het ja het bedrijfsmatige aspect waarom ik denk dat het zou kunnen. Tegelijktijd denk ik ook dat de technologie, die gaat natuurlijk voort, dus we kunnen die robots steeds beter maken om mensen steeds beter het idee te geven dat zo’n robot echt luistert. En ook om betekenisvolle gesprekken te hebben en hopelijk ook op een gegeven moment om te kunnen zeggen dat euhm kijk robot tot hier kan ik een gesprek hebben en vanaf nu gaan we te ver, te diep, en vanaf nu moet je met iemand anders een gesprek hebben. Euhm ja, dus het gaat zeker. Er komen ook steeds meer robots op gewoon in de ouderenzorg en de kunst is dus om hun in te zetten daar waar we het ethisch verantwoord vinden en dat ja.. Maar waar die lijn exact zit dat moeten we natuurlijk uitzoeken met z’n allen.

Vervanging_Rollen Ethische_Gevolgen

En zijn er bepaalde rollen in de ouderenzorg waarbij je zoiets hebt van die gaan wegvallen en zijn dus makkelijk te vervangen door sociale robots?

Ik denk het oppervlakkige gesprek, dat zullen sociale robots wel kunnen doen. Dus bijvoorbeeld vragen “heeft u lekker geslapen?” of “wat vind je van het weer?”. Ja dat soort dingen, eenvoudige dingen. Misschien ook wel, dat wordt ook regelmatig gezegd, dat een robot je agenda zou kunnen bijhouden. Dat die dat via door te praten zou kunnen doen. Misschien dat soort taken, dus dat zijn meer onthoudtaakjes ga ik ze even noemen. Ik denk dat dat soort dingen, dat dat wel gaat lukken en heel misschien dat je ook, aan een stuk technologie bijvoorbeeld aan een sociale robot, maar stel dat je robottechnologie krijgt dat

Waardevolle_Interactie Oké, super. Denkt u dat sociale robots echt waardevolle interactie kunnen voeren met senioren? Denkt u dat dat kan?

Ik denk persoonlijk van niet, maar ik kom daar ook soms af en toe op terug. Want het kan best zijn dat mensen dat helemaal niet nodig hebben en dat je bijvoorbeeld kijkt naar huisdieren, ja ik weet niet of ik interactie met een kat echt heel sociaal of waardevol zou vinden. Maar ouderen bijvoorbeeld wel, dus het kan best zijn dat het heel persoonlijk is wat je nodig hebt en dat daarom, of in dat geval, zo’n robot juist voldoende biedt voor ouderen.

Waardevolle_Interactie_

Definitie En wat verstaat u precies onder waardevolle interactie? Wanneer is voor u precies een interactie waardevol?

Ik vind het waardevol als ik interactie heb met mensen en dat ze standpunten kunnen geven die ik nog niet wist of dat we een diep gesprek kunnen hebben over bijvoorbeeld politiek of actualiteit of het nieuws. En ik denk dat robots dat niet kunnen, dus daarom denk ik dat dat niet mogelijk is. Maar misschien over 10 jaar wel, je weet maar nooit.

Morele_Competenties Morele_Comp_Welke

Ja, inderdaad, wie weet! En zouden sociale robots morele competenties kunnen hebben? Dus normen, morele beslissingen kunnen nemen,…?

Euh, nee ik zou naar nee geneigd zijn. Ik denk wel dat sociale robots op een gegeven moment, dat we ze wel kunnen uitrusten met een bepaalde

programmatuur. Dat we ze laten zien wat voor normen wij hebben en dat ze dan ook dat gedrag laten zien, dus dat wel. Ik denk niet dat intrinsiek

intelligent zijn zijn. Ik denk dat het slimme, maar nog steeds blijven het gewoon ja stukken technologie in computers. Dus nee ik denk het eigenlijk niet nee.

Evolutie_Mens_Interactie Oké. En welke impact denk je dat sociale robots zullen hebben op de evolutie van menselijke interactie? Zou dit positief of net negatief zijn? Of allebei?

Euhm. Misschien gaan we wel de echte gesprekken meer waarderen, of juist niet, als we denken dat die gesprekken zijn toch maar oppervlakkig allemaal als robots het ook kunnen. Dus ik denk dat het fifty-fifty is. Het kan zowel positief als negatief zijn. Daar kan ik nu niet over zien, nee.

Aansprakelijkheid Oké. Dan komen we nu aan tot het deel over wetgeving en ethiek bij sociale robots. Denk je dat een sociale robot aansprakelijk kan gesteld worden, bijvoorbeeld in een situatie waarbij de robot een bepaald medicijn voorstelt aan de arts om voor te schrijven voor een patiënt, maar die patiënt sterft hierdoor. Kan men dan de sociale robot aansprakelijk houden?

Nee, helemaal niet. Weet je wat het is? Ik denk dat als je iemand aansprakelijk wilt stellen, dan wil je ook dat doordat je degene aansprakelijk stelt, dat dit negatieve consequenties voor diegene kan hebben als hij de regels overtreden heeft, dus zowel de geschreven, de ongeschreven regels, dat maakt allemaal niet uit. En dat lijkt mij juist voor een robot niet mogelijk, want kijk als je een robot een boete oplegt, dan gaat die je geen geld geven. Dus een boete opleggen, is ook een beetje… dan zou je niet die robot een boete gaan opleggen. En ik zie nou ook niet dat we die robot in een gevangenis gaan zetten, want zo’n robot heeft geen gevoelens, dus wat maakt het uit dat je zo’n robot op gaat sluiten. Dus daarom denk ik dat het niet nuttig is om een robot

combinatie eigenaar en fabrikant moet het zijn. Dat de … moet gevonden worden, ja.

Oké, dus de eigenaar en de fabrikant, dat is al direct het antwoord op de volgende vraag!

Oh ja. Nou eigenaar alleen maar als die.. Het is in eerste instantie de eigenaar, maar het is aan de fabrikant om te zorgen dan dat die eigenaar die robot enkel gebruikt in de context/plek/situatie, waarvoor die robot ontwikkeld is. Want als je als fabrikant software maakt om een robot in een verzorgingstehuis te zetten, dat kan natuurlijk. Vervolgens pak je die robot op en zet je die bij iemand die bijvoorbeeld thuis woont, maar al wat ouder is, dan kan het best zijn dat die robot zich euh, onfatsoenlijk gedraagt of verkeerde dingen gaat doen. Dus dat ja. Ik zou die verantwoordelijkheid niet enkel leggen bij de fabrikant, dat vind ik te makkelijk en ik vind ook dat dat innovatie tegengaat. Natuurlijk, in Europa hebben wij niet zo’n klimaat als in de Verenigde Staten, waar je heel snel naar de rechter stapt en je mensen aan gaat klagen voor schadevergoedingen. Maar ik ben wel bang als dat gaat gebeuren, dat de technologen en programmeurs veel minder snel features zullen inbouwen in robots en dat veel meer in de laboratoria zullen houden. Dus ik hoop, ik ben natuurlijk geen wetgever, maar dat het ook de eigenaar, dat die ook een deel van die verantwoordelijkheid gaat dragen.

Vergelijking_Bedrijf Oké, perfect. Nu kunnen sociale robots vergeleken worden met verschillende zaken. Een daarvan is met bedrijven, want die kunnen natuurlijk wel aansprakelijk gesteld worden, zonder dat ze echte mensen zijn. Wat denkt u van deze vergelijking?

Ja, ik denk dat je dan de sociale robot als product van het bedrijf moet zien. En dat het in zo’n verre vergelijkbaar is dat je eigenlijk nou ook weer, net zoals het vorige, dan dus de fabrikant of de eigenaar van het product, dus de robot, daar aansprakelijk kan stellen. Dus ik denk dat het niet de robot is dat je aansprakelijk kan stellen, maar meer de persoon die daar achter zit opnieuw eigenlijk.

Vergelijking_Minderjarige Oké. En op welke manier zijn sociale robots vergelijkbaar met minderjarigen op vlak van aansprakelijkheid, volgens u?

Die zijn deels wel vergelijkbaar. Ik denk dat allebei, de minderjarige is een mens die niet alle regels kent en daardoor niet 100% aansprakelijk kan stellen voor dingen die dat kind verkeerd doet. Voor een robot geldt hetzelfde. De perfecte robot bestaat niet, dus die zal altijd zijn beperkingen hebben of daarover heen gaan. Ik vind het heel moeilijk om dan iemand aansprakelijk te stellen, wie is dan de mama of papa van de robot? Dat is dan even een lastige.

Dus de menselijke ouders van de robot dan?

denk dat qua vorm, maar ook qua vorm van aansprakelijkheid dat die parallel veel beter te trekken is. Ja, dat vind ik de beste parallel van de drie.

Rechtspersoonlijkheid Oké en denk je dat sociale robots rechtspersoonlijkheid zouden mogen of moeten bezitten? Dus dat betekent dat ze contracten kunnen sluiten, contracten kunnen sluiten, rechten en plichten hebben, enzo.

Nee, zeker niet.

En waarom precies niet?

Omdat het een intelligent ding is en geen levend wezen. Net zoals dieren, maar die hebben wel rechten, maar die kunnen geen contracten afsluiten, want we kunnen niet met ze praten. Dus daarom niet nee.

Rechten_En_Plichten En zouden ze dan rechten en plichten mogen hebben? Net zoals dieren rechten en plichten hebben, zouden sociale robots dit ook mogen hebben?

Jah…van mij mag het. Het mag wel van mij, maar het hoeft niet persé. Ik heb een film gezien dat mensen in Japan een robot in elkaar wordt geslagen door mensen. Dat vind ik heel vervelend, als techneut. Maar als mens denk ik, ja, het is een heel duur aparaat, maar het heeft geen gevoelens of dergelijks. Dus dat hoeft van mij niet persé. Het mag wel, maar hoeft niet.

Verantwoordelijkheid Oké, prima. Nu, de ethische werking is natuurlijk belangrijk, maar wie is dan volgens jouw verantwoordelijk voor de ethische correcte werking van dergelijke robots? Want enerzijds is er wel het bouwen van de robot, maar anderzijds is er ook wel het effectief functioneren van de robot zelf.

Ik denk dat de eigenaar van de robot of de gebruiker, dat die verantwoordelijk is om de robot op de juist plek of manier in te zetten. En dat als die kan aantonen dat die dat heeft gedaan en de robot doet het nog steeds niet goed, dan is de fabrikant verantwoordelijk.

Vertrouwen Oké, goed. En in welke maten zouden mensen, in dit geval ouderen, sociale robots mogen vertrouwen?

Ik denk dat ze dat heel snel zelf gaan doen. En van mij, mogen ze de robots vertrouwen zoveel als ze willen. Maar ik zou niet willen en dat is nou misschien iets waar we regels voor moeten hebben, maar ik zou geen robots willen hebben die autonome contracten gaan afsluiten voor die ouderen of die ouderen gaan overtuigen van je moet persé iets gaan kopen of doen. Als ze zeggen “je moet je medicijnen inslikken, want dat is goed voor je”, prima. Maar bijvoorbeeld als ze zeggen “ja je moet online een nieuwe televisie bestellen, want daar word je gelukkig van”, dat lijkt me niet verstandig.

Vertrouwen_Risico Oké super. En ziet u daarbij enkele risico’s dan? En welke risico’s dan precies?

Ja, ik zie het risico dat ze, voor mij, onmenselijk gedrag gaan vertonen. Dus dat mensen financieel, financiële keuzes gaan maken op basis van de aanbevelingen van een stuk technologie. Dat lijkt me niet wenselijk. En natuurlijk doen we dat ook met webshops, want die bieden ook allemaal producten aan die we zouden kunnen kopen nu. Maar dat is ja, dan moet je mensen hebben die weten dat ze dat niet doen, dus dat ze beter weten en dat ze

Licenties_Opleidingen Oké en u zegt nu ouderen beschermen. Denkt u dan dat licenties of opleidingen verplicht zouden moeten worden voor ouderen? Of voor andere gebruikers van sociale robots in het algemeen?

Nou ja, het zou wel goed zijn als je een bepaald assessment maakt, dat men zegt van nou ja je bent nog helder genoeg. Ik kan me voorstellen als je helemaal dement bent en zo’n robot neerzet, dat je dan ook verwacht dat die robot zich anders gedraagt of zich anders opstelt. Dus in zo’n verre, zou ik denk ik wel pleiten voor sociale robots die zich aan normen houdt, maar zich ook aan de persoon aanpast. Dus ja een heel persoonlijk afgestemd

gedragsrepertoire eigenlijk. Dat lijkt me dan het meest wenselijke, ja.

Wetgeving Oké, dat is duidelijk. Nu, wanneer vindt u dat een wetgeving voor sociale robots wenselijk of noodzakelijk begint te worden?

Ik denk dat dat wel, nou ja, we zouden er wel op zich langzaam mee kunnen gaan beginnen, om er voorzichtig een wetgeving voor te maken voor sociale robots en dat zou dan wel goed zijn dat die dan nog wat open is en niet al te streng om die innovatie dus zeker niet te beperken. Maar wel dat we duidelijke afspraken maken wie er daar dus voor verantwoordelijk is en aansprakelijk is voor het gedrag van de robot en voor de ontwikkeling ervan. Dus wie waakt erover bijvoorbeeld dat die code goed geschreven is en dat die robot niet op het internet kan en niet gehackt kan worden. Dus ik denk dat dat ja, ik zou het het liefst zien als een stuk van wetgeving voor technologie in het algemeen. Je zou er misschien ook de ouders bij kunnen betrekken, dan wordt het een enorme wetgeving natuurlijk, maar het lijkt we wel goed ja als dat binnen de 5 à 10 jaar ontwikkeld gaat worden. Want we hebben nu natuurlijk allemaal kleine studies lopen met robots, bijvoorbeeld in verzorgingshuizen, maar ja, aan welke wetgeving moet zoiets voldoen? Ook als je bijvoorbeeld onderzoek doet, heb je van die onderzoeken waar je als onderzoeker achter de robot zit en dan dingen doet, ik weet niet of je er al van gehoord hebt, dus dan regel je eigenlijk het gesprek, nou misschien moeten er daar wel regels voor komen of richtlijnen. Maar ja, dat is ook waar je als onderzoeker of als bouwer naar heen moet werken.

Bescherming Oké, super. Nu, de vergelijking met dieren hebben eigenlijk daarnet al