• No results found

Functie

Sector

Sociale_Robots

Zou u uzelf even kort kunnen voorstellen?

Ik ben 70 jaar oud. Ik ben momenteel bezig met het programmeren van de robot Zora. Dat is een robot die gebruikt wordt in de verzorgingstehuizen. En het wordt vooral gebruikt om ouderen te kunnen bewegen en te motiveren om uit hun stoel te komen.

En doet u dat voor een bepaald bedrijf of organisatie?

Nee, ik werk vrijwillig bij een verzorgingscentra en een verzorgingstehuis als vrijwilligster. Ik ben van oorsprong IT’er geweest, jaren geleden dus. En ik heb iets met robots. Ik vind ze leuk en ik vind ze praktisch.

Ethiek Oké. En op welke manier komt u dan in aanraking met ethische zaken?

Waarmee ik daar in aanraking kom, is natuurlijk hoe gaan we om met, als kijk deze robot is natuurlijk alleen maar amusement en voor de rest ook vooral om mensen te kunnen bewegen, zowel hun lijf als hun geheugen. Maar je hebt natuurlijk talloze robots die al werken. Neem bijvoorbeeld, … laat ik er even ééntje bedenken die met persoonsgegevens te maken hebben en dat is die van Google. Dat is zo’n robot die zit dan in zo’n dingetje en daarmee kun je mensen bellen, je kunt afspraken neerzetten enzovoort. Maar al die gegevens staan natuurlijk wel op Google. Je kunt ze bekijken, je kunt ze verwijderen, maar Google is gewoon een bedrijf, dus je weet nooit wat dat ze doen met die gegevens. Op zo’n manier dit soort dingen, zoals wat Google heeft ‘Google Home’. Die zijn toch voor ouderen best belangrijk, omdat het een manier is om ze te helpen herinneren aan dingen, omdat ze daarmee ook kunnen bellen naar mensen heel makkelijk qua stem. Dus mensen met handen die niet goed werken, dus niet zo goed met computers om kunnen gaan, kunnen op deze manier communiceren. Maar je zit dan wel met de gegevens, omdat de gegevens ergens worden vastgehouden. Dus de vraag is dan ook wat doen anderen met die gegevens. Dus dat is een kwestie voor mij van ethiek, want hoe gaan we daarmee om. Snap je wat ik bedoel?

Ja, ja zeker. Ja, heel duidelijk.

Oké. Is dat een beetje het antwoord op jouw vraag?

Voorbeelden Jazeker. Nu kunt u enkele voorbeelden geven van sociale robots? Eventueel waar u zelf nu mee werkt of mee hebt gewerkt vroeger.

Nou, zo’n Google Home is natuurlijk wel een heel goed voorbeeld. Wat al heel veel verkocht wordt en wat als ik ouderen vertel over wat kun je nou doen om je huis en de communicatie vanaf je huis zo gemakkelijk mogelijk te houden, dan heb je het natuurlijk over Google Home of je hebt het natuurlijk over de deurbellen, zoals ‘Ding’ ofzo. Ik weet niet hoe die heet, maar je begrijpt wat dat ik bedoel?

Ja.

Die deurbellen waar ook foto’s op komen en die je aan kan zetten, zodat die de hele straat over kan zien. Mag dat dan wel? Ja of nee? Allemaal dat soort dingen.

Vervanging_Zorgverleners Oké, super. Nu gaan we over naar de eerste deelvraag eigenlijk over in de ouderenzorg, de sociale robots in de ouderenzorg. Denkt u dat zorgverleners mogen vervangen worden in de ouderenzorg door sociale robots?

Ik vind van niet natuurlijk. Kijk robots in de zorg zijn alleen maar een hulpmiddel voor ouderen en voor verzorgers, maar het is niet een vervanging.

Vervanging_Voordelen Vervanging_Rollen

Oké. Nu ziet u wel voordelen als het zou gebeuren dat zorgverleners vervangen worden?

Jazeker, één van de voordelen is … ken je de Obi?

Ja, daar heb ik al eens iets over gelezen.

Ja, de Obi is eigenlijk een soort etensbak met daarin een soort robotarm en die zorgt ervoor dat mensen die dus niet meer goed kunnen eten met hun handen en hun armen bijvoorbeeld, want het kan ingesteld worden door de verzorger, dat die robotarm het eten schept en naar de mond brengt van degene die ervoor zit. Dus je hoeft als verzorgster niet meer de mensen hapje voor hapje te voeren, maar die mensen kunnen zelf, want die robotarm die gaat op een gegeven moment met die lepel naar een bepaalde plek. Dus ze kunnen zelf hun hoofd naar voren zetten en een hap nemen op het moment dat hun eigen eten al doorgeslikt is, zodat ze klaar zijn. Ze kunnen dat op een hele rustige manier doen, dat vind ik één van de mooiste dingen die ik gezien heb in de verzorging.

Vervanging_Nadelen Oké, prima. Nu welke nadelen, ja omdat u zegt dat zorgverleners niet mogen vervangen worden. Welke nadelen ziet u daarbij als die vervangen zouden worden door sociale robots?

Dat er niet menselijk communicatie is. Mensen krijgen huidhonger, zo noem ik dat, als ze niet meer aangeraakt worden door anderen of door verzorgers. Heel belangrijk eventjes een aaitje over een hand of een schouderklopje of kijk het woord “Hoe gaat het met u?” kan een robot ook zeggen, maar een schouderklopje geven of even een aaitje over een hand dat kan een robot niet. En dat is heel belangrijk voor mensen.

Vervanging_Druk Ja, oké. En denkt u dat naarmate dat sociale robots meer genormaliseerd gaan worden in de maatschappij, dat de druk zal toenemen om zorgverleners te vervangen door sociale robots?

Nee, dat geloof ik niet. Ik geloof echt dat sociale robots hulpmiddelen kunnen zijn, bijvoorbeeld om mensen uit bed te tillen en er weer in te leggen. Maar dan is het wel degene de verzorger die hem effe aankleedt ofzo. Snap je wat ik bedoel?

Ja.

Dus het blijft echt hulpmiddelen voor mij. En ik geloof niet, ik heb nog nooit ergens gemerkt waar ik dan als vrijwilliger in verzorgingstehuizen kom, dat mensen enthousiast zijn en zeggen “Nou, hoef ik niks meer te doen, alleen maar achter de computer de administratie”, integendeel verzorgen van mensen zijn

verzorgend personeel, dat zag je vooral in het verleden in landen als Joegoslavië of Hongarije, dat baby’s dus gewoon doodgaan. En dat geldt ook voor oudere mensen. Mensen moeten aangeraakt worden. Er moet een sprankeling zijn van “Hallo, ik ben er voor jou”.

Waardevolle_Interactie Oké, dat is duidelijk. En denkt u dat sociale robots wel waardevolle interactie kunnen leveren aan ouderen in de ouderenzorg?

Jazeker, ouderen worden zelfstandiger als ze tegen een apparaat kunnen zeggen van “Wil jij mijn zoon even bellen?” en het apparaat doet het gelijk, omdat de oudere bijvoorbeeld wat ik al zei, niet goed met de handen aan de knopjes kan. Zelfs een spraakmogelijkheid dan is dat al een stukje zelfstandigheid en voor ouderen is het wel belangrijk. Hoe de verzorging ook lief is, er moet een stukje zelfstandigheid zijn. Nou, verder kunnen robots, zo’n robot waar ik dan mee bezig ben, Zora, die kan dan ouderen motiveren om uit de stoel te komen. Het is ook heel belangrijk voor ouderen dat ze in beweging blijven, al doen ze maar twee stapjes, al tillen ze maar twee keer hun handen omhoog, dat soort dingen. Dus daar zijn robots heel geschikt voor.

Waardevolle_Interactie_ Definitie

Oké. U zegt dat waardevolle interactie kan, maar wat verstaat u precies onder waardevolle interactie? Wanneer is voor u een interactie waardevol dat een sociaal robot zou kunnen leveren?

Vind ik een beetje een moeilijke vraag. Moet ik even over nadenken. Omdat ik het gevoel heb dat ik het al gezegd heb, daarom vind ik het een moeilijke vraag.

Ah ja, oké. Dus eigenlijk vooral dat ze dan mensen motiveren en zelfstandigheid toebrengen?

Ja, precies en dat mensen zelfstandig blijven.

Morele_Competenties Oké, dat is duidelijk dan. Nu, zouden sociale robots morele competenties moeten of kunnen bezitten? Dus normen en waarden, morele beslissingen nemen, enzovoort.

Nee, dat vind ik dus niet. Ik vind dat robots, dus geen beslissingen mogen nemen. Ik denk ook dat dat nooit zal gebeuren. Ik denk ook dat dat niet … Ik zit in die robot wereld en ik zie van die prachtige videootjes op YouTube over robots die dan van alles kunnen doen en dan denk ik “Ja, dat is mooi hoor, maar daar zit altijd een mannetje achter”, net als ik met Zora. Zora is helemaal leeg en een mannetje of een vrouwtje die zorgen dat zo’n robot dat soort dingen doet. En we hebben nog steeds geen robots die dus uit zichzelf dingen kan doen of kan leren. De universiteit hier in Amsterdam die heeft een project met een Pepper en ik ga dus ieder jaar naar de wetenschap dag, even kijken hoe ze het doen met Pepper. En ik ben nu al vijf jaar geweest en ze proberen met Pepper om te leren. Ze laten een bal zien, duizend keer, om te leren dat een bal, een bal is. En als ze dan een demonstratie geven na die vijf jaar, dan is het nog steeds dat de ene keer zegt die robot “Oh bal” zodra die hem ziet en is het goed, maar de volgende keer krijgt die hem in die demonstratie nog een keer voor z’n neus en dan zegt die “fles”. Dus hoe hard ze ook hun best doen om een robot iets te leren, dat proces is zo ingewikkeld en zo moeilijk. Nou, daar moet misschien nog honderd jaar overheen of zoiets dergelijks of als het al lukt. En ik denk dat mensen dan zelfbewust zijn dat een robot dus nooit vanuit zichzelf zelfstandig mag zijn. Dat er altijd iemand is die de beslissingen neemt, dit kan, dat kan de robot doen en verder niet.

Nou, er was een tijdje, ik denk drie jaar geleden, toen ik begon met robots toen was het heel in en toen waren mensen ook enthousiast en toen ging het down. Ik zit dus ook binnen presentaties met robots in verzorgingstehuizen of andere instellingen en daar kregen we geen respons meer van, want ze zagen toch misschien het nut er niet van in. En ineens nu met die Corona crisis komen er allerlei oplossingen, waar robots mee te maken hebben. Huisartsen die ineens gaan Zoom gebruiken met hun patiënten thuis. Dat is een robot ding, want ze doen het ook via … enzo. Een robot is dus niet alleen maar zo’n mannetje dat dingen doet, maar dit soort dingen heeft allemaal met technologie te maken en dat kun je allemaal schuiven over een robot. Nou, zo zie je allerlei initiatieven ontstaan, waar robots in gebruikt worden.

Oké. Dus het heeft wel degelijk een impact op hoe mensen interactie gaan voeren.

Ja, momenteel is er een grote opleving weer hier, dat er toch allerlei dingen weer verschijnen, waarvan ik denk “oké, het leeft weer”. Omdat we moeten blijven communiceren, maar nu op afstand en robots zijn uitermate geschikt om op te kunnen communiceren op afstand op welke manier dan ook.

Oké. Op welke manier is dat dan positief en op welke manier is dat dan negatief, die invloed van sociale robots op die interactie?

De positief is dat mensen in contact blijven, zelfstandig blijven, omdat ze allerlei dingen via robots gebracht kunnen worden. Dat wordt natuurlijk nog niet op straat gedaan, maar wel binnen verzorgingstehuizen. Robots die bladen met eten uitdelen, waar de mens gewoon het eten er af kan pakken. Dus dat dat veilig is, dat soort dingen. Dus dat vind ik heel waardevol. Ik zie niet het negatieve, ik zie alleen maar het positieve.

Aansprakelijkheid Verantwoordelijkheid

Oké, super. Nu wetgeving bij sociale robots is nog heel beperkt of quasi onbestaande. Kan een sociale robot aansprakelijk gesteld worden als er bijvoorbeeld iets gebeurt? Dus bijvoorbeeld hij stelt de arts een medicijn voor, de arts gaat dan dat medicijn gaan voorschrijven aan de patiënt en daardoor lijdt de patiënt eigenlijk schade. Kan men dan de robot aansprakelijk stellen, omdat het eigenlijk op raad van de robot zelf was.

Nee, omdat in mijn ethiek moet de robot niet het medicijn voorschrijven. De arts schrijft het medicijn voor en de robot die zorgt dat het medicijn daar komt en de programmeurs zorgen ervoor dat de robot dat precies uit dat vakje haalt, waar dat medicijn door iemand is ingelegd. Dat is het proces. Dus de vraag is: wie is er dan verantwoordelijk? De arts die misschien de verkeerde medicijn heeft voorgeschreven of degene die medicijnen in vakjes legt, waar de robot het uit moet halen. Daar moet je dan naar kijken in zo’n geval, maar de robot dus absoluut niet.

En stel dat de robot toch een verkeerde handeling doet die zorgt dat er schade is. Wie is dan verantwoordelijk? Wie kan er dan aansprakelijk gesteld worden? Bijvoorbeeld de fabrikant of de eigenaar of de uitvinder?

Ik ken hem en ik programmeer natuurlijk mijn robots zo, dat ik zorg in welke oefeningen hij ook doet eigenlijk van handen omhoog, handen opzij, noem maar op, dat die dus nooit met die handen iemand zal aanraken. Tenzij die vraagt, want dat laat ik dan wel doen, “wil je mij een handje geven”, maar dan zorg ik er wel voor dat die zijn hand niet zo hard knijpt dat degene z’n hand helemaal stuk is. Snap je?

Ja.

Dus het is de programmeur die in dit soort gevallen verantwoordelijk is.

Vergelijking_Bedrijf Oké. Nu, verscheidene auteurs gaan sociale robots gaan vergelijken met bijvoorbeeld bedrijven op vlak van aansprakelijkheid. Kan u dat begrijpen of gaat u daar mee akkoord, dat sociale robots als bedrijven kunnen gezien worden en aansprakelijk kunnen gesteld worden op die manier?

Nee.

Niet als bedrijven? Waarom niet?

Nee, absoluut niet, omdat de robot in mijn ethiek nooit verantwoordelijk is. Omdat er mensen achter zitten die zorgen dat die robot bepaalde dingen doen. Een robot is nooit aansprakelijk, het zijn de mensen eromheen.

Vergelijking_Minderjarige Dus dan gaat u waarschijnlijk ook niet akkoord met de vergelijking met minderjarigen of met dieren? Sommige auteurs gaan ook sociale robots gaan vergelijken met minderjarigen op vlak van aansprakelijkheid. Dus dat die menselijke ouders eigenlijk verantwoordelijk zouden zijn.

Ja, maar dan zeg je nog steeds dat de robots menselijk zijn en dat zijn ze dus niet. Dus ik ben daar niet mee eens.

Vergelijking_Dier Oké. En met dieren? Vindt u dat sociale robots kunnen vergeleken worden met dieren op vlak van aansprakelijkheid?

Nee, ook niet.

Ook niet met dieren? Omdat er te grote verschillen zijn qua levend en niet levend wezen of?

Omdat de robot gewoon leeg is en omdat degene die de robot programmeert en degene die de robot laat gebruiken in welke vorm dan ook, die zijn aansprakelijk. Dus als een bedrijf een robot uitzendt, is het bedrijf aansprakelijk. Als een arts een robot gebruikt, is de arts aansprakelijk. Hij doet dit natuurlijk samen met de programmeur. Dus de arts moet dan gaan kijken of het bedrijf moet dan gaan kijken, ben ik als bedrijf aansprakelijk of is mijn programmeur aansprakelijk, maar dat is een andere zaak.

Rechtspersoonlijkheid Oké, prima. Nu, vindt u dat sociale robots rechtspersoonlijkheid zouden mogen bezitten of moeten bezitten?

Nee, dat hebben ze dus niet. Nee, dat vind ik ook niet. Ze hebben geen enkele rechten, omdat het niet menselijk is, omdat het niet dierlijk is.

Rechten_En_Plichten Oké. En zouden ze ook geen rechten of plichten moeten toegekend worden, volgens u?

Nee, omdat in al die gevallen degene die de robot gebruikt op een bepaalde manier, de rechten heeft en de verantwoordelijkheid heeft. Die geef ik rechten. Dus als een robot een contract ondertekend, dan is niet de robot die dat contract ondertekend. Nee, het is degene die de robot bestuurd, waardoor de robot dat contract ondertekend. Of het is het bedrijf dat zegt: laat die robot dat contract ondertekenen van mijn bedrijf. Dat is het bedrijf, het is de robot nooit. Het is altijd degene die iets doet met die robot.

Vertrouwen Oké, dat is duidelijk. In welke mate mogen mensen, dus in dit geval bijvoorbeeld ouderen, sociale robots gaan vertrouwen?

Dat kan tot op een zekere hoogte, natuurlijk. Als wij weten wie de robot bestuurt, als we weten wat er gebeurt. En dat moet je ouderen ook goed uitleggen. Bijvoorbeeld laten we even naar Google Home, dan komen we weer met die persoonsgegevens. Je moet natuurlijk niet alleen zeggen dat Google Home prettig is, omdat je daar zoveel dingen mee kan doen. Je afspraak bij de dokter, je zoon bellen, maar je moet natuurlijk ook vertellen dat die gegevens ergens komen en wat Google er mee zou kunnen doen. En wil je dat dan wel als ouder. Is dat duidelijk?

Vertrouwen_Risico Ja, heel duidelijk. En wat voor risico’s ziet u daarbij als ouderen te veel gaan vertrouwen op een sociale robot?

Dat hun gegevens bijvoorbeeld gebruikt kunnen worden. Dat is een voorbeeld die ik kan voorstellen, maar het is niet zo dat ouderen robots vertrouwen. Bijvoorbeeld een robot die hun laat eten of een robot die eten brengt of een robot die hun laat bewegen, uit de stoel komen, dat soort robots kunnen ze best vertrouwen, want die doet daar verder niks mee. Die brengt alleen maar het eten of die … Snap je?

Ja. Dus afhankelijk van hoe hoog de risico’s kunnen zijn dan en privacy?

Ja, precies.

Licenties_Opleidingen Oké. En vindt u dat licenties en/ of opleidingen verplicht zouden moeten zijn voor de gebruikers van sociale robots?

Jazeker. De gebruiker moet toch goed weten hoe het zit met de robot die ze zal willen gebruiken. En het hoeft helemaal niet een ingewikkeld ding te zijn. Het kan met duidelijke uitleg, maar als mensen een deurbel bestellen, vooral voor oudere mensen vind ik dat echt een goed ding, dan moeten ze geleerd worden hoe ze met hun mobiele telefoon die deurbel kunnen bekijken. En er moet hun ook geleerd worden, waar gaan gegevens naar toe. Gebruiken ze dat alleen maar op dat kaartje met die deurbel of nemen een abonnement met een beveiligingsfirma. En wat doen die dan met mijn gegevens. Dat zijn allemaal keuzes die je aan een oudere moet uitleggen en die je ook best moet uitleggen,

Wetgeving Snap ik. Oké, perfect. Nu wanneer vindt u precies dat een wetgeving noodzakelijk of wenselijk wordt voor sociale robots? Dus een wet die eigenlijk die sociale robots gaat gaan regelen.

Nou, ik vind een wet heel belangrijk en dan heb ik het vooral over die