• No results found

Interview 6, Matthijs Smakman

Functie

Sector

Sociale_Robots Ethiek

Zou u uzelf kort even kunnen voorstellen? Dus wat u doet in uw professioneel leven en voor welk bedrijf of organisatie u werkt enzo.

Ja, mijn naam is Matthijs Smakman. Ik ben een hogeschooldocent aan de Hogeschool van Utrecht, waar ik coördinator ben van de minor “social robotics”. Ik werk bij het instituut voor ICT, informatie en

communicatietechnologie. Dat de ik drie dagen in de week en twee dagen in de week ben ik promovendus aan de Vrije Universiteit van Amsterdam. En ik onderzoek de ethische vraagstukken rondom sociale robots in het primair onderwijs.

Oké, ja dat is dan wel duidelijk dat u in aanraking komt met sociale robots en dan dus ook echt met die ethische zaken?

Ja, binnen mijn promotieonderzoek echt, ben ik helemaal bezig met de ethische zaken rond sociale robots.

Voorbeelden En kan u enkele voorbeelden geven van sociale robots specifiek waarmee dat u zelf misschien in aanraking bent gekomen?

Ja, dat zijn met name onderwijsrobots dus robots die bijvoorbeeld helpen bij het leren van een tweede taal of bij rekenoefeningen, maar ook robots hebben wij gemaakt voor het Wilhelmina kinderziekenhuis in Utrecht. En daar hebben we met name gekeken naar robots die kinderen stimuleren om meer te bewegen en die kinderen gewoon even zich niet ziek laten voelen.

Vervanging_Zorgverleners Vervanging_Rollen

Oké, de eerste deelvraag gaat rond ouderenzorg. Denkt u dat

zorgverleners bij ouderen vervangen zouden mogen worden door sociale robots?

Dat is gelijk een complexe vraag. Mag je zorgverleners vervangen door robots? Ik denk dat specifieke taken, dat robots specifieke taken robots wel kunnen overnemen. Zoals van die standaardvragen zoals “heeft u uw medicijnen ingenomen vandaag?”, dat wordt nu gevraagd door een

zorgmedewerker. Dat kan een robot prima vragen. Zodat een zorgmedewerker zich meer kan richten op de echte menselijke contacten en de kwaliteit van het menselijk contact.

Vervanging_Voordelen Vervanging_Nadelen

En ziet u enkel voordelen of nadelen aan die vervanging?

Specifiek van vervangen van mensen in de zorg?

Ja, inderdaad.

Nou ja, ik zie als nadeel op dit moment dat veel robots gewoon technisch nog gelimiteerd zijn, dus bijvoorbeeld die spraakherkenning is vaak nog niet optimaal, waardoor dingen verkeerd geïnterpreteerd worden. Ook kan het natuurlijk gezien worden als soort van bezuinigingsmaatregel, dus in plaats van zorgmedewerkers in te zetten, zetten we robots in, daarmee besparen we kosten. Dat is een risico. De voordelen zijn er uiteraard ook. De ouderen die

Vervanging_Druk Oké, super. Nu, denkt u dat de druk om zorgverleners te vervangen bij ouderen zal toenemen naarmate dat sociale meer geaccepteerd geraken in de maatschappij?

De druk vanuit wie?

De druk vanuit de maatschappij of vanuit de politiek. Dus bijvoorbeeld door politieke overwegingen dat ze zeggen van..

Ja, ik verwacht dat naarmate sociale robots beter worden, maar ook meer geaccepteerd worden door mensen, dus meer “common” worden in die sociale domeinen, dat dan de druk om dat in te voeren ook groter wordt. Net zoals de druk van computerinvoering steeds groter is geworden of de druk om een mobiele telefoon te gebruiken, naarmate het meer toepassingen krijgt, zal dat groeien.

Ethische_Gevolgen Oké en denkt u dat dat grote ethische gevolgen zal hebben voor ouderen zelf?

Nou, daar zitten wel wat haken en ogen aan, waaronder zowel positief als negatief. Dus negatief kan je denken aan misleiding. Misleid je nou ouderen door een robot in te zetten en ouderen het gevoel te geven dat dat een levende entiteit is? Aan de andere kant kunnen robots natuurlijk ook de autonomie van ouderen vergroten. Ze meer in staat stellen om meer zelf dingen te gaan doen, zelf meer dingen te gaan ondernemen, al dan niet met die robot. Kan het de” mental wellbeing” van de ouderen vergroten? Dus de ethische kwesties zijn niet alleen negatief, maar ook positief. Het kan zowel positief als negatief effect hebben op de morele waarden die wij belangrijk vinden in de zorg.

Waardevolle_Interactie Oké. Denkt u dat sociale robots waardevolle interactie kunnen hebben met senioren?

Jazeker.

Waardevolle_Interactie_

Definitie Ja? En wat verstaat u dan precies onder waardevolle interactie?

Waardevolle interactie vind ik als het de kwaliteit van leven bevordert. En dat ja, ik bekijk het puur vanuit de cliënt of de patiënt. En het hoeft niet persé te zijn dat die robot verbetert, maar die robot kan ook repetitieve taken

overnemen, waardoor de zorgmedewerkers weer meer tijd en aandacht aan het persoonlijk contact kunnen besteden. Dan vind ik het ook wel waardevol. Dus het is niet persé dat die robot waardevol hoeft te zijn, als die robot dat mogelijk maakt dan vind ik het ook al waardevol.

Morele_Competenties Morele_Comp_Welke

Oké, super. Nu, kunnen sociale robots morele competenties bezitten of zouden ze dit moeten kunnen? Bijvoorbeeld normen, morele beslissingen nemen enzo van die dingen.

zeker hoe we die nu inzetten in een specifieke rol, dus bijvoorbeeld als gezelschapsrobot of als zorgverlener robot. Daar kunnen we heel duidelijk naar kijken van oké wat zijn nou de waarden en normen die in deze rol belangrijk zijn? En ik denk dat het belangrijk is om dan naar die waarden en normen te kijken. En die ook mee te nemen in het ontwerp van de robot. Daar ging een aantal jaar geleden mijn hele masterthesis over!

Evolutie_Mens_Interactie Aaah echt? Toevallig! Nu, sociale robots kunnen die ook een invloed hebben op de evolutie van menselijke interactie? Dus hoe ze gaan praten met elkaar of interactie voeren met elkaar?

Ik denk het wel, ik daar geen verder onderzoek naar gedaan. Ik weet wel vanuit mijn eigen onderzoek naar hoe bijvoorbeeld ouders en docenten denken over robots in het onderwijs, dat die wel zeggen dat ze bijvoorbeeld bang zijn of zich zorgen maken over dat kinderen robotachtig gedrag gaan vertonen, naarmate ze meer met robot gaan interacteren. Maar als je het gaat vergelijken met andere technologieën, dus de manier waarop wij met onze laptop

communiceren of met onze telefoon communiceren met mensen, die nieuwe technologieën veranderen ook hoe met elkaar communiceren. Als mens onderling, als wij aan tafel wat gaan eten en er liggen twee telefoons op tafel, dan verandert dat ook de manier van interactie. Dus ik denk dat robots dat ook zullen.

Oké en denkt u dat die evolutie positief zal zijn of juist negatief? Of zal het zowel positief als negatief zijn?

Ik denk dat het beide kanten op kan gaan. Zoals ik net zei kan het een negatief gevolg hebben wanneer mensen mogelijk meer robotachtig gedrag gaan vertonen of minder goed zijn om emoties te herkennen of dat soort dingen. Ik ben daar zelf niet zo bang voor. Ik zie eerder ook positieve kanten, dat gaat niet zozeer om de zorg, maar als ik in het onderwijs kijk is er relatief vrij veel onderzoek naar kinderen met autisme en je ziet daar dat robots een positieve bijdrage kunnen leveren aan hoe die kinderen sociaal contact leggen met andere kinderen. Dus door eerst te oefenen met een robot en door de neutrale eigenlijk uiterlijk van de robot, dat kinderen zich beter in staat voelen om contact te leggen met andere kinderen.

Aansprakelijkheid Oké, super. Denkt u dat sociale robots kunnen aansprakelijk gesteld worden of zouden ze aansprakelijk moeten gesteld worden? Of kan een sociale robot nooit aansprakelijk zijn voor iets in het geval dat er schade wordt verricht door bijvoorbeeld het advies te volgen van een sociale robot?

Een sociale robot kan nooit aansprakelijk zijn voor iets.

En wie zou er dan wel aansprakelijk zijn?

Dat is een hele goeie vraag! Nou ja, dat kunnen een aantal partijen zijn afhankelijk van de rol en verantwoordelijkheden, daar is het natuurlijk aan gekoppeld. Als je aansprakelijk bent dan ben je natuurlijk

eindverantwoordelijke, maar je hebt daar eerst nog een soort van verantwoordelijk tussen zitten. Dus dat kan zowel de fabrikant zijn, als de programmeur, als de zorginstelling waar die robot wordt ingezet. Ja, ook als je in het onderwijs kijkt, is het vaak toch de leraar die de robot programmeert, dan heeft die daar ook een bepaalde rol in.

Ja, situatie gebonden en echt nog een open issue.

Vergelijking_Bedrijf Oké, super. Nu, in de literatuur spraken verscheidene auteurs over de vergelijking van sociale robots met bedrijven bijvoorbeeld. Dat sociale robots kunnen gezien worden als bedrijven als het aankomt op aansprakelijkheid? Snapt u die vergelijking?

Ik snap de vergelijking wel, het doet me een beetje denken aan de Ford Pinto casus uit de jaren 70. Ik weet niet of je die kent. In het kort komt het erop neer dat Ford in de jaren 70 de Ford Pinto op de markt bracht. Die auto ontplofte vrij snel bij kop-staart botsingen. Dat wist Ford ook en die heeft toen een rationele overweging gemaakt in overleg met het management en ingenieurs om te zeggen we kunnen de auto’s van de markt afhalen, dat kost ons volgens mij was dat 10 dollar per auto. Nou er waren er ik dacht 14 miljoen van verkocht, dus ja reken maar uit. Met die 10 dollar kunnen we die auto

verstevigen en hebben we minder explosies, minder doden, minder ongelukken. Of we kunnen niets doen en betalen schadevergoedingen uit aan mensen en dat kostte het maar de helft. Nou, ze kozen voor dat laatste, op basis van

economische gronden. En dat lekte uit en toen is Ford veroordeelt uiteindelijk voor moord of voor doodslag. Het was een van de eerste casussen waarbij een bedrijf aansprakelijk werd gesteld. Dus niet de mens, maar het bedrijf of de fabrikant. Je kan dat uiteraard doortrekken naar robots, maar dan blijft in mijn optiek de fabrikant, wat wel een gekke entiteit natuurlijk is wat is een bedrijf? Het is ook maar een fictief iets? Die zou dan verantwoordelijk zijn daarvoor, die zou verantwoordelijk zijn daarvoor en aansprakelijk. Ik zie nog niet zo voor me hoe de huidige robot dat zouden worden, tenzij dat je echt een beetje science fiction gaat praten en je hebt het over compleet autonome, zelfrijdende en zelflerende robots, dan mogelijk. Maar daar zijn we nog zo ver van weg.

Vergelijking_Minderjarige En er wordt ook soms de vergelijking gemaakt met minderjarigen op vlak aansprakelijkheid? Dit omwille van ja, dat minderjarigen ook menselijke ouders hebben en robots zouden dan ook zo gezien kunnen worden. Vindt u dat een betere vergelijking?

Ouders voeden kinderen op. Dus als je zou zeggen de robot leert van een persoon, maar je zou dat dan bewust moeten zien hé. Bewust een robot heeft gemaakt die slechte dingen doet, dan zou je de persoon daar natuurlijk aansprakelijk voor kunnen houden. Daar zie ik wel een soort parallel in. Maar dan gaat het weer om een soort van zelflerende robot op basis van welke input die de mens geeft. Dat doet me denken aan de chatbot die Microsoft op de markt bracht. Ik meen dat hij iets van Tay heette. Microsoft bracht die chatbot op de markt, een vijf jaar geleden, een zelflerende chatbot. En die hebben ze gewoon op het web gegooid en die mocht alles leren wat de mensen tegen hem zeiden. En binnen nou een paar dagen of 24 uur, was die allerlei racistische uitingen aan het doen, omdat die dat geleerd had. Ik zoek het even snel op, volgens mij heette het Tay. Even kijken, dan weet je het gelijk zeker. Ja, genaamd Tay. En die hebben ze dan ook gelijk offline gehaald in 2016 was het en is vervolgens niet meer online gekomen. In die zin zou je kunnen zeggen dat die mensen die die robot zo slecht hebben gemaakt, die chatbot slecht hebben

niet aansprakelijk, het is niet bewust gegaan. Er zat geen doel achter, tenzij het over valse.. even hardop denkend hé. Tenzij het over valse honden, maar die maken we wel af. Stel dat je een robot krijgt die compleet doorgeslagen is, omdat die bijvoorbeeld slecht getraind is, zou je die dan ook afzetten? Ja. Dus ergens zie ik daar wel een vergelijking in. Alleen dieren, als kanttekening, dieren mag je niet slaan of pijn doen, omdat het dieren zijn, omdat ze pijn voelen. Dat zie ik niet bij robots.

Oké, maar die vergelijking met dieren komt straks nog terug!

Ja ik zag hem, ik heb daar straks nog iets over te zeggen, maar dat wil ik voor daar bewaren

Beste_Vergelijking Oké, super. En als u zou moeten kiezen tussen bedrijven, minderjarigen en dieren, welke vindt u dan het meest gepast om sociale robots mee te gaan vergelijken?

Op dit moment, met de huidige staat van technologie, zou ik zeggen bedrijven.

Oké, goed.

En naarmate het meer artificiële intelligentie gaat hebben en het meer zelflerend wordt, zou ik het als kinderen mogelijk zien.

Rechtspersoonlijkheid Oké, en vindt u dat sociale robot rechtspersoonlijkheid moeten toegekend krijgen? Dus dat ze eigenlijk contracten kunnen sluiten en bijvoorbeeld goederen kunnen bezitten of rechten en plichten toegekend krijgen?

Nee.

Op geen enkel moment?

Nou, even terug. Rechten en plichten moeten toegekend worden? Dat kennen we, dat gaat om al dan niet om rechtspersoonlijkheid hé?

Ja, inderdaad.

Rechtspersoonlijkheid is natuurlijk ook een beetje een BV of een NV. Bedrijven hebben ook een rechtspersoonlijkheid, dus in die zin zou ik dat wel voor mij zien.

Oké, doordat u vindt dat ze te vergelijken zijn met bedrijven dan?

Ja. Een soort gelijk, misschien een nieuwe rechtspersoonlijkheid, maar niet richting een natuurlijk persoon.

Rechten_En_Plichten En specifiek rechten en plichten? Stel dat we zeggen, kijk ze mogen geen contracten afsluiten, maar die robots hebben wel rechten en plichten, zou dat mogen?

Stel dat we het over zorgrobots hebben, moeten robots de plicht hebben om voor iemand te zorgen, bijvoorbeeld? Als je de plicht hebt, dan zou het suggereren dat je ook anders kan doen.

Verantwoordelijkheid Oké. Nu, wie er dan precies verantwoordelijk voor de correcte, ethische werking van de robot? Dus dat die zijn plicht eigenlijk nakomt.

Ik denk dat het alle betrokken bij de directe inzet en bij het bouwen van die robot zijn die daar verantwoordelijk voor zijn. Als je het hebt over een zorginstelling, zal dat de fabrikant zijn die moet zorgen voor de correcte werking, zodat dat ding niet ontploft, om het even technisch te houden. En de zorgmedewerker of dus eigenaar voor de juiste inzet van de robot, maar de gebruiker kan ook. Ik denk niet dat je de ethische verantwoordelijke op dit moment bij een partij kan leggen.

Vertrouwen Oké, en in welke mate zouden ouderen, of gewoon mensen in het algemeen, sociale robots mogen vertrouwen? Dus de instructies die ze krijgen van de robot zomaar uitvoeren of het advies van de robot opvolgen.

Ik denk dat mensen altijd zelf na moeten blijven denken. Ik meen dat een PhD student van Tony net ook een artikel daarover heeft gepubliceerd tijdens de “Age of AI” conferentie. Over mensen die heel snel een robot vertrouwen en daar eigenlijk geheime informatie mee delen. Ik denk dat de vertrouwensband tussen een robot en een mens mooie kansen biedt. Dat zien we in het onderwijs, dat kinderen geheimpjes vertellen aan de robot, die ze anders niet aan de leraar zouden vertellen bijvoorbeeld. Dat biedt allerlei kansen dat je bijvoorbeeld kinderen die thuis een onveilige situatie hebben, terwijl ze zich vertrouwd voelen naar een robot. Dus mogen mensen robots vertrouwen? Ja, maar ja, een mens mag een robot vertrouwen. Met de kanttekening natuurlijk dat ze een soort van logisch moeten blijven nadenken. Op zich zie ik geen, heb ik geen directe bezwaren ertegen dat een mens een robot vertrouwt. Net zoals ik mijn computer vertrouw.

Vertrouwen_Risico Oké, u sprak reeds over kansen dat het zou bieden, maar ziet u ook wel mogelijke potentiële risico’s daarbij?

Ja, wie gaat die informatie zien? Wat als deze informatie gehackt wordt, dat natuurlijk ook een reëel risico is. Dus qua privacy zijn er daar enorme bezwaren tegen.

Licenties_Opleidingen Denkt u dan ook dat licenties of opleidingen verplicht zouden moeten zijn voor de gebruikers van sociale robots, zodat ze wel weten wat voor risico’s er verbonden zijn aan de robot of het beter kunnen inschatten, of hoe de robot werkt enzo?

Ik denk dat de mensen de mensen die zo’n robot inzetten, sowieso getraind moeten zijn of kennis moeten hebben van wat een robot wel of niet kan. Net zoals iemand getraind moet zijn in het gebruik van andere medische hulpmiddelen.

En stel dat een robot bij een oudere thuis, zou die oudere dan ook een opleiding moeten krijgen daarrond?

andere mee bezig in mijn PhD onderzoek om guidelines te maken voor robots in het onderwijs. En over die opleidingen nog heel even, zou zo’n oudere zelf een opleiding moeten krijgen thuis, de robot kan natuurlijk zelf die opleiding verzorgen mogelijk.

Bescherming Oké, dat is duidelijk. Nu, het laatste deel gaat over de vergelijking met dieren. Moet er een wetgeving komen die sociale robots beschermt, net zoals dieren beschermd worden?

Nee. Dieren worden vanuit de wet volgens mij beschermd omdat ze, ik ben geen jurist hé ik heb een filosofie master gedaan en als ik even terugdenk aan mijn dierethiek cursussen dan ging het daar volgens mij vooral om dat dieren in staat zijn om te lijden. En naarmate dieren meer kunnen lijden, krijgen ze meer rechten. Een aap heeft heel veel soorten stress en kan echt psychische pijn hebben, waar een mier, volgens het onderzoek dan, het niet heeft. Dus we vinden het niet erg om een mier op te offeren, maar wel een aap. Of een rat versus een koe of weet ik wat. Ik weet niet of dat helemaal opgaat maar ja. Kan een robot lijden? De huidige robot niet. Als we het gewoon hebben over zo’n NAO robot of een Pepper robot, dan vind ik zo’n gelijkenis niet opgaan. Maar ik weet niet of dat later nog komt. Een enige morele overweging die je zou kunnen hebben, is een Kantiaanse overweging. En ik weet niet of je daar bekend mee bent, maar dat je zegt omdat we robots kunnen mishandelen, heeft dat een uitwerking op ons eigen menszijn en daarom zouden we het niet moeten doen. En dat zou je kunnen zeggen oké robots moeten in de wetgeving

beschermd worden, maar eigenlijk voor ons eigen, voor onszelf.