• No results found

Bestaande studies over aansprakelijkheid van en wetgeving voor sociale robots

2. Literatuurstudie

2.5 Onderzoek tot op heden

2.5.3 Bestaande studies over aansprakelijkheid van en wetgeving voor sociale robots

Zoals reeds werd aangehaald in sectie 2.2.5 worden sociale robots vaak ontworpen met

menselijke kenmerken. Dit zorgt ervoor dat mensen deze robots gaan behandelen als echte

mensen, wat dan weer potentieel gevolgen heeft op vlak van regulering (Eidenmüller, 2017).

HRI-experten hebben dan ook nood aan een praktische vorm van begeleiding of richtlijnen om

te kunnen omgaan met de ethische en wettelijke uitdagingen (Riek & Howard, 2014). Hierbij

worden de volgende rollen als experten beschouwd: onderzoekers, ingenieurs, academici, de

overheid, productmanagers, etc. (Riek & Howard, 2014).

Ten eerste onderzocht Subramanian in 2017 of sociale robots aansprakelijk kunnen gesteld

worden. De auteur vergeleek de aansprakelijkheid van sociale robots met dat van bedrijven

en/of knechten. Deze kunnen immers niet of slechts gedeeltelijk aansprakelijk gesteld worden

(Subramanian, 2017). Echter, Eidenmüller (2017) stelt dat robots niet kunnen vergeleken

worden met bedrijven, aangezien elk bedrijf handelt door middel van mensen die in het bestuur

zitten. Een andere vergelijking die gemaakt wordt op vlak van aansprakelijkheid, is die met

minderjarigen of dus quasi-personen, waarbij de robot menselijke ‘ouders’ heeft die geheel of

gedeeltelijk aansprakelijk zijn (Asaro, 2007). Bendel (2013) schreef in zijn onderzoek dat

robots, net zoals dieren, niet aansprakelijk kunnen gesteld worden. Deze vergelijking met dieren

is ook iets waar verscheidene onderzoekers kritisch naar kijken en wordt verder aangehaald in

sectie 2.5.4.

Daarnaast kan een wetgeving niet enkel betrekking hebben op de aansprakelijkheid, maar ook

op privacy gerelateerde problemen. Aangezien sociale robots steeds meer op de markt te zien

experten hier dan ook baat bij om ethische problemen in acht te nemen bij de ontwikkeling, het

onderzoek en de marketing van sociale robots. Dit zal immers leiden tot een betere publieke

acceptatie van robots (Riek & Howard, 2014). Ook Lutz en Tamò (2015) schrijven dat

ingenieurs verantwoordelijk zijn om ervoor te zorgen dat de privacy van de gebruiker

gerespecteerd zal worden. Volgens deze auteurs zijn er ethische kwesties omtrent privacy op

twee vlakken. Enerzijds de aanwezigheid en opdringerigheid van een robot, anderzijds het feit

dat mensen gebrekkige kennis hebben over de werking van robots en hoe ze gevoelige

informatie verzamelen en verwerken. Deze gebrekkige kennis over de werking van robots

noemen Lutz en Tamò het ‘black box probleem’. Subramanian (2017) verwijst in zijn werk ook

naar het feit dat de privacy van gegevens gewaarborgd moet blijven.

Indien er een robotwetgeving komt waarvan de structuur in lijn ligt met de maatschappelijke

normen, dan zou volgens Eidenmüller (2017) een slimme robot behandeld worden als een mens.

Dit betekent echter dat de robot rechtspersoonlijkheid zou hebben, contracten zou kunnen

sluiten en onroerende goederen zou kunnen bezitten (Eidenmüller, 2017). Volgens Eidenmüller

(2017) zijn deze zaken exclusief voorbehouden voor mensen en zou het toekennen van

rechtspersoonlijkheid aan sociale robots een ontmenselijking van mensen betekenen. De auteur

is dan ook van mening dat dit niet mag gebeuren.

Verder concludeert Eidenmüller (2017) dat een robotregulering robot- en contextafhankelijk

moet zijn. Dit betekent dus dat een diepgaande kennis van de effecten van robots in specifieke

gebieden, vereist is (Eidenmüller, 2017). Daarnaast zijn er ook vragen rond de wenselijkheid

van een wetgeving omtrent sociale robots. Indien deze wetgeving grotere lasten zou impliceren

voor de eigenaar van de robot, zou de adoptie van dergelijke robots sterk kunnen afnemen en

bovendien onterecht in het voordeel van de fabrikant kunnen uitdraaien (Asaro, 2007). Een

wetgeving rond sociale robots is dan ook pas wenselijk als de meerderheid van de maatschappij

hierom vraagt (Darling, 2012).

Tenslotte dient er ook onderzoek te gebeuren naar de mogelijkheid van sociale robots om

morele competenties, aansprakelijkheid, rechten en plichten te bezitten. Hierbij kunnen de

gelijkenissen en verschillen tussen sociale robots, minderjarigen en dieren in acht worden

2.5.4 Bestaande studies over de vergelijking van dieren en sociale robots

Zoals reeds in sectie 2.5.3 werd aangehaald, spelen ook dieren een belangrijke rol bij de ethische

blik op sociale robots. Verschillende onderzoekers vergelijken namelijk sociale robots met

dieren op vlak van rechten, plichten, moraliteit en ethiek. Darling (2012) gaat in haar werk

akkoord met het argument van Immanuel Kant. Hij stelde dat wreedheid jegens dieren

wreedheid jegens mensen bevordert. Dit zou dus willen zeggen dat men gelooft dat

dierenmishandeling leidt tot het slecht behandelen van de medemens. Darling (2012) pleit dan

ook voor een analoge link met betrekking tot sociale robots. Het verband tussen wreedheid en

vriendelijkheid met betrekking tot kunstmatige en levende wezens is echter controversieel en

er is ook nog niet voldoende onderzoek naar (Coghlan, Vetere, Waycott, & Neves, 2019).

Zo zijn sommige onderzoekers het niet eens met de vergelijking en vinden ze dat er te

grote verschilpunten zijn tussen sociale robots en dieren. Vooral het feit dat een dier kan lijden

en een sociale robot niet, vormt hierbij een kritisch punt (Johnson & Verdicchio, 2018). Er is

zeker verder onderzoek vereist naar de wenselijkheid van wetgeving voor sociale robots

enerzijds en de gelijkenissen en verschillen met dieren anderzijds. Hierbij moet de veiligheid

van de robot als prioriteit gezien worden, waarbij de nadruk ligt op de co-existentie van mensen

en sociale robots (Weng, Chen, & Sun, 2009).

Tenslotte stelt Darling (2012) dat de structuur van dierenbescherming zou doorgetrokken

kunnen worden naar de bescherming van sociale robots. Hoewel Coghan et al. (2019) niet

volledig akkoord gaan met het argument van Immanuel Kant, stellen ze wel dat het in de

toekomst mogelijk zou zijn dat sociale robots weldegelijk een invloed hebben op de

ontwikkeling van deugd en ondeugd. Daarbij concluderen Coghlan et al. (2019) dat een

wetgeving ter bescherming van robots wenselijk kan zijn. Dit zou volgens de auteurs ervoor

zorgen dat er sociale druk ontstaat om robots zachtaardig te behandelen. Hier zouden vooral

kinderen baat bij kunnen hebben, aangezien dit hen zou kunnen leren om vriendelijk te zijn en

te zorgen voor kwetsbare anderen, zoals mensen en dieren (Coghlan et al., 2019).

2.5.5 Ethische kwesties bij sociale robots

De huidige onderzoeken rond ethiek en rechten van sociale robots, laten blijken dat er nog

verscheidene ethische dilemma’s zijn bij sociale robots. Tabel 4 toont hiervan een overzicht.

Tabel 4: Overzicht van ethische kwesties bij sociale robots

Ethische kwesties omtrent sociale robots

Bron

Waarom mogen zorgverleners bij ouderen al dan niet

vervangen worden door sociale robots?

Misselhorn et al. (2013)

Zal, naarmate sociale robots geaccepteerd geraken door de

maatschappij, de druk toenemen om zorgverleners te

vervangen door sociale robots?

Misselhorn et al. (2013)

Hoe waardevol is de interactie van sociale robots met

onder andere senioren?

Sparrow en Sparrow (2006);

Misselhorn et al. (2013)

Waarom zouden sociale robots al dan niet morele

competenties kunnen bezitten?

Malle en Scheutz (2014)

Wanneer kan een sociale robot aansprakelijk gesteld

worden?

Subramanian (2017);

Asaro (2007); Darling (2012);

Johnson en Verdicchio (2018)

Op welke manier kunnen robots vergeleken worden met

bedrijven op vlak van aansprakelijkheid?

Subramanian (2017)

Op welke manier kunnen robots vergeleken worden met

minderjarigen op vlak van aansprakelijkheid?

Asaro (2007)

Op welke manier kunnen robots vergeleken worden met

dieren op vlak van aansprakelijkheid?

Darling (2012);

Johnson en Verdicchio (2018)

Wanneer is een wetgeving voor sociale robots

noodzakelijk/wenselijk?

Asaro (2007);

Darling (2012)

Wie is verantwoordelijk voor de correcte (ethische)

werking van sociale robots?

Gelin (2015)

Waarom

zouden

sociale

robots

al

dan

niet

rechtspersoonlijkheid moeten bezitten?

Welke impact hebben sociale robots op de evolutie van

menselijke interactie?

Darling (2012)

In welke mate mogen ouderen sociale robots vertrouwen? Salem et al. (2015);

Waarom zouden licenties of opleidingen voor gebruikers

al dan niet verplicht moeten zijn?

Salem et al. (2015)

Waarom zouden sociale robots al dan niet beschermd

moeten worden net zoals dieren beschermd worden?

Darling (2012)

Op welke manier kan het slecht behandelen van sociale

robots een invloed hebben op hoe men de medemens

behandelt?

3. Methodologie

In deze sectie zal eerst de probleemstelling besproken worden om het doel van dit onderzoek te

verduidelijken. Daaruit kan dan de onderzoeksvraag afgeleid worden die opgesplitst wordt in

drie deelvragen. Daarna zal de operationalisering behandeld worden. Nadien zullen de

wetenschappelijke en maatschappelijke relevantie van dit onderzoek besproken worden. Verder

komen ook de evaluatiecriteria aan bod. Tot slot, wordt er nog verdere informatie over het

empirisch onderzoek gegeven.

3.1 Probleemstelling

Ondanks dat er nog geen sprake is van een digitale samenleving, is de impact van robotisering

en digitalisering reeds te merken (Van Humbeeck et al., 2017). Sociale robots worden op de

werkvloer en thuis ingezet, maar ook in residenties van ouderen en zelfs in scholen. Hierdoor

voeren mensen steeds vaker interactie met robots en sommigen leven als het ware samen met

een sociale robot (Barata, 2019). Zoals reeds bleek uit de literatuurstudie, heeft de inzet van

sociale robots duidelijke voordelen. Onder andere kinderen met autisme op school en ouderen

die zich eenzaam voelen, kunnen baat hebben bij interactie met een dergelijke robot.

Echter, in de literatuurstudie werd duidelijk dat HRI voor ethische bezorgdheden zorgt bij

verschillende onderzoekers. Zo zijn er vragen omtrent de inzet van sociale robots bij

ouderenzorg op lange termijn. Onder andere privacy vormt hierbij een gevoelig onderwerp waar

aandacht voor moet zijn (Broadbent, 2017). Ook over de kwaliteit van dergelijke interactie in

vergelijking met klassieke, menselijke interactie bestaat er nog onzekerheid. Morele

competenties zijn immers noodzakelijk, opdat communicatie met een mens zou kunnen

plaatsvinden, maar het is niet zeker hoe goed sociale robots dergelijke competenties aangeleerd

kunnen krijgen (Malle & Scheutz, 2014). Dergelijke interactie tussen mens en robot, zou ook

mogelijks een impact kunnen hebben op de evolutie van menselijke interactie (Darling, 2012).

Bovendien spelen aansprakelijkheid en rechtspersoonlijkheid een aanzienlijke rol

binnen de ethiek. Uit de literatuurstudie blijken verschillende onderzoekers het niet eens te zijn

met elkaar als het aankomt op de aansprakelijkheid van sociale robots. Bovendien zou ook het

toekennen van rechtspersoonlijkheid aan robots grote gevolgen hebben voor de maatschappij,

waarbij men zich kan afvragen hoe ethisch dit in werkelijkheid is. Is een wetgeving voor sociale

robots noodzakelijk? En indien dit zo is, vanaf wanneer?

3.2 Onderzoeksvragen

Dit onderzoek heeft als doel meer inzicht te verkrijgen in ethische kwesties bij sociale robots

zoals deze die reeds in sectie 3.1 werden aangehaald. Hiervoor zal nagegaan worden hoe

experten in het gebied van sociale robots naar enkele kwesties kijken en wat hun bedenkingen

zijn. Dit gebeurt aan de hand van een vragenlijst die gebaseerd is op tabel 4 in sectie 2.5.5. De

onderzoeksvraag luidt dan ook als volgt:

“Op welke manier bekijken experten de toekomst van sociale robots op ethisch vlak?”

Uit de literatuurstudie bleek reeds dat sociale robots, weliswaar beperkt, aanwezig zijn in het

dagelijks leven van mensen en ze kennen ook tal van toepassingen. Doordat ze steeds meer in

de praktijk voorkomen en dus aan belang winnen, beginnen veel onderzoekers kritisch te kijken

naar hoe ethisch dergelijke sociale robots nu werkelijk zijn. Echter, een eenduidige definitie

van sociale robots is er nog niet en verschillende onderzoekers definiëren deze robots dan ook

vanuit verschillende invalshoeken. Zo schrijft Sandry (2015) dat sociale robots machines zijn

die sociale interactie kunnen voeren met onder andere mensen. Daarnaast stelt Darling (2012)

dat dit autonome agenten zijn met een fysieke aanwezigheid die bovendien op sociaal niveau

kunnen communiceren en interactie voeren met mensen. Bij deze interactie treedt

antropomorfisme op, wat betekent dat mensen deze robots behandelen alsof ze menselijk zijn

qua uiterlijk, gedrag, etc. (Breazeal, 2003). Daarnaast verschillen sociale robots zeer sterk van

industriële robots en dit werd dan ook benadrukt in de definitie van Sheridan (2020). Deze

onderzoeker definieert een sociale robot namelijk als een robot die, in plaats van een technische

of mechanische taak te moeten uitvoeren, eerder bestemd is om zorg te dragen voor een

Hierbij ligt de nadruk telkens op het ethische aspect van sociale robots. De vragenlijst die

gebruikt werd voor de diepte-interviews volgt tevens deze structuur.

Een van de toepassingen van sociale robots die besproken werd in de literatuurstudie was in de

ouderenzorg. Hierbij werd in verschillende onderzoeken dan ook aangehaald dat sociale robots

enkel mogen dienen ter assistentie van het zorgpersoneel. Er zijn echter vragen omtrent al dan

niet toenemende druk om hen toch door sociale robots te vervangen, naarmate sociale robots

algemeen meer geaccepteerd worden in de toekomst (Misselhorn et al., 2013). Ethische

kwesties zoals het voorgaande, leiden dan ook tot de eerste deelvraag van de algemene

onderzoeksvraag:

“Wat is de impact van sociale robots in de ouderenzorg op vlak van ethiek?”

Allereerst werd in de literatuurstudie duidelijk dat ouderenzorg gezien wordt als zowel zorg

van ouderen die in residenties verblijven, als zorg van ouderen die thuis wonen. In beide

gevallen gaat het echter wel telkens om ouderen die fysieke of mentale problemen hebben en

dus enige vorm van zorg nodig hebben (Misselhorn et al., 2013).

Bovendien wordt deze deelvraag nog verder afgebakend door deze in drie delen op te splitsen.

Deze structuur wordt ook gehanteerd tijdens de interviews. Ten eerste wordt er gekeken naar

hoe ethisch experten de vervanging van zorgpersoneel door sociale robots achten en of deze

überhaupt mogen vervangen worden. De experten worden ook gevraagd of de druk om

zorgpersoneel te vervangen door sociale robots mogelijks zou kunnen toenemen, naarmate

sociale robots meer genormaliseerd worden door de maatschappij. Deze normalisatie is

namelijk niet tegen te houden, aangezien in de huidige samenleving digitalisering en

robotisering toenemen (Van Humbeeck et al., 2017). Hierbij wordt er ook nagegaan welke

ethische gevolgen dit zal hebben binnen de ouderenzorg volgens de experten.

Ten tweede wordt er gepeild naar de interactie tussen sociale robots en de ouderen.

Daarbij wordt er onderzocht hoe waardevol die interactie met een sociale robot kan zijn voor

senioren. Daarbij wordt er gekeken naar het belang van morele competenties van de robot en

de mogelijkheid om deze al dan niet te bezitten. In de literatuurstudie werd immers reeds

zou kunnen plaatsvinden (Malle & Scheutz, 2014). Er is dan ook nog te weinig onderzoek

gebeurd naar wat voor technologiegebruikers ouderen zijn (Di Nuovo et al., 2017). Hierdoor

worden belangrijke gebruikersverwachtingen en –behoeften niet opgenomen tijdens het

ontwerpproces van robots (Di Nuovo et al., 2017). Ook dit leidt tot een ethisch probleem,

aangezien de interactie misschien niet als waardevol zal geacht worden door senioren doordat

de robot niet aan de verwachtingen voldoet. Het is dan ook nog niet duidelijk of deze interactie,

bijvoorbeeld met de sociale robot Paro, wel waardevol kan zijn (Misselhorn et al., 2013). Het

is hierbij interessant om na te gaan wat de experten begrijpen onder waardevolle interactie.

Ten derde wordt er tevens gepolst naar de visie van experten op de, al dan niet negatieve,

invloed die deze robots zullen hebben op de evolutie van menselijke interactie zelf. Sociale

robots wekken immers een zogenaamd verzorgereffect op bij de mens (Darling, 2012). Dit zou

kunnen zorgen voor een vermindering van menselijke interactie (Darling, 2012). Dit laatste zou

op zich dan weer kunnen leiden tot het verloren gaan van essentiële zaken die bij menselijk

gezelschap horen (Darling, 2012). Er wordt dus geanalyseerd welke negatieve, maar ook

positieve effecten sociale robots zouden kunnen hebben op de evolutie van menselijke interactie

volgens de experten.

Verder kan het tevens interessant zijn om zich meer te verdiepen in wetgeving voor sociale

robots die onder andere de aansprakelijkheid zou kunnen regelen, maar ook het beschermen

van de robots zelf. Dit leidt dan tot de tweede deelvraag:

“Welke rol kan wetgeving spelen op vlak van ethiek bij sociale robots?”

Doordat deze deelvraag toch nog ruim is, worden de antwoordmogelijkheden beperkt door op

twee specifieke zaken in te gaan. De deelvraag kan opgesplitst worden in aansprakelijkheid en

rechtspersoonlijkheid, en in verantwoordelijkheid. Hierbij wordt eerst en vooral geanalyseerd

of en hoe sociale robots aansprakelijk zouden gesteld kunnen worden. Dit gebeurt aan de hand

van een fictief voorbeeld ter illustratie, waarbij een arts een medicijn zou voorschrijven op

binnen wetgeving. Het is dan ook interessant om na te gaan of experten vinden dat sociale

robots rechtspersoonlijkheid zouden moeten toegekend krijgen. Dit zou immers impliceren dat

ze zelfstandig in het maatschappelijk verkeer kunnen optreden en onder andere over bezittingen

zouden kunnen beschikken (Westenbroek, 2016).

Het tweede deel van deze deelvraag is gericht op de mening van experten omtrent wie

er verantwoordelijk is voor de correcte, ethische werking van sociale robots. Indien de ethische

werking door iemand gegarandeerd zou worden en die persoon dus hiervoor verantwoordelijk

is, vinden experten dan dat advies en informatie dat toegereikt wordt door sociale robots,

zomaar te vertrouwen zijn? Daarnaast wordt er ook gepeild naar hun mening omtrent verplichte

licenties of opleidingen voor gebruikers van sociale robots. Er wordt ook nagegaan wanneer de

experten een wetgeving voor sociale robots wenselijk of noodzakelijk achten.

Tenslotte bleken sociale robots vaak vergeleken te worden met dieren in de literatuurstudie.

Daardoor kan het interessant zijn om hier dieper op in te gaan. De laatste deelvraag luidt dan

ook als volgt:

“Op welke manier kunnen sociale robots vergeleken worden met dieren op vlak van

ethiek?”

Om deze vraag verder af te bakenen, worden er enkele specifiekere zaken bevraagd. Zo is de

eerste vraag hierbij of sociale robots al dan niet beschermd zouden moeten worden, net zoals

er dierenbescherming bestaat. Indien een expert van mening is dat ze beschermd moeten

worden, dan kan men zich afvragen of deze bescherming van sociale robots dezelfde structuur

en opbouw moet hebben zoals de dierenbescherming. Bovendien wordt er ook gepeild naar de

verschillende situaties waarin sociale robots beschermd moeten worden, volgens de

ondervraagden. Hierbij is het ook interessant om na te gaan welke voor- en nadelen zo’n

wetgeving inhoudt.

Tot slot wordt er een stelling van Immanuel Kant voorgelegd aan de experten. Kant

stelde immers dat wie een dier slecht behandelt, ook mensen slecht zou behandelen. De experten

worden gevraagd of ze hiermee akkoord gaan en of deze redenering dan ook kan doorgetrokken

worden naar sociale robots toe. De vragenlijst wordt afgesloten met de vraag of kinderen

zoals bijvoorbeeld vriendelijkheid en zorgen voor zwakke personen, en ondeugd anderzijds,

zoals bijvoorbeeld agressie.

3.3 Operationalisering