2. Literatuurstudie
2.5 Onderzoek tot op heden
2.5.3 Bestaande studies over aansprakelijkheid van en wetgeving voor sociale robots
Zoals reeds werd aangehaald in sectie 2.2.5 worden sociale robots vaak ontworpen met
menselijke kenmerken. Dit zorgt ervoor dat mensen deze robots gaan behandelen als echte
mensen, wat dan weer potentieel gevolgen heeft op vlak van regulering (Eidenmüller, 2017).
HRI-experten hebben dan ook nood aan een praktische vorm van begeleiding of richtlijnen om
te kunnen omgaan met de ethische en wettelijke uitdagingen (Riek & Howard, 2014). Hierbij
worden de volgende rollen als experten beschouwd: onderzoekers, ingenieurs, academici, de
overheid, productmanagers, etc. (Riek & Howard, 2014).
Ten eerste onderzocht Subramanian in 2017 of sociale robots aansprakelijk kunnen gesteld
worden. De auteur vergeleek de aansprakelijkheid van sociale robots met dat van bedrijven
en/of knechten. Deze kunnen immers niet of slechts gedeeltelijk aansprakelijk gesteld worden
(Subramanian, 2017). Echter, Eidenmüller (2017) stelt dat robots niet kunnen vergeleken
worden met bedrijven, aangezien elk bedrijf handelt door middel van mensen die in het bestuur
zitten. Een andere vergelijking die gemaakt wordt op vlak van aansprakelijkheid, is die met
minderjarigen of dus quasi-personen, waarbij de robot menselijke ‘ouders’ heeft die geheel of
gedeeltelijk aansprakelijk zijn (Asaro, 2007). Bendel (2013) schreef in zijn onderzoek dat
robots, net zoals dieren, niet aansprakelijk kunnen gesteld worden. Deze vergelijking met dieren
is ook iets waar verscheidene onderzoekers kritisch naar kijken en wordt verder aangehaald in
sectie 2.5.4.
Daarnaast kan een wetgeving niet enkel betrekking hebben op de aansprakelijkheid, maar ook
op privacy gerelateerde problemen. Aangezien sociale robots steeds meer op de markt te zien
experten hier dan ook baat bij om ethische problemen in acht te nemen bij de ontwikkeling, het
onderzoek en de marketing van sociale robots. Dit zal immers leiden tot een betere publieke
acceptatie van robots (Riek & Howard, 2014). Ook Lutz en Tamò (2015) schrijven dat
ingenieurs verantwoordelijk zijn om ervoor te zorgen dat de privacy van de gebruiker
gerespecteerd zal worden. Volgens deze auteurs zijn er ethische kwesties omtrent privacy op
twee vlakken. Enerzijds de aanwezigheid en opdringerigheid van een robot, anderzijds het feit
dat mensen gebrekkige kennis hebben over de werking van robots en hoe ze gevoelige
informatie verzamelen en verwerken. Deze gebrekkige kennis over de werking van robots
noemen Lutz en Tamò het ‘black box probleem’. Subramanian (2017) verwijst in zijn werk ook
naar het feit dat de privacy van gegevens gewaarborgd moet blijven.
Indien er een robotwetgeving komt waarvan de structuur in lijn ligt met de maatschappelijke
normen, dan zou volgens Eidenmüller (2017) een slimme robot behandeld worden als een mens.
Dit betekent echter dat de robot rechtspersoonlijkheid zou hebben, contracten zou kunnen
sluiten en onroerende goederen zou kunnen bezitten (Eidenmüller, 2017). Volgens Eidenmüller
(2017) zijn deze zaken exclusief voorbehouden voor mensen en zou het toekennen van
rechtspersoonlijkheid aan sociale robots een ontmenselijking van mensen betekenen. De auteur
is dan ook van mening dat dit niet mag gebeuren.
Verder concludeert Eidenmüller (2017) dat een robotregulering robot- en contextafhankelijk
moet zijn. Dit betekent dus dat een diepgaande kennis van de effecten van robots in specifieke
gebieden, vereist is (Eidenmüller, 2017). Daarnaast zijn er ook vragen rond de wenselijkheid
van een wetgeving omtrent sociale robots. Indien deze wetgeving grotere lasten zou impliceren
voor de eigenaar van de robot, zou de adoptie van dergelijke robots sterk kunnen afnemen en
bovendien onterecht in het voordeel van de fabrikant kunnen uitdraaien (Asaro, 2007). Een
wetgeving rond sociale robots is dan ook pas wenselijk als de meerderheid van de maatschappij
hierom vraagt (Darling, 2012).
Tenslotte dient er ook onderzoek te gebeuren naar de mogelijkheid van sociale robots om
morele competenties, aansprakelijkheid, rechten en plichten te bezitten. Hierbij kunnen de
gelijkenissen en verschillen tussen sociale robots, minderjarigen en dieren in acht worden
2.5.4 Bestaande studies over de vergelijking van dieren en sociale robots
Zoals reeds in sectie 2.5.3 werd aangehaald, spelen ook dieren een belangrijke rol bij de ethische
blik op sociale robots. Verschillende onderzoekers vergelijken namelijk sociale robots met
dieren op vlak van rechten, plichten, moraliteit en ethiek. Darling (2012) gaat in haar werk
akkoord met het argument van Immanuel Kant. Hij stelde dat wreedheid jegens dieren
wreedheid jegens mensen bevordert. Dit zou dus willen zeggen dat men gelooft dat
dierenmishandeling leidt tot het slecht behandelen van de medemens. Darling (2012) pleit dan
ook voor een analoge link met betrekking tot sociale robots. Het verband tussen wreedheid en
vriendelijkheid met betrekking tot kunstmatige en levende wezens is echter controversieel en
er is ook nog niet voldoende onderzoek naar (Coghlan, Vetere, Waycott, & Neves, 2019).
Zo zijn sommige onderzoekers het niet eens met de vergelijking en vinden ze dat er te
grote verschilpunten zijn tussen sociale robots en dieren. Vooral het feit dat een dier kan lijden
en een sociale robot niet, vormt hierbij een kritisch punt (Johnson & Verdicchio, 2018). Er is
zeker verder onderzoek vereist naar de wenselijkheid van wetgeving voor sociale robots
enerzijds en de gelijkenissen en verschillen met dieren anderzijds. Hierbij moet de veiligheid
van de robot als prioriteit gezien worden, waarbij de nadruk ligt op de co-existentie van mensen
en sociale robots (Weng, Chen, & Sun, 2009).
Tenslotte stelt Darling (2012) dat de structuur van dierenbescherming zou doorgetrokken
kunnen worden naar de bescherming van sociale robots. Hoewel Coghan et al. (2019) niet
volledig akkoord gaan met het argument van Immanuel Kant, stellen ze wel dat het in de
toekomst mogelijk zou zijn dat sociale robots weldegelijk een invloed hebben op de
ontwikkeling van deugd en ondeugd. Daarbij concluderen Coghlan et al. (2019) dat een
wetgeving ter bescherming van robots wenselijk kan zijn. Dit zou volgens de auteurs ervoor
zorgen dat er sociale druk ontstaat om robots zachtaardig te behandelen. Hier zouden vooral
kinderen baat bij kunnen hebben, aangezien dit hen zou kunnen leren om vriendelijk te zijn en
te zorgen voor kwetsbare anderen, zoals mensen en dieren (Coghlan et al., 2019).
2.5.5 Ethische kwesties bij sociale robots
De huidige onderzoeken rond ethiek en rechten van sociale robots, laten blijken dat er nog
verscheidene ethische dilemma’s zijn bij sociale robots. Tabel 4 toont hiervan een overzicht.
Tabel 4: Overzicht van ethische kwesties bij sociale robots
Ethische kwesties omtrent sociale robots
Bron
Waarom mogen zorgverleners bij ouderen al dan niet
vervangen worden door sociale robots?
Misselhorn et al. (2013)
Zal, naarmate sociale robots geaccepteerd geraken door de
maatschappij, de druk toenemen om zorgverleners te
vervangen door sociale robots?
Misselhorn et al. (2013)
Hoe waardevol is de interactie van sociale robots met
onder andere senioren?
Sparrow en Sparrow (2006);
Misselhorn et al. (2013)
Waarom zouden sociale robots al dan niet morele
competenties kunnen bezitten?
Malle en Scheutz (2014)
Wanneer kan een sociale robot aansprakelijk gesteld
worden?
Subramanian (2017);
Asaro (2007); Darling (2012);
Johnson en Verdicchio (2018)
Op welke manier kunnen robots vergeleken worden met
bedrijven op vlak van aansprakelijkheid?
Subramanian (2017)
Op welke manier kunnen robots vergeleken worden met
minderjarigen op vlak van aansprakelijkheid?
Asaro (2007)
Op welke manier kunnen robots vergeleken worden met
dieren op vlak van aansprakelijkheid?
Darling (2012);
Johnson en Verdicchio (2018)
Wanneer is een wetgeving voor sociale robots
noodzakelijk/wenselijk?
Asaro (2007);
Darling (2012)
Wie is verantwoordelijk voor de correcte (ethische)
werking van sociale robots?
Gelin (2015)
Waarom
zouden
sociale
robots
al
dan
niet
rechtspersoonlijkheid moeten bezitten?
Welke impact hebben sociale robots op de evolutie van
menselijke interactie?
Darling (2012)
In welke mate mogen ouderen sociale robots vertrouwen? Salem et al. (2015);
Waarom zouden licenties of opleidingen voor gebruikers
al dan niet verplicht moeten zijn?
Salem et al. (2015)
Waarom zouden sociale robots al dan niet beschermd
moeten worden net zoals dieren beschermd worden?
Darling (2012)
Op welke manier kan het slecht behandelen van sociale
robots een invloed hebben op hoe men de medemens
behandelt?
3. Methodologie
In deze sectie zal eerst de probleemstelling besproken worden om het doel van dit onderzoek te
verduidelijken. Daaruit kan dan de onderzoeksvraag afgeleid worden die opgesplitst wordt in
drie deelvragen. Daarna zal de operationalisering behandeld worden. Nadien zullen de
wetenschappelijke en maatschappelijke relevantie van dit onderzoek besproken worden. Verder
komen ook de evaluatiecriteria aan bod. Tot slot, wordt er nog verdere informatie over het
empirisch onderzoek gegeven.
3.1 Probleemstelling
Ondanks dat er nog geen sprake is van een digitale samenleving, is de impact van robotisering
en digitalisering reeds te merken (Van Humbeeck et al., 2017). Sociale robots worden op de
werkvloer en thuis ingezet, maar ook in residenties van ouderen en zelfs in scholen. Hierdoor
voeren mensen steeds vaker interactie met robots en sommigen leven als het ware samen met
een sociale robot (Barata, 2019). Zoals reeds bleek uit de literatuurstudie, heeft de inzet van
sociale robots duidelijke voordelen. Onder andere kinderen met autisme op school en ouderen
die zich eenzaam voelen, kunnen baat hebben bij interactie met een dergelijke robot.
Echter, in de literatuurstudie werd duidelijk dat HRI voor ethische bezorgdheden zorgt bij
verschillende onderzoekers. Zo zijn er vragen omtrent de inzet van sociale robots bij
ouderenzorg op lange termijn. Onder andere privacy vormt hierbij een gevoelig onderwerp waar
aandacht voor moet zijn (Broadbent, 2017). Ook over de kwaliteit van dergelijke interactie in
vergelijking met klassieke, menselijke interactie bestaat er nog onzekerheid. Morele
competenties zijn immers noodzakelijk, opdat communicatie met een mens zou kunnen
plaatsvinden, maar het is niet zeker hoe goed sociale robots dergelijke competenties aangeleerd
kunnen krijgen (Malle & Scheutz, 2014). Dergelijke interactie tussen mens en robot, zou ook
mogelijks een impact kunnen hebben op de evolutie van menselijke interactie (Darling, 2012).
Bovendien spelen aansprakelijkheid en rechtspersoonlijkheid een aanzienlijke rol
binnen de ethiek. Uit de literatuurstudie blijken verschillende onderzoekers het niet eens te zijn
met elkaar als het aankomt op de aansprakelijkheid van sociale robots. Bovendien zou ook het
toekennen van rechtspersoonlijkheid aan robots grote gevolgen hebben voor de maatschappij,
waarbij men zich kan afvragen hoe ethisch dit in werkelijkheid is. Is een wetgeving voor sociale
robots noodzakelijk? En indien dit zo is, vanaf wanneer?
3.2 Onderzoeksvragen
Dit onderzoek heeft als doel meer inzicht te verkrijgen in ethische kwesties bij sociale robots
zoals deze die reeds in sectie 3.1 werden aangehaald. Hiervoor zal nagegaan worden hoe
experten in het gebied van sociale robots naar enkele kwesties kijken en wat hun bedenkingen
zijn. Dit gebeurt aan de hand van een vragenlijst die gebaseerd is op tabel 4 in sectie 2.5.5. De
onderzoeksvraag luidt dan ook als volgt:
“Op welke manier bekijken experten de toekomst van sociale robots op ethisch vlak?”
Uit de literatuurstudie bleek reeds dat sociale robots, weliswaar beperkt, aanwezig zijn in het
dagelijks leven van mensen en ze kennen ook tal van toepassingen. Doordat ze steeds meer in
de praktijk voorkomen en dus aan belang winnen, beginnen veel onderzoekers kritisch te kijken
naar hoe ethisch dergelijke sociale robots nu werkelijk zijn. Echter, een eenduidige definitie
van sociale robots is er nog niet en verschillende onderzoekers definiëren deze robots dan ook
vanuit verschillende invalshoeken. Zo schrijft Sandry (2015) dat sociale robots machines zijn
die sociale interactie kunnen voeren met onder andere mensen. Daarnaast stelt Darling (2012)
dat dit autonome agenten zijn met een fysieke aanwezigheid die bovendien op sociaal niveau
kunnen communiceren en interactie voeren met mensen. Bij deze interactie treedt
antropomorfisme op, wat betekent dat mensen deze robots behandelen alsof ze menselijk zijn
qua uiterlijk, gedrag, etc. (Breazeal, 2003). Daarnaast verschillen sociale robots zeer sterk van
industriële robots en dit werd dan ook benadrukt in de definitie van Sheridan (2020). Deze
onderzoeker definieert een sociale robot namelijk als een robot die, in plaats van een technische
of mechanische taak te moeten uitvoeren, eerder bestemd is om zorg te dragen voor een
Hierbij ligt de nadruk telkens op het ethische aspect van sociale robots. De vragenlijst die
gebruikt werd voor de diepte-interviews volgt tevens deze structuur.
Een van de toepassingen van sociale robots die besproken werd in de literatuurstudie was in de
ouderenzorg. Hierbij werd in verschillende onderzoeken dan ook aangehaald dat sociale robots
enkel mogen dienen ter assistentie van het zorgpersoneel. Er zijn echter vragen omtrent al dan
niet toenemende druk om hen toch door sociale robots te vervangen, naarmate sociale robots
algemeen meer geaccepteerd worden in de toekomst (Misselhorn et al., 2013). Ethische
kwesties zoals het voorgaande, leiden dan ook tot de eerste deelvraag van de algemene
onderzoeksvraag:
“Wat is de impact van sociale robots in de ouderenzorg op vlak van ethiek?”
Allereerst werd in de literatuurstudie duidelijk dat ouderenzorg gezien wordt als zowel zorg
van ouderen die in residenties verblijven, als zorg van ouderen die thuis wonen. In beide
gevallen gaat het echter wel telkens om ouderen die fysieke of mentale problemen hebben en
dus enige vorm van zorg nodig hebben (Misselhorn et al., 2013).
Bovendien wordt deze deelvraag nog verder afgebakend door deze in drie delen op te splitsen.
Deze structuur wordt ook gehanteerd tijdens de interviews. Ten eerste wordt er gekeken naar
hoe ethisch experten de vervanging van zorgpersoneel door sociale robots achten en of deze
überhaupt mogen vervangen worden. De experten worden ook gevraagd of de druk om
zorgpersoneel te vervangen door sociale robots mogelijks zou kunnen toenemen, naarmate
sociale robots meer genormaliseerd worden door de maatschappij. Deze normalisatie is
namelijk niet tegen te houden, aangezien in de huidige samenleving digitalisering en
robotisering toenemen (Van Humbeeck et al., 2017). Hierbij wordt er ook nagegaan welke
ethische gevolgen dit zal hebben binnen de ouderenzorg volgens de experten.
Ten tweede wordt er gepeild naar de interactie tussen sociale robots en de ouderen.
Daarbij wordt er onderzocht hoe waardevol die interactie met een sociale robot kan zijn voor
senioren. Daarbij wordt er gekeken naar het belang van morele competenties van de robot en
de mogelijkheid om deze al dan niet te bezitten. In de literatuurstudie werd immers reeds
zou kunnen plaatsvinden (Malle & Scheutz, 2014). Er is dan ook nog te weinig onderzoek
gebeurd naar wat voor technologiegebruikers ouderen zijn (Di Nuovo et al., 2017). Hierdoor
worden belangrijke gebruikersverwachtingen en –behoeften niet opgenomen tijdens het
ontwerpproces van robots (Di Nuovo et al., 2017). Ook dit leidt tot een ethisch probleem,
aangezien de interactie misschien niet als waardevol zal geacht worden door senioren doordat
de robot niet aan de verwachtingen voldoet. Het is dan ook nog niet duidelijk of deze interactie,
bijvoorbeeld met de sociale robot Paro, wel waardevol kan zijn (Misselhorn et al., 2013). Het
is hierbij interessant om na te gaan wat de experten begrijpen onder waardevolle interactie.
Ten derde wordt er tevens gepolst naar de visie van experten op de, al dan niet negatieve,
invloed die deze robots zullen hebben op de evolutie van menselijke interactie zelf. Sociale
robots wekken immers een zogenaamd verzorgereffect op bij de mens (Darling, 2012). Dit zou
kunnen zorgen voor een vermindering van menselijke interactie (Darling, 2012). Dit laatste zou
op zich dan weer kunnen leiden tot het verloren gaan van essentiële zaken die bij menselijk
gezelschap horen (Darling, 2012). Er wordt dus geanalyseerd welke negatieve, maar ook
positieve effecten sociale robots zouden kunnen hebben op de evolutie van menselijke interactie
volgens de experten.
Verder kan het tevens interessant zijn om zich meer te verdiepen in wetgeving voor sociale
robots die onder andere de aansprakelijkheid zou kunnen regelen, maar ook het beschermen
van de robots zelf. Dit leidt dan tot de tweede deelvraag:
“Welke rol kan wetgeving spelen op vlak van ethiek bij sociale robots?”
Doordat deze deelvraag toch nog ruim is, worden de antwoordmogelijkheden beperkt door op
twee specifieke zaken in te gaan. De deelvraag kan opgesplitst worden in aansprakelijkheid en
rechtspersoonlijkheid, en in verantwoordelijkheid. Hierbij wordt eerst en vooral geanalyseerd
of en hoe sociale robots aansprakelijk zouden gesteld kunnen worden. Dit gebeurt aan de hand
van een fictief voorbeeld ter illustratie, waarbij een arts een medicijn zou voorschrijven op
binnen wetgeving. Het is dan ook interessant om na te gaan of experten vinden dat sociale
robots rechtspersoonlijkheid zouden moeten toegekend krijgen. Dit zou immers impliceren dat
ze zelfstandig in het maatschappelijk verkeer kunnen optreden en onder andere over bezittingen
zouden kunnen beschikken (Westenbroek, 2016).
Het tweede deel van deze deelvraag is gericht op de mening van experten omtrent wie
er verantwoordelijk is voor de correcte, ethische werking van sociale robots. Indien de ethische
werking door iemand gegarandeerd zou worden en die persoon dus hiervoor verantwoordelijk
is, vinden experten dan dat advies en informatie dat toegereikt wordt door sociale robots,
zomaar te vertrouwen zijn? Daarnaast wordt er ook gepeild naar hun mening omtrent verplichte
licenties of opleidingen voor gebruikers van sociale robots. Er wordt ook nagegaan wanneer de
experten een wetgeving voor sociale robots wenselijk of noodzakelijk achten.
Tenslotte bleken sociale robots vaak vergeleken te worden met dieren in de literatuurstudie.
Daardoor kan het interessant zijn om hier dieper op in te gaan. De laatste deelvraag luidt dan
ook als volgt:
“Op welke manier kunnen sociale robots vergeleken worden met dieren op vlak van
ethiek?”
Om deze vraag verder af te bakenen, worden er enkele specifiekere zaken bevraagd. Zo is de
eerste vraag hierbij of sociale robots al dan niet beschermd zouden moeten worden, net zoals
er dierenbescherming bestaat. Indien een expert van mening is dat ze beschermd moeten
worden, dan kan men zich afvragen of deze bescherming van sociale robots dezelfde structuur
en opbouw moet hebben zoals de dierenbescherming. Bovendien wordt er ook gepeild naar de
verschillende situaties waarin sociale robots beschermd moeten worden, volgens de
ondervraagden. Hierbij is het ook interessant om na te gaan welke voor- en nadelen zo’n
wetgeving inhoudt.
Tot slot wordt er een stelling van Immanuel Kant voorgelegd aan de experten. Kant
stelde immers dat wie een dier slecht behandelt, ook mensen slecht zou behandelen. De experten
worden gevraagd of ze hiermee akkoord gaan en of deze redenering dan ook kan doorgetrokken
worden naar sociale robots toe. De vragenlijst wordt afgesloten met de vraag of kinderen
zoals bijvoorbeeld vriendelijkheid en zorgen voor zwakke personen, en ondeugd anderzijds,
zoals bijvoorbeeld agressie.
3.3 Operationalisering
In document
Een juridische blik op ethische kwesties bij sociale robots
(pagina 47-57)