Op basis van dit onderzoek werden er meerdere ondervindingen gedaan over ethische kwesties
bij sociale robots. Dit gebeurde op drie vlakken, namelijk de ouderenzorg, wetgeving en de
vergelijking met dieren. De bevindingen zullen dan ook in die volgorde aan bod komen.
Tenslotte zal er besproken worden wat de beperkingen van dit onderzoek zijn en welke
onderzoeken omtrent deze thematiek kunnen plaatsvinden in de toekomst.
5.1 Vervanging binnen de ouderenzorg
Ten eerste blijkt uit dit onderzoek dat zorgverleners niet mogen vervangen worden door sociale
robots. Sociale robots mogen enkel gebruikt worden ter assistentie van het zorgpersoneel. Dit
komt overeen met het onderzoek van Misselhorn et al. (2013) die tevens stelden dat een robot
zorg of therapie niet mag vervangen. Een oorzaak hiervan kan het feit zijn dat mensen beter
zijn in bepaalde taken. Sociale robots zijn immers technisch beperkt. Uit het onderzoek kan ook
geconcludeerd worden dat sociale robots positief kunnen zijn voor het mentale welzijn van de
ouderen. Orejana et al. haalden dit effect reeds aan in 2015. Echter, R05 haalde aan dat de inzet
van sociale robots zou leiden tot huidhonger bij ouderen. Aanrakingen zijn immers beperkt tot
onbestaande bij de interactie met sociale robots, terwijl dit toch noodzakelijk is. Hierbij gaf de
respondent het voorbeeld van baby’s in Joegoslavië of Hongarije die weinig of geen aaitjes en
aanrakingen kregen door personeelstekort, waardoor ze stierven. Uit de literatuur bleek reeds
dat een van de gelijkenissen tussen ouderen en kinderen de wens tot sociaal contact is (Frennert
& Östlund, 2014).
De taken die volgens de experten in dit onderzoek vervangen mogen worden, zijn niet-
zorgtaken en het sociale aspect binnen de zorg. Orejana et al. (2015) stelden dat sociale robots
geschikt zijn om ouderen te herinneren aan de inname van medicatie. Dergelijke niet-zorgtaken
werden door vijf van de negen respondenten aangehaald. Volgens Lutz en Tamò (2015) vormen
werd dit ook aangehaald door Darling (2012) die sprak over manipulatie. Hierbij vervaagt het
onderscheid tussen echt en vals (Subramanian, 2017).
Daarnaast stelden Misselhorn et al. (2013) zich de vraag of de druk zal toenemen om
zorgverleners te vervangen door sociale robots naarmate ze meer geaccepteerd geraken.
Volgens een meerderheid van de experten binnen dit onderzoek, zal deze druk weldegelijk
toenemen. Hierbij gaat het om maatschappelijke, financiële en politieke druk.
Verder blijken sociale robots in staat te zijn om waardevolle interactie te voeren met ouderen.
Vooral de bevordering van de levenskwaliteit kan gezien worden als een van de vereisten, opdat
een interactie als waardevol kan beschouwd worden. Er dient echter wel opgemerkt te worden
dat dit persoonlijk is en het beter gevraagd wordt aan de ouderen zelf. Frennert en Östlund
stelden in 2014 reeds dat het perspectief van ouderen in acht moet genomen worden om beter
te voldoen aan hun behoeften bij sociale robots. R09 stelde dat dementerenden waarschijnlijk
veel plezier zullen hebben aan het zeehondje PARO. De respondent voegde hieraan toe dat het
wel waarde heeft, maar dit nog altijd geen symmetrische communicatie is zoals bij menselijke
interactie. Het belang van wederkerigheid opdat oprechte sociale interactie mogelijk zou zijn,
werd reeds aangehaald in de literatuur door Misselhorn et al. (2013). Sociale robots zullen dan
ook zowel een positieve als negatieve impact hebben op de evolutie van menselijke
communicatie.
Uit dit onderzoek blijkt dat sociale robots morele competenties kunnen bezitten, indien
deze geprogrammeerd worden. De belangrijkste hierbij zijn onze eigen waarden en geen
immoraliteit. Morele competenties zouden noodzakelijk zijn opdat er communicatie zou
plaatsvinden tussen een robot en een mens. Dit kon echter niet bevestigd worden in dit
onderzoek. Daarnaast stelden Malle en Scheutz (2014) dat het onzeker is of robots in staat zijn
om morele competenties te leren. Binnen dit onderzoek haalden dan ook vier respondenten aan
dat sociale robots tot op heden niet-zelflerend te zijn.
5.2 Wetgeving, aansprakelijkheid en rechtspersoonlijkheid van sociale robots
Tijdens de diepte-interviews gaven alle negen respondenten aan dat sociale robots niet
aansprakelijk kunnen gesteld worden. In de literatuur stelde Subramanian (2017) dat die
aansprakelijkheid van sociale robots kan vergeleken worden met dat van bedrijven. Echter,
vlak van aansprakelijkheid. Ook binnen dit onderzoek is er geen eenduidig antwoord hierop.
Slechts een kleine meerderheid van de respondenten vond dat deze vergelijking met bedrijven
terecht is. Het is namelijk niet duidelijk hoe sociale robots gestraft zouden kunnen worden,
volgens de respondenten. Dit werd ook aangehaald in het werk van Eidenmüller (2017).
Daarnaast maakte Asaro (2007) de vergelijking van minderjarigen en robots. Minderjarigen
kunnen namelijk gezien worden als quasi-personen (Asaro, 2007). Uiteindelijk vonden de
respondenten de vergelijking met dieren de beste vergelijking op vlak van aansprakelijkheid.
Dit onderzoek bevestigt tevens de studie van Eidenmüller (2017) die stelde dat robots
geen rechtspersoonlijkheid dienen toegekend te krijgen. De redenen hiervoor waren
uiteenlopend, maar wellicht komt dit doordat robots geen levende wezens zijn en geen besluiten
kunnen nemen uit zichzelf. Ook bij de vraag of sociale robots enkel rechten en plichten zouden
toegekend moeten krijgen, waren alle respondenten het unaniem mee eens dat dit niet hoeft.
Voor de correcte ethische werking kan besloten worden dat de fabrikant verantwoordelijk is.
Dit bevestigt het onderzoek van Gelin (2015) die stelde dat de fabrikant moet zorgen voor een
veilige robot.
Verder kan volgens dit onderzoek gesteld worden dat ouderen vaak automatisch een sociale
robot zullen gaan vertrouwen. Hierbij stelden een groot deel van de respondenten dat privacy
en hacking belangrijke problemen kunnen vormen. Volgens R01 zullen ouderen immers
geheimen vertellen aan de robot en deze data wordt dan ergens opgeslagen. Ook Lutz en Tamò
haalden reeds in 2015 aan dat robots een bedreiging kunnen vormen voor de privacy.
Subramanian schreef in 2017 over het belang van privacy van gegevens en dat dit gerespecteerd
moet worden. Salem et al. (2015) stelden tevens dat ouderen geneigd zijn om robots blindelings
te vertrouwen, aangezien ze de perceptie hebben dat robots altijd correct zijn. Kennis over de
robot is in dit geval dan ook aangeraden volgens twee van de negen respondenten.
Volgens Salem et al. (2015) kunnen daarom licenties of opleidingen potentieel een
oplossing zijn. Uit de diepte-interviews bleken zes van de negen respondenten dergelijke
oneerlijkheid, bijvoorbeeld als de fabrikant onterecht vrijgesteld wordt van een eventuele
schuld. Bovendien zouden eigenaars van sociale robots dergelijke wetgeving kunnen zien als
extra last (Asaro, 2007). Echter, dit onderzoek toont aan dat een wetgeving weldegelijk
wenselijk is. Dit zou er moeten komen op Europees niveau en voordat sociale robots op grote
schaal geïmplementeerd worden in de maatschappij. Daarbij dient echter opgemerkt te worden
dat er geen overmatige regulatie mag gebeuren die innovatie zou beperken. Volgens
Subramanian (2017) zouden sociale robots in staat zijn om de bestaande wettelijke constructen
te wijzigen. Eidenmüller (2017) stelde dat een robotregulering robot- en context specifiek dient
te zijn, maar dit werd niet bevestigd in dit onderzoek.
5.3 De vergelijking van sociale robots met dieren
Coghan et al. (2019) stelden dat een wetgeving ter bescherming van sociale robots voordelig
kan zijn. Bovendien schreef Darling in 2012 dat deze bescherming analoog kan zijn aan
dierenbescherming. Echter, dit onderzoek toont aan dat experten vinden dat sociale robots niet
beschermd moeten worden. De redenen hiervoor zijn onder andere dat sociale robots niet-
sensitief zijn en geen bewustzijn hebben. Daarnaast werd er ook aangehaald dat dergelijke
bescherming nefast kan zijn voor innovatie.
Darling (2012) haalde de stelling van Kant aan die beweert dat dierenmishandeling zou leiden
tot het slecht behandelen van mensen. Echter, binnen dit onderzoek gingen vijf van de negen
respondenten hier niet akkoord mee. Deze bevinding bevestigt wat Johnson en Verdicchio
(2018) schreven over de vergelijking van sociale robots met dieren. Deze auteurs stelden
immers dat deze vergelijking zorgt voor misleiding, onder andere bij de impact op hoe mensen
elkaar zouden behandelen. Volgens hen hebben robots geen gevoelens en zijn ze daarom niet
te vergelijken met dieren.
Deze stelling van Kant kan ook doorgetrokken worden naar sociale robots toe. Coghlan
et al. (2019) stelde dat in de toekomst sociale robots mogelijks een invloed zouden hebben op
menselijk gedrag ten opzichte van onder andere de medemens. Dit zou betekenen dat wie een
sociale robot slecht behandelt, tevens mensen slecht zou behandelen. Echter, dit onderzoek
toont aan dat vijf van de negen respondenten hier niet akkoord mee gaan. De redenen hiervoor
van een robot of dat mensen een robot zien als plastic of metaal. Omwille van die redenen zou
het gedrag ten opzichte van een robot dan ook niet bepalend zijn voor het gedrag ten opzichte
van andere mensen.
Dat kinderen beïnvloed zouden worden door sociale robots werd wel bevestigd binnen
dit onderzoek. Maar liefst zeven van de acht respondenten stelde dat deze weldegelijk een
impact hebben op de deugd en ondeugd van kinderen.
5.4 Beperkingen van het onderzoek en toekomstig onderzoek
Tenslotte zijn er binnen dit onderzoek meerdere beperkingen. Ten eerste kan het beperkt aantal
respondenten gezien worden als de grootste beperking. Toekomstig onderzoek met meer
experten wordt dan ook aangeraden. Er werden bovendien geen mensen uit de juridische wereld
bevraagd, wat in toekomstig onderzoek wel zou moeten gebeuren. Op die manier kan er
eventueel gepeild worden naar hoe een wetgeving rond sociale robots eruit zou moeten zien.
De antwoordmogelijkheden bij de vragen vormen tevens een beperking. Gezien het feit
dat er gewerkt werd met open vragen, waren de antwoorden van de respondenten zeer
uiteenlopend. Gestandaardiseerde antwoordmogelijkheden zouden in de toekomst kunnen
bijdragen tot beter vergelijkbare resultaten en duidelijkere verbanden.
Er wordt ook aangeraden om in de toekomst onderzoek te doen naar ethiek bij een
specifieke sociale robot. Dit omwille van het feit dat sociale robots zeer ruim opgevat kunnen
worden en hierdoor minder eenduidige antwoorden verkregen worden bij bepaalde ethische
kwesties.
Ten slotte zou men tevens onderzoek kunnen verrichten naar de ontwikkeling van robots
die ingezet worden bij ouderen en in de zorg. Uit dit onderzoek blijken de programmeur en de
fabrikant immers een grote rol te spelen als het aankomt op ethiek. Hierbij zou men rekening
kunnen houden met de, al dan niet ethische, bezorgdheden van ouderen over het gebruik van
sociale robots. Er zijn dan ook weinig studies die onderzoeken wat voor technologiegebruikers
In document
Een juridische blik op ethische kwesties bij sociale robots
(pagina 89-94)