• No results found

Op basis van dit onderzoek werden er meerdere ondervindingen gedaan over ethische kwesties

bij sociale robots. Dit gebeurde op drie vlakken, namelijk de ouderenzorg, wetgeving en de

vergelijking met dieren. De bevindingen zullen dan ook in die volgorde aan bod komen.

Tenslotte zal er besproken worden wat de beperkingen van dit onderzoek zijn en welke

onderzoeken omtrent deze thematiek kunnen plaatsvinden in de toekomst.

5.1 Vervanging binnen de ouderenzorg

Ten eerste blijkt uit dit onderzoek dat zorgverleners niet mogen vervangen worden door sociale

robots. Sociale robots mogen enkel gebruikt worden ter assistentie van het zorgpersoneel. Dit

komt overeen met het onderzoek van Misselhorn et al. (2013) die tevens stelden dat een robot

zorg of therapie niet mag vervangen. Een oorzaak hiervan kan het feit zijn dat mensen beter

zijn in bepaalde taken. Sociale robots zijn immers technisch beperkt. Uit het onderzoek kan ook

geconcludeerd worden dat sociale robots positief kunnen zijn voor het mentale welzijn van de

ouderen. Orejana et al. haalden dit effect reeds aan in 2015. Echter, R05 haalde aan dat de inzet

van sociale robots zou leiden tot huidhonger bij ouderen. Aanrakingen zijn immers beperkt tot

onbestaande bij de interactie met sociale robots, terwijl dit toch noodzakelijk is. Hierbij gaf de

respondent het voorbeeld van baby’s in Joegoslavië of Hongarije die weinig of geen aaitjes en

aanrakingen kregen door personeelstekort, waardoor ze stierven. Uit de literatuur bleek reeds

dat een van de gelijkenissen tussen ouderen en kinderen de wens tot sociaal contact is (Frennert

& Östlund, 2014).

De taken die volgens de experten in dit onderzoek vervangen mogen worden, zijn niet-

zorgtaken en het sociale aspect binnen de zorg. Orejana et al. (2015) stelden dat sociale robots

geschikt zijn om ouderen te herinneren aan de inname van medicatie. Dergelijke niet-zorgtaken

werden door vijf van de negen respondenten aangehaald. Volgens Lutz en Tamò (2015) vormen

werd dit ook aangehaald door Darling (2012) die sprak over manipulatie. Hierbij vervaagt het

onderscheid tussen echt en vals (Subramanian, 2017).

Daarnaast stelden Misselhorn et al. (2013) zich de vraag of de druk zal toenemen om

zorgverleners te vervangen door sociale robots naarmate ze meer geaccepteerd geraken.

Volgens een meerderheid van de experten binnen dit onderzoek, zal deze druk weldegelijk

toenemen. Hierbij gaat het om maatschappelijke, financiële en politieke druk.

Verder blijken sociale robots in staat te zijn om waardevolle interactie te voeren met ouderen.

Vooral de bevordering van de levenskwaliteit kan gezien worden als een van de vereisten, opdat

een interactie als waardevol kan beschouwd worden. Er dient echter wel opgemerkt te worden

dat dit persoonlijk is en het beter gevraagd wordt aan de ouderen zelf. Frennert en Östlund

stelden in 2014 reeds dat het perspectief van ouderen in acht moet genomen worden om beter

te voldoen aan hun behoeften bij sociale robots. R09 stelde dat dementerenden waarschijnlijk

veel plezier zullen hebben aan het zeehondje PARO. De respondent voegde hieraan toe dat het

wel waarde heeft, maar dit nog altijd geen symmetrische communicatie is zoals bij menselijke

interactie. Het belang van wederkerigheid opdat oprechte sociale interactie mogelijk zou zijn,

werd reeds aangehaald in de literatuur door Misselhorn et al. (2013). Sociale robots zullen dan

ook zowel een positieve als negatieve impact hebben op de evolutie van menselijke

communicatie.

Uit dit onderzoek blijkt dat sociale robots morele competenties kunnen bezitten, indien

deze geprogrammeerd worden. De belangrijkste hierbij zijn onze eigen waarden en geen

immoraliteit. Morele competenties zouden noodzakelijk zijn opdat er communicatie zou

plaatsvinden tussen een robot en een mens. Dit kon echter niet bevestigd worden in dit

onderzoek. Daarnaast stelden Malle en Scheutz (2014) dat het onzeker is of robots in staat zijn

om morele competenties te leren. Binnen dit onderzoek haalden dan ook vier respondenten aan

dat sociale robots tot op heden niet-zelflerend te zijn.

5.2 Wetgeving, aansprakelijkheid en rechtspersoonlijkheid van sociale robots

Tijdens de diepte-interviews gaven alle negen respondenten aan dat sociale robots niet

aansprakelijk kunnen gesteld worden. In de literatuur stelde Subramanian (2017) dat die

aansprakelijkheid van sociale robots kan vergeleken worden met dat van bedrijven. Echter,

vlak van aansprakelijkheid. Ook binnen dit onderzoek is er geen eenduidig antwoord hierop.

Slechts een kleine meerderheid van de respondenten vond dat deze vergelijking met bedrijven

terecht is. Het is namelijk niet duidelijk hoe sociale robots gestraft zouden kunnen worden,

volgens de respondenten. Dit werd ook aangehaald in het werk van Eidenmüller (2017).

Daarnaast maakte Asaro (2007) de vergelijking van minderjarigen en robots. Minderjarigen

kunnen namelijk gezien worden als quasi-personen (Asaro, 2007). Uiteindelijk vonden de

respondenten de vergelijking met dieren de beste vergelijking op vlak van aansprakelijkheid.

Dit onderzoek bevestigt tevens de studie van Eidenmüller (2017) die stelde dat robots

geen rechtspersoonlijkheid dienen toegekend te krijgen. De redenen hiervoor waren

uiteenlopend, maar wellicht komt dit doordat robots geen levende wezens zijn en geen besluiten

kunnen nemen uit zichzelf. Ook bij de vraag of sociale robots enkel rechten en plichten zouden

toegekend moeten krijgen, waren alle respondenten het unaniem mee eens dat dit niet hoeft.

Voor de correcte ethische werking kan besloten worden dat de fabrikant verantwoordelijk is.

Dit bevestigt het onderzoek van Gelin (2015) die stelde dat de fabrikant moet zorgen voor een

veilige robot.

Verder kan volgens dit onderzoek gesteld worden dat ouderen vaak automatisch een sociale

robot zullen gaan vertrouwen. Hierbij stelden een groot deel van de respondenten dat privacy

en hacking belangrijke problemen kunnen vormen. Volgens R01 zullen ouderen immers

geheimen vertellen aan de robot en deze data wordt dan ergens opgeslagen. Ook Lutz en Tamò

haalden reeds in 2015 aan dat robots een bedreiging kunnen vormen voor de privacy.

Subramanian schreef in 2017 over het belang van privacy van gegevens en dat dit gerespecteerd

moet worden. Salem et al. (2015) stelden tevens dat ouderen geneigd zijn om robots blindelings

te vertrouwen, aangezien ze de perceptie hebben dat robots altijd correct zijn. Kennis over de

robot is in dit geval dan ook aangeraden volgens twee van de negen respondenten.

Volgens Salem et al. (2015) kunnen daarom licenties of opleidingen potentieel een

oplossing zijn. Uit de diepte-interviews bleken zes van de negen respondenten dergelijke

oneerlijkheid, bijvoorbeeld als de fabrikant onterecht vrijgesteld wordt van een eventuele

schuld. Bovendien zouden eigenaars van sociale robots dergelijke wetgeving kunnen zien als

extra last (Asaro, 2007). Echter, dit onderzoek toont aan dat een wetgeving weldegelijk

wenselijk is. Dit zou er moeten komen op Europees niveau en voordat sociale robots op grote

schaal geïmplementeerd worden in de maatschappij. Daarbij dient echter opgemerkt te worden

dat er geen overmatige regulatie mag gebeuren die innovatie zou beperken. Volgens

Subramanian (2017) zouden sociale robots in staat zijn om de bestaande wettelijke constructen

te wijzigen. Eidenmüller (2017) stelde dat een robotregulering robot- en context specifiek dient

te zijn, maar dit werd niet bevestigd in dit onderzoek.

5.3 De vergelijking van sociale robots met dieren

Coghan et al. (2019) stelden dat een wetgeving ter bescherming van sociale robots voordelig

kan zijn. Bovendien schreef Darling in 2012 dat deze bescherming analoog kan zijn aan

dierenbescherming. Echter, dit onderzoek toont aan dat experten vinden dat sociale robots niet

beschermd moeten worden. De redenen hiervoor zijn onder andere dat sociale robots niet-

sensitief zijn en geen bewustzijn hebben. Daarnaast werd er ook aangehaald dat dergelijke

bescherming nefast kan zijn voor innovatie.

Darling (2012) haalde de stelling van Kant aan die beweert dat dierenmishandeling zou leiden

tot het slecht behandelen van mensen. Echter, binnen dit onderzoek gingen vijf van de negen

respondenten hier niet akkoord mee. Deze bevinding bevestigt wat Johnson en Verdicchio

(2018) schreven over de vergelijking van sociale robots met dieren. Deze auteurs stelden

immers dat deze vergelijking zorgt voor misleiding, onder andere bij de impact op hoe mensen

elkaar zouden behandelen. Volgens hen hebben robots geen gevoelens en zijn ze daarom niet

te vergelijken met dieren.

Deze stelling van Kant kan ook doorgetrokken worden naar sociale robots toe. Coghlan

et al. (2019) stelde dat in de toekomst sociale robots mogelijks een invloed zouden hebben op

menselijk gedrag ten opzichte van onder andere de medemens. Dit zou betekenen dat wie een

sociale robot slecht behandelt, tevens mensen slecht zou behandelen. Echter, dit onderzoek

toont aan dat vijf van de negen respondenten hier niet akkoord mee gaan. De redenen hiervoor

van een robot of dat mensen een robot zien als plastic of metaal. Omwille van die redenen zou

het gedrag ten opzichte van een robot dan ook niet bepalend zijn voor het gedrag ten opzichte

van andere mensen.

Dat kinderen beïnvloed zouden worden door sociale robots werd wel bevestigd binnen

dit onderzoek. Maar liefst zeven van de acht respondenten stelde dat deze weldegelijk een

impact hebben op de deugd en ondeugd van kinderen.

5.4 Beperkingen van het onderzoek en toekomstig onderzoek

Tenslotte zijn er binnen dit onderzoek meerdere beperkingen. Ten eerste kan het beperkt aantal

respondenten gezien worden als de grootste beperking. Toekomstig onderzoek met meer

experten wordt dan ook aangeraden. Er werden bovendien geen mensen uit de juridische wereld

bevraagd, wat in toekomstig onderzoek wel zou moeten gebeuren. Op die manier kan er

eventueel gepeild worden naar hoe een wetgeving rond sociale robots eruit zou moeten zien.

De antwoordmogelijkheden bij de vragen vormen tevens een beperking. Gezien het feit

dat er gewerkt werd met open vragen, waren de antwoorden van de respondenten zeer

uiteenlopend. Gestandaardiseerde antwoordmogelijkheden zouden in de toekomst kunnen

bijdragen tot beter vergelijkbare resultaten en duidelijkere verbanden.

Er wordt ook aangeraden om in de toekomst onderzoek te doen naar ethiek bij een

specifieke sociale robot. Dit omwille van het feit dat sociale robots zeer ruim opgevat kunnen

worden en hierdoor minder eenduidige antwoorden verkregen worden bij bepaalde ethische

kwesties.

Ten slotte zou men tevens onderzoek kunnen verrichten naar de ontwikkeling van robots

die ingezet worden bij ouderen en in de zorg. Uit dit onderzoek blijken de programmeur en de

fabrikant immers een grote rol te spelen als het aankomt op ethiek. Hierbij zou men rekening

kunnen houden met de, al dan niet ethische, bezorgdheden van ouderen over het gebruik van

sociale robots. Er zijn dan ook weinig studies die onderzoeken wat voor technologiegebruikers