• No results found

2. Literatuurstudie

2.4 Sociale robots, ethiek en rechten

2.4.2 Robotethiek en wetgeving

Naast moraliteit, kan er ook verder worden ingegaan op robotethiek en de wetgeving daarrond.

Robotethiek is namelijk een relatief jonge filosofische discipline (Loh, 2019). Zoals reeds in

sectie 2.2.1 werd aangehaald, zijn alle robots machines. Machine ethiek focust zich op de

moraliteit van machines (Bendel, 2013). Robotethiek is dan ook een subcategorie van de

machine ethiek (Loh, 2019). De Artificiële Intelligentie Impact Assessment (AIIA) bevat een

plan van acht stappen, waarmee bedrijven inzicht kunnen verwerven over welke juridische en

ethische normen van belang zijn bij het creëren van AI-systemen en slimme robots (AIR, 2018).

Dit stappenplan wordt voorafgegaan door de Gedragscode Artificiële Intelligentie (GAI), een

twintigtal punten waaraan de ontwikkeling, maar ook het gebruik, van de kunstmatige

intelligentie moet voldoen (AIR, 2018). De GAI vormt dus de basis voor het raamwerk onder

AIIA. Ook bij de implementatie van AI kan de AIIA helpen bij het maken van beslissingen en

keuzes door de motieven die aan de basis liggen, te verhelderen (AIR, 2018). AIIA is nog niet

verplicht, maar kan wel ten goede komen bij rechtszaken over onder andere de

aansprakelijkheid van slimme robots of de verantwoordelijke bij bepaalde gebeurtenissen (AIR,

voornamelijk verder op veiligheidsvereisten van industriële, zorg- en medische robots (BSI,

2016). De standaard is voornamelijk bedoeld voor ontwerpers en managers die betrokken zijn

bij het ontwerp van robots, maar ook de gebruikers van het eindproduct zullen hier baat bij

hebben indien de richtlijnen effectief werden nageleefd (BSI, 2016).

Bovendien is in de medische en educatieve sector het potentieel van sociale robots hoog en zijn

dit tevens de sectoren waar ethiek van groot belang is (Senft, Lemaignan, Baxter, Bartlett, &

Belpaeme, 2019). Een sociale robot wordt bovendien beter geaccepteerd als teamlid, dan een

menselijke collega, wat leidt tot een stijging van de productiviteit (Vänni & Korpela, 2015).

Ook Senft et al. (2019) schrijven in hun werk dat de menselijke productiviteit zou stijgen. Dit

zou volgens de onderzoekers omwille van de autonomie van sociale robots zijn, maar ook

doordat fysische en cognitieve taken zouden kunnen overgelaten worden aan de robot. Daarbij

benadrukken de auteurs dat de sectoren waar sociale robots veel potentieel hebben, ook het

meest risico lopen op slechte functionerende autonome systemen. Dat laatste wordt versterkt

door ethische bezwaren (Senft et al., 2019). Mensen dienen immers deze autonome systemen

te vertrouwen (Salem, Lakatos, Amirabdollahian, & Dautenhahn, 2015). Dit vertrouwen houdt

in dat mensen de informatie die de sociale robot verschaft aanvaarden en de instructies van de

robot volgen (Salem et al., 2015). Er is geen eenduidige definitie van vertrouwen, maar

betrouwbaarheid en voorspelbaarheid zijn begrippen die vaak voorkomen bij de invulling van

het begrip. Daarom is het van belang dat robots via hun sociale handelingen een goede indruk

maken bij de mens, zodat mensen hen als betrouwbaar en veilig zien (Salem et al., 2015). Indien

dat niet het geval is, zouden mensen bijvoorbeeld de aanbevelingen van de robot weigeren op

te volgen (Salem et al., 2015). Echter, bij te veel vertrouwen in de sociale robot kunnen mensen

storingen of foutieve handelingen negeren, wat tevens ongewenst is (Salem et al., 2015). De

juiste balans tussen autonomie van een sociale robot en menselijke controle is cruciaal op

ethisch vlak, maar tevens een van de grootste uitdagingen (Senft et al., 2019). Salem et al.

(2015) stellen in hun onderzoek dan ook de vraag of opleidingen en licenties niet verplicht

zouden moeten zijn, aangezien de doelgroep van sociale robots doorgaans niet-deskundige

gebruikers zijn.

Ook schreef Asaro in 2007 dat de wettelijke verantwoordelijkheid voor handelingen van de

robot bij de persoon ligt die de robot toestemming geeft om namens hem te handelen, maar dit

inschatten of de gevolgen van de actie schade zullen veroorzaken of niet (Gelin, 2015). Indien

deze inschatting zou overgelaten worden aan de robot, dan moet de robot de

voorgeprogrammeerde ethische principes van de fabrikant volgen. Bijgevolg moet de gebruiker

zich aanpassen aan de ethiek van een ander (Gelin, 2015). Bijleren over de robot is

noodzakelijk, opdat de mens de robot zou kunnen besturen en niet omgekeerd (Gelin, 2015).

Echter, op vlak van aansprakelijkheid en verantwoordelijkheid bij schade toegebracht

door kunstmatige intelligente applicaties en robots, ontbreekt er een wettelijke regelgeving.

Daarom kan er gekeken worden naar Boek 6 Titel 3 Burgerlijk Wetboek inzake Onrechtmatige

daad (AIR, 2018). Hierbij is Artikel 6:162 BW van belang die zou kunnen toegepast worden in

het geval er schade is veroorzaakt door een robot en luidt als volgt:

“1. Hij die jegens een ander een onrechtmatige daad pleegt, welke hem kan worden

toegerekend, is verplicht de schade die de ander dientengevolge lijdt, te vergoeden.

2. Als onrechtmatige daad worden aangemerkt een inbreuk op een recht en een doen of

nalaten in strijd met een wettelijke plicht of met hetgeen volgens ongeschreven recht in

het maatschappelijk verkeer betaamt, een en ander behoudens de aanwezigheid van een

rechtvaardigingsgrond.

3. Een onrechtmatige daad kan aan de dader worden toegerekend, indien zij te wijten

is aan zijn schuld of aan een oorzaak.” (AIR, 2018).

Verder heeft een wetgeving ook nadelen. Zo kan het onterecht de fabrikant van de robot

vrijwaren van eventuele schuld voor bijvoorbeeld een foutief ontwerp of een programmeerfout

(Asaro, 2007). Daarnaast kunnen de eigenaars van robots door dergelijke wetgeving afgeschrikt

worden doordat het hen een last oplegt, waardoor de wenselijkheid voor de adoptie van robots

vermindert (Asaro, 2007). Darling schreef in 2012 dan ook dat een wetgeving voor sociale

robots pas wenselijk is als de meerderheid van de maatschappij hierom vraagt. Een wetgeving

toont namelijk aan welke normen en waarden mensen wensen af te dwingen binnen een

maatschappij (Luhmann & Kastner, 2004).

reeds gedefinieerd. Een toevoeging aan deze definitie is dat de robot ook op realistische wijze

moet kunnen reageren op mishandeling (Darling, 2012). Naast het definiëren van sociale robots,

zou er ook een afbakening moeten gebeuren van de term ‘mishandeling’ (Darling, 2012). Dit

vereist echter nog verder onderzoek in de toekomst (Darling, 2012).