• No results found

3 Instrument of actor?

In document Automatisch contracteren (pagina 42-62)

In dit hoofdstuk wordt uiteengezet dat er in de juridische literatuur twee benaderingen zijn waar te nemen met betrekking tot de vraag op welke wijze de handelingen van een geautomatiseerd systeem dienen te worden toegere-kend, te weten de instrumentbenadering en de actorbenadering. Het onderscheid tussen de instrumentbenadering en de actorbenadering is een kwestie die vooraf gaat aan juridische analyses. In het vervolg van dit hoofdstuk betoog ik dat de kwalificatie van een geautomatiseerd systeem als een instrument of als een actor niet automatisch een juridische kwalificatie met zich mee dient te brengen. Als een geautomatiseerd systeem als een actor wordt gezien, dan betekent dit dus niet automatisch dat het systeem als een rechtssubject wordt gekwalificeerd en aansprakelijk kan worden gesteld. Met de behandeling van de instrumentbenadering en de actorbenadering wordt een theoretische basis gelegd voor de verdere behandeling van de onderzoeksvragen 1, 2 en 3. De verdere behandeling vindt plaats in de hoofdstukken 5, 6, 7 en 8.

De instrumentbenadering en de actorbenadering komen in respectievelijk paragraaf 3.1 en 3.2 aan de orde. In paragraaf 3.3 wordt ingegaan op de juridische consequenties van de actorbenadering. In paragraaf 3.4 worden de conclusies van dit hoofdstuk op een rij gezet.

3.1 DE INSTRUMENTBENADERING

Bij de instrumentbenadering wordt het geautomatiseerd systeem als een instrument van een natuurlijk persoon gezien. Er wordt gekeken naar de feitelijke handelingen en intenties die de natuurlijk persoon heeft gehad, en aan de hand daarvan wordt contractuele gebondenheid toegerekend. In het vorige hoofdstuk is het geautomatiseerd systeem omschreven als een systeem dat zonder directe menselijke tussenkomst handelingen verricht, waaraan een natuurlijk persoon randvoorwaarden heeft gesteld. De feitelijke handelingen en intenties van de natuurlijk persoon, zijn – uiteraard – voor een groot deel kenbaar uit de randvoorwaarden die de natuurlijk persoon het systeem mee-geeft.

3.2 DE ACTORBENADERING

De actorbenadering houdt in dat het geautomatiseerd systeem wordt gezien als een deelnemer aan het maatschappelijk verkeer. Deze premisse wordt in de literatuur soms aangenomen voorafgaand aan een juridische analyse. Ik spreek in dat soort gevallen van de actorpremisse. Sommige auteurs benoemen deze actorpremisse expliciet, anderen gaan er stilzwijgend vanuit. Hierna geef ik enkele voorbeelden. Allen en Widdison gaan expliciet uit van de actor-premisse. Zij spreken van de computer als “active participant in the electronic trading process.”1Weitzenboeck stelt: “agreements will no longer be generated

through machines, but by them.”2Soms lijkt het geautomatiseerd systeem ook meteen als rechtssubject te worden gekwalificeerd. Zo signaleert Lerouge het probleem dat een geautomatiseerd systeem niet aansprakelijk kan worden gesteld en dat dit een belemmering is bij het contracteren met behulp van een geautomatiseerd systeem. Het daadwerkelijke probleem formuleert hij vervol-gens als volgt:

‘(…) [A]ccepting the fact that a machine could autonomously be a party in a contract would generate liability problems in case of non-performance or error.’3

Bij het analyseren van de vraag of de inzet van een geautomatiseerd systeem problemen oplevert, neemt Lerouge aldus als gegeven aan dat het systeem als partij bij de overeenkomst wordt geaccepteerd en dus als rechtssubject wordt gekwalificeerd.

De actorpremisse blijkt ook uit de antropomorfe wijze waarop geautomati-seerde systemen worden omschreven.4Dit wil zeggen dat zij in menselijke termen worden omschreven. Een antropomorfe beschrijving brengt uiteraard met zich mee dat het geautomatiseerd systeem als zelfstandig individu wordt gezien. Het probleem waartoe dit uitgangspunt leidt, is dat wat het geautomati-seerd systeem daadwerkelijk doet uit het oog kan worden verloren. Finocchiaro geeft de volgende twee voorbeelden.

‘I. The ‘software agent’ Mr. X, expert and trustworthy, concludes a contract online for the sale of a book on the well-known website Y.com on behalf of Mr. Z. II. Mr. Z. opens the program X, which he has been using for some time, and buys a book from the company Y via the internet.’5

Dit zijn volgens Finocchiaro twee manieren om dezelfde gebeurtenis te beschrij-ven. Het eerste voorbeeld omschrijft het computerprogramma X in

antropomor-1 Allen & Widdison 1996, p. 27. 2 Weitzenboeck 2001, p. 6. 3 Lerouge 1999, p. 407.

4 Zie bijvoorbeeld Kerr 1999, p. 203-204. 5 Finocchiaro 2003, p. 21.

Hoofdstuk 3 31

fe termen, het tweede voorbeeld is meer feitelijk. Finocchiaro wijst er terecht op dat het eerste voorbeeld misleidend is.6 Door het computerprogramma als een persoon voor te stellen, wordt de precieze werking van het computer-programma en de invloed van de gebruiker op de handelingen van het pro-gramma niet duidelijk weergegeven.

De actorpremisse blijkt ook uit de juridische obstakels die sommige auteurs zien met betrekking tot de vraag of met behulp van een geautomatiseerd systeem een overeenkomst kan worden aangegaan. Zij zien de volgende vier obstakels die de totstandkoming van een overeenkomst kunnen belemmeren:

1 een geautomatiseerd systeem is geen rechtssubject;7

2 een geautomatiseerd systeem heeft geen eigen wil om te uiten waardoor er geen sprake kan zijn van wilsovereenstemming;8

3 een geautomatiseerd systeem is niet handelingsbekwaam;9 en, tot slot,

4 een geautomatiseerd systeem kan niet aansprakelijk worden gesteld.10 Door de juridische probleemstelling op deze manier te formuleren, wordt er geïmpliceerd dat er kennelijk alleen een overeenkomst kan worden aangegaan met behulp van een geautomatiseerd systeem, indien:

1 het geautomatiseerd systeem een rechtssubject is;

2 het een eigen wil heeft;

3 het handelingsbekwaam is; en/of

4 het zelf aansprakelijk gesteld kan worden.

De (impliciete dan wel expliciete) aanname van de actorpremisse is vergelijk-baar met wat de filosoof Dennett de intentional stance noemt.11Zijn onderzoek richt zich voornamelijk op de filosofie en de cognitiewetenschap en in het bijzonder op onderwerpen als vrije wil, bewustzijn en evolutietheorie. Dennett onderscheidt bij het verklaren van de wereld om ons heen drie niveaus of standpunten: de physical stance, de design stance, en de intentional stance. Dit onderscheid is ook hier relevant. De drie niveaus kunnen worden gebruikt bij het verklaren van het handelen van computersystemen. Bij de physical stance kijken we naar het fysische systeem van een computersysteem. Het gaat om de nullen en enen en de fysieke schakelingen. Vanuit de physical stance kan het functioneren van een geautomatiseerd systeem tot op de komma worden voorspeld, maar dit gebeurt op een erg omslachtige wijze. Computersystemen zijn te gecompliceerd om vanuit dit standpunt snel voorspellingen te kunnen

6 Finocchiaro 2003, p. 21: “Personalizing the ‘software agent’ can mislead the interpreter and induce suggestion”, aldus Finocchiaro.

7 Kerr 1999, p. 210-211; Kerr 2001, p. 187-190.

8 Allen & Widdison 1996, p. 30; Kerr 1999, 212-214 ; Lerouge 1999, p. 406-407; Weitzenboeck 2001, p. 7.

9 Kerr 1999, p. 211 ; Weitzenboeck 2001, p. 6-7. 10 Lerouge 1999, p. 406-407.

doen over de wijze waarop men verwacht dat het computersysteem zal hande-len. Vanuit de design stance kijken we naar het ontwerp en de functie van een geautomatiseerd systeem. Hiermee kan meestal het functioneren van een geautomatiseerd systeem sneller worden verklaard dan met de physical stance. Neem de thermostaat. Het zal voor de gemiddelde gebruiker van een thermo-staat onnodig complicerend zijn om de werking ervan uit te leggen aan de hand van de physical stance. Hij zal daarvoor immers op de hoogte moeten zijn van de precieze natuurwetenschappelijke werking van de thermostaat. Er is echter geen inzicht op dat niveau nodig om toch nuttig gebruik te kunnen maken van een thermostaat, daarvoor volstaat de design stance: een thermostaat dient ertoe een bepaalde ruimte op een bepaalde temperatuur te houden. Hoe een thermostaat dat precies doet, hoeft de gebruiker niet te weten om er gebruik van te kunnen maken. Dit geldt ook voor bijvoorbeeld televisietoestel-len, wekkers, horloges, computers, enzovoort. De intentional stance tenslotte houdt in dat we aan geautomatiseerde systemen onder meer overtuigingen en intenties toekennen.

‘Here’s how it works: first you decide to treat the object whose behaviour is to be predicted as a rational agent; then you figure out what beliefs that agent ought to have, given its place in the world and its purpose. Then you figure out what desires it ought to have, on the same considerations, and finally you predict that this rational agent will act to further its goals in the light of its beliefs. A little practical reasoning from the chosen set of beliefs and desires will in many – but not all – instances yield a decision about what the agent ought to do; that is what you predict the agent will do.’12

Bij het voorbeeld van de thermostaat betekent dit dat we zeggen: “Het is nu 14 graden in huis. De verwarming slaat aan, want de thermostaat wil dat het 20 graden is en hij weet dat 14 graden te koud is.”

De drie standpunten bieden steeds een hoger niveau van abstractie. Het voordeel is dat een hoger niveau ons sneller in staat stelt de wereld om ons heen te begrijpen. Met de design stance snappen we sneller waartoe een thermo-staat dient dan wanneer we uitgaan van de physical stance. Het uitgaan van een hoger abstractieniveau is echter nadelig wanneer het ons niet helpt een systeem beter te begrijpen. Het helpt de gebruiker van een thermostaat niet indien hij aan het apparaat een eigen wil toekent.

De drie stances van Dennett kunnen ook worden toegepast op het hierboven genoemde voorbeeld van Finocchiaro. Het hogere abstractieniveau van de

design stance helpt een computergebruiker om een computerprogramma te

begrijpen en te gebruiken. Het lagere niveau van de physical stance is voor de gemiddelde gebruiker te omslachtig, ook al kan op dit laagste niveau het functioneren van het programma tot op de komma nauwkeurig worden

Hoofdstuk 3 33

voorzien. Naar mijn mening speelt ook bij het voorbeeld van Finocchiaro het probleem dat een hoger abstractieniveau geen toegevoegde waarde heeft. Het kan juist een uitleg over de werking van een geautomatiseerd systeem vertroe-belen. Door een computerprogramma als een actor te zien er daardoor een wil en bedoelingen aan toe te kennen, kan de werking ervan minder duidelijk worden.

De vraag of een geautomatiseerd systeem als actor dan wel als instrument moet worden gezien, wordt in juridische publicaties niet vaak expliciet aan de orde gesteld. In Nederlandse literatuur is de vraag kort aan de orde geweest in een discussie tussen Hage13 en Dietz14. Kernvraag van het betoog van Hage is of een computer in sociale zin kan handelen, oftewel of de computer als actor kan optreden. Hage bespreekt hiertoe de door hem geïntroduceerde conventietheorie. Deze theorie houdt in dat wat als handeling heeft te gelden, bepaald wordt door sociale conventies. Hage stelt echter dat er nog geen eenduidige sociale conventies zijn aan de hand waarvan beoordeeld kan worden of een computer kan handelen. De theoretische vraag of computers überhaupt zouden kunnen handelen, wordt door Hage echter bevestigend beantwoord. Dietz daarentegen verwerpt deze mogelijkheid. Alleen mensen kunnen volgens Dietz de rol van actor vervullen. Dietz:

‘Dat vind ik omdat ik het toekennen van bevoegdheid tot (sociaal) handelen en het opleggen van de daarbij behorende verantwoordelijkheid aan artefacten princi-pieel onaanvaardbaar acht. De computer is slechts een middel om de interactie tussen sociale actoren tot stand te brengen, en een uitbreiding of vervanging van de rationele capaciteit van mensen.’15

Dietz laat de mogelijkheid open dat in de toekomst aan computers wel degelijk de rol van actor kan worden toegeschreven, maar “alleen indien wij mensen er gezamenlijk toe zouden besluiten artefacten tot volwaardige sociale indivi-duen te verklaren.”16Het verschil in opvatting tussen Hage en Dietz komt erop neer dat Dietz het niet uitsluit dat machines ooit als actor gekwalificeerd zullen worden, maar dat daar op dit moment nog geen sprake van kan zijn. Voor Hage ligt dat tijdstip dichterbij in de tijd.

Dietz en Hage lijken het handelen van een systeem en de kwalificatie ervan als actor als één en hetzelfde te zien. Naar mijn mening kan daar nog onder-scheid in worden gemaakt. Bijvoorbeeld wanneer een koper op een website een bestelling plaatst, dan wordt de bestelling automatisch in ontvangst genomen, bevestigd en verder verwerkt. Dat zijn feitelijke handelingen waar op het moment van verrichten geen natuurlijk persoon aan te pas komt. Het

13 Hage 1997, p. 219-223. 14 Dietz 1998, p. 25-26. 15 Dietz 1998, p. 25. 16 Dietz 1998, p. 25.

feit dat een geautomatiseerd systeem feitelijke handelingen verricht, betekent echter nog niet dat dit systeem een volwaardig sociaal individu is.

Dietz stipt terecht aan dat het om een principiële kwestie gaat. Indien machines als actoren worden behandeld, dan verlaten we het standpunt dat machines worden gemaakt om de mens te dienen. Dit is een interessant onderwerp waarover Fockema Andreae reeds in 1969 het volgende standpunt innam:

‘(…) Uitgangspunt moet zijn dat de computer een machine is, een produkt van menselijk vernuft. De mens schiep zich deze machine om zekere handelingen zelf niet meer te hoeven verrichten, of om handelingen sneller en precieser te doen verrichten. De machine neemt bepaalde werkzaamheden van een mens over, maar is beslist geen substituut voor die mens zelf.’17

Hoewel ik mij kan vinden in de verwerping van de actorbenadering door Dietz en Fockema Andreae, introduceert Fockema Andreae een argument waarin ik mij niet kan vinden. Hij spreekt namelijk ook over de computer als substituut van de mens. Hoe dan ook, naar mijn mening zijn er twee argumenten tegen de actorbenadering, te weten:

1 met de actorbenadering wordt dat wat een systeem precies doet, uit het oog verloren;

2 de actorbenadering levert vooralsnog geen voordelen op die zo zwaar wegen dat eventuele nadelen van de benadering voor lief moeten worden genomen.

Angst voor substitutie van de mens door de computer lijkt mij voorlopig geen relevante reden om de actorbenadering af te wijzen.

De principiële standpunten van Dietz en Fockema Andreae kunnen worden afgezet tegen de visie van Lodder. Lodder lijkt het geautomatiseerd systeem zonder enige moeite als actor te zien. Hij geeft in een bijdrage met de veelzeg-gende titel Man and machine: what’s the difference het volveelzeg-gende voorbeeld.

‘Ik vraag aan mijn collega Voulon of hij Jurisprudentie Internetrecht (het boek –MBV) zo voordelig mogelijk voor mij wil aanschaffen. Enkele dagen later heb ik het betreffende boek in mijn bezit. Nu geef ik mijn computerprogramma Noluov de opdracht voor mij Jurisprudentie Internetrecht op internet te kopen voor een zo laag mogelijke prijs. Enkele dagen later wordt het boek bij mij bezorgd. In beide voor-beelden geef ik een vergelijkbare opdracht en zie ik na verloop van enige tijd het tastbare resultaat. Wat is er in de tussentijd gebeurd: een boek is gekocht. Is nu mijn programma geen actor? Is mijn collega een instrument?’18

17 A.D.H. Fockema Andreae, “Weerstanden tegen computergebruik, speciaal op juridisch terrein”, Ars Aequi (18) 1969, p. 545. Volgens Fockema Andreae leidt het antropomorf voorstellen van computersystemen tot gevoelens van wantrouwen tegen automatisering. 18 A.R. Lodder, “Man and machine: what’s the difference”, JAVI 2004/1, p. 20.

Hoofdstuk 3 35

Lodder verzet zich vervolgens tegen het toepassen van de instrumentbenade-ring op casus als de bovenstaande.19Het lijkt erop dat Lodder van mening is dat een geautomatiseerd systeem als actor dient te worden behandeld zodra het systeem zelfstandig kan handelen. Naar mijn mening kan Lodders vraag, “What’s the difference?”, in de lijn van de standpunten van Dietz en Fockema Andreae als volgt worden beantwoord. Het punt is dat machines per definitie de mens dienen. Geautomatiseerde systemen worden niet gecreëerd om ze ten eigen bate handelingsvrijheid te geven.

3.3 JURIDISCHE GEVOLGEN VAN DE ACTORPREMISSE

Het is van belang vast te stellen dat beantwoording van de vraag of een object al dan niet als ‘actor’ dient te worden aangemerkt, niet automatisch juridische kwalificaties met zich meebrengt. Het kwalificeren van een object als actor leidt niet dwingend tot de juridische consequentie dat het object bijvoorbeeld als rechtssubject of gevolmachtigde gezien dient te worden. Scholten heeft reeds in 1940 met betrekking tot rechtspersonen en rechtssubjecten de volgende opmerking gemaakt:

‘“Rechtspersoon”, “rechtssubject” zijn rechtsbegrippen. Dit schijnt vanzelfsprekend, toch dient het met eenigen nadruk voorop te worden gesteld. Men meent veelal eerst – buiten het recht om – het persoonsbegrip te moeten ontleden en dan pas zich tot het recht te moeten wenden. Dit is niet juist.’20

Naar mijn mening kan gelet op deze opvatting evenzeer met betrekking tot de vraag of een geautomatiseerd systeem als rechtssubject of als gevolmachtig-de aangemerkt kan worgevolmachtig-den, dat het antwoord vanuit het recht dient te worgevolmachtig-den benaderd. De vaststelling dat een geautomatiseerd systeem een ‘actor’ is, wat dat dan ook betekent, kan daarom niet zonder meer een bepaalde juridische kwalificatie – bijvoorbeeld rechtssubjectiviteit – met zich meebrengen. Ook als iets niet als een ‘actor’ wordt aangemerkt, betekent dat nog niet dat datgene

niet als rechtssubject aangemerkt zou kunnen worden. Het is bijvoorbeeld

verdedigbaar te stellen dat een rechtspersoon21geen actor is. Het zijn immers de natuurlijke personen in de onderneming die handelen. Als wordt aangeno-men dat een rechtspersoon wel een actor is, dat is dat enkel het geval omdat de rechtpersoon ‘door’ natuurlijke personen handelt. Toch biedt het praktische voordelen om een organisatorisch verband rechtspersoonlijkheid te verlenen, bijvoorbeeld in de vorm van eenBV. De vraag óf iets als rechtssubject

gekwali-19 Idem.

20 Asser/Scholten 1-II 1940, p. 60.

ficeerd dient te worden, moet echter vanuit het recht zelf beantwoord worden en niet buiten het recht om.

3.4 HOOFDSTUKCONCLUSIE

Bij het onderzoek naar de vraag wanneer er contractuele gebondenheid op-treedt indien gebruik worden gemaakt van een geautomatiseerd systeem, kan het geautomatiseerd systeem als instrument of als actor worden benaderd. De instrumentbenadering houdt in dat het geautomatiseerd systeem als een instrument van een natuurlijk persoon wordt gezien. Er wordt gekeken naar de feitelijke handelingen en intenties die de natuurlijk persoon heeft gehad, en aan de hand daarvan wordt contractuele gebondenheid toegerekend. Bij de actorbenadering wordt het geautomatiseerd systeem als zelfstandig individu gezien. Om tot contractuele gebondenheid te komen, 1) dient het geautomati-seerd systeem dan ook wellicht als rechtsubject gezien te worden, 2) dient het wellicht een eigen wil te hebben, 3) dient het wellicht handelingsbekwaam te zijn en 4) dient het wellicht aansprakelijk gesteld te kunnen worden, afhan-kelijk van de precieze wijze waarop toerekening plaatsvindt. Volgens mij dient ervan te worden uitgegaan dat de kwalificatie van een geautomatiseerd sys-teem tot instrument of actor, niet automatisch een juridische kwalificatie met zich mee brengt. Indien wordt uitgegaan van de actorbenadering leidt dit niet meteen tot rechtssubjectiviteit voor het geautomatiseerd systeem.

Naar mijn mening zijn er twee argumenten aan te voeren die tegen toepas-sing van de actorbenadering pleiten. In de eerste plaats vertroebelt de actor-benadering de werking en het handelen van een geautomatiseerd systeem. Dit is onder meer betoogd aan de hand van de drie stances van Dennett: een hoger abstractieniveau kan helpen om het functioneren van een geautomati-seerd systeem te duiden. Wordt echter een te hoog abstractieniveau gekozen, dan wordt de precieze werking van een systeem en de invloed daarop door de gebruiker niet duidelijk weergegeven. In de tweede plaats levert het gebruik van de actorbenadering geen voordelen op die zo zwaar wegen dat de nadelen van de benadering voor lief moeten worden genomen. Op basis van deze waarnemingen en deze argumenten dient er naar mijn mening dan ook te

In document Automatisch contracteren (pagina 42-62)