• No results found

Wat zijn de problemen die zich voordoen of gaan voordoen?

5 Is een nieuwe invulling van de maatman nodig?

5.2 Wat zijn de problemen die zich voordoen of gaan voordoen?

In de praktijk blijkt het vaak lastig om het handelen van algoritmes te toetsen.126 Het is namelijk

niet voor iedereen begrijpelijk wat een algoritme is, hoe het werkt en hoe het is gemaakt. Men mist de expertise om het algoritme te begrijpen. Het is niet altijd duidelijk hoe een algoritme bij een specifieke uitkomst heeft gehandeld.127 Het wordt nog lastiger als algoritmes met elkaar verbonden

zijn. Een voorbeeld hiervan is als een algoritme voortbouwt op de resultaten van een ander algoritme.128 Door het machine learning vermogen gaan algoritmes zichzelf voeden met data en

deze processen zijn niet altijd meer te volgen door mensen.129 Een andere reden kan zijn dat de

genomen stappen van het algoritme niet goed zijn genoteerd. Ook is het vaak zo dat algoritmes geheim zijn. Bedrijven en overheden kiezen uit commerciële- of veiligheidsredenen voor om hun algoritmes geheim te houden.130 Algoritmes worden vaak als black box gezien. Wat er aan data in

wordt gestopt en welk resultaat er uitkomt, is bekend, maar het tussenliggende proces is niet te doorgronden. De complexiteit en de ondoorzichtigheid maken het soms onmogelijk om te achterhalen en begrijpen hoe het algoritme heeft gehandeld.131

125Vedder & Naudts 2017, p. 208-210. 126Prins & Van der Roest 2018, p. 263-264. 127Wagner 2017, p. 5.

128Vetzo, Gerards en Nehmelman 2018, p. 49. 129 PWC, Het Financieel Dagblad.

130Kroll 2017, p. 636. 131Pasquale 2015.

De factoren die de maatman invullen, kunnen pas worden beoordeeld als het handelen van het algoritme transparant en begrijpelijk is. Voor een verbintenis met betrekking tot een inspanningsverplichting is het essentieel om het handelen achteraf te kunnen analyseren. Er dient namelijk onderzocht te worden hoeveel het algoritme zich heeft ingespannen. Als dit niet meer te achterhalen is, is het bijna onmogelijk te onderzoeken of het algoritme de juiste inspanning heeft geleverd. Dit is bij een resultaatsverplichting geen issue.132

De invulling van de norm bij het handelen door mensen is anders dan bij het handelen door algoritmes. De maatman vereist dat de opdrachtnemer enige deskundigheid heeft om de werkzaamheden te kunnen verrichten. De vraag is hoe men de deskundigheid van een algoritme kan bepalen. Bij mensen kan dit objectief worden waargenomen door bijvoorbeeld diploma’s of ervaring, maar bij algoritmes is dit anders. Algoritmes kunnen over een machine learning vermogen beschikken. Dit kan ertoe leiden dat het ene algoritme beter is getraind dan de andere. Daarnaast is een algoritme afhankelijk van de data die het tot zijn beschikking heeft. Heeft het veel data tot zijn beschikking dan kan het beter getraind worden, maar ook de kwaliteit van de data is van groot belang. De data kan namelijk een bias bevatten. Indien een algoritme slechts toegang heeft tot kwalitatief minder goede data dan wordt het daardoor minder goed getraind. ‘An

algorithm is only as good as the data it works with’.133 In de literatuur wordt ook wel gesproken

van “garbage in, garbage out”, wat betekent dat wanneer slechte data in een algoritme wordt gestopt, dat ook tot een slecht resultaat leidt.134 Ook het algoritme zelf kan een bias bevatten.135

Indien het algoritme niet de benodigde deskundigheid bezit dan moeten extra voorzorgsmaatregelen worden getroffen om alsnog te zorgen voor een redelijke kans van slagen van de opdracht. De huidige maatman gaat ervan uit dat de handelende persoon de voorzorgsmaatregelen neemt, maar het lijkt mij niet realistisch dat een algoritme zijn eigen voorzorgsmaatregelen neemt of extra kennis verwerft.

De gedragscodes en regelgeving voor de specifieke branches spelen een belangrijke rol bij de invulling van de maatman. Wanneer de huidige gedragscodes voor advocaten en de gedragscodes voor artsen worden bekeken, valt op dat weinig tot niets is opgenomen met betrekking tot het gebruik van algoritmes bij de werkzaamheden. Er bestaan dus geen concrete richtlijnen hoe moet worden omgegaan met situaties waarbij een algoritme is betrokken. Een gedragsregel zoals 1.8 van de KNMG vereist dat een arts aantekeningen van zijn geneeskundige handelen moet maken voor zover dit voor een goede hulpverlening noodzakelijk is. In de kern is dit een goede regel, maar deze zou gespecificeerd moeten worden indien het handelen door een algoritme zal worden uitgevoerd.

132Peter, in: GS Onrechtmatige daad VI.1.5 (online, laatst bijgewerkt op 19 juli 2017). 133Barocas & Selbst 2016, p. 671.

134Cherry 2016, p.2.

Daarnaast is transparantie van algoritmes belangrijk om te kunnen beoordelen of voldaan is aan vereisten zoals kwaliteit, veiligheid en zorgvuldigheid.

Tot slot kan worden gezegd dat het toetsen van het handelen van een algoritme aan een redelijk bekwaam en redelijk handelend persoon op den duur niet meer houdbaar is. Het handelen van het algoritme zou op dit moment gemeten moeten worden aan de hand van de maatman die het menselijk handelen als maatstaf neemt. De vraag is of het op de lange termijn realistisch blijft om het handelen van een algoritme te vergelijken met het handelen van een mens. Mochten algoritmes op de lange termijn op bepaalde gebieden beter en sneller handelen dan mensen, dan is het niet meer logisch dit handelen aan het handelen van een mens te toetsen. De huidige maatman norm ligt dan waarschijnlijk te laag.