• No results found

Hoofdstuk 9. Bestendigheid van de juridische kaders

10.2 Bestendigheid juridisch kader

Het juridisch kader dat de inzet van algoritmen reguleert is, evenals de kansen en risico’s, grotendeels domeinspecifiek. Bij zelfrijdende auto’s speelt bijvoorbeeld het aansprakelijkheidsrecht een belangrijke rol, terwijl bij contentmoderatie ook rekening gehouden moet worden met de vrijheid van meningsuiting. Dat betekent dat bij de inzet van algoritmen niet alleen per domein of toepassing andere publieke waarden kunnen spelen (en tegen elkaar afgewogen moeten worden), maar dat daarbij ook steeds andere regelgeving geldt.

Uit het door ons uitgevoerde onderzoek volgt dat de algemene juridisch kaders, zoals de AVG, de Awb en het aansprakelijkheidsrecht op hoofdlijnen voldoende in staat zijn om publieke waarden en belangen te borgen. Deze kaders bestaan voor een belangrijk deel uit brede en open geformuleerde normen waarvan wij verwachten dat zij ontwikkelingen op het gebied van algoritmische besluitvorming kunnen absorberen. De breed en open geformuleerde normen maken het bovendien mogelijk om de juridische kaders ten aanzien van een zich snel ontwikkelende technologie geleidelijk en flexibel vorm te geven. Daarvoor is wel vereist dat de nodige rechtsontwikkeling plaatsheeft, door bijvoorbeeld rechters en toezichthouders, waarmee een op algoritmen toegesneden uitleg of interpretatie wordt gegeven aan deze algemene kaders.

Wij stellen echter wel vast dat bij bepaalde algemene normen knelpunten kunnen bestaan ten aanzien van het voorkomen en mitigeren van risico’s. De vraag is bijvoorbeeld of de AVG voldoende waarborgen biedt in gevallen van geïndividualiseerde besluitvorming die niet volstrekt geautomatiseerd is, maar waarin de menselijke inbreng desalniettemin gering is. Daarnaast kunnen de strenge regels van de AVG met betrekking tot de verwerking van bijzondere categorieeën van persoonsgegevens in de weg staan aan het detecteren van discriminerende effecten van algoritmen, of zelfs verhinderen dat discrimininatie door algoritmen voorkomen wordt. Daarbij moet wel worden opgemerkt dat de Minister voor Rechtsbescherming in oktober 2019 heeft

194 aangegeven dat wordt overwogen om het verwerken van bijzondere categorieën persoonsgegevens toe te staan voor het voorkomen van onder meer discriminatie.

Uit de casestudy’s is verder gebleken dat zich knelpunten kunnen voordoen ten aanzien van de specifieke juridische kaders die van toepassing zijn in een bepaald domein. Uit de casestudy naar het modereren van hate speech volgt bijvoorbeeld dat de toepasselijke zelfreguleringscodes en aanbevelingen onvoldoende ruimte bieden om in te kunnen spelen op het gevaar van discriminatie dat zich kan voordoen. En uit de casestudy naar de zelfrijdende auto blijkt dat de bewijsregels in het productaansprakelijkheidsrecht mogelijk aanpassing behoeven om rechtsbescherming van slachtoffers ten goede te komen. Nadere regelgeving kan hier aangewezen zijn.

10.3 Slot

Zoals gezegd zal ten aanzien van de eventuele regulering van algoritmische besluitvorming steeds een integrale (beleids)afweging gemaakt moeten worden, waarbij wordt geïdentificeerd welke van de relevante kansen en risico’s zich voordoen en of het – in het licht van de behoeften, normen, waarden en belangen in een specifiek domein – mogelijk is om de risico’s te vermijden of te mitigeren, terwijl de kansen wel kunnen worden gerealiseerd. De weging van kansen en risico’s en het vinden van de balans daartussen is uiteindelijk een politiek proces.

Het juridisch kader dat daarvan het resultaat is, normeert en stuurt of en hoe algoritmen worden ingezet en heeft zo ook invloed op de mate waarin kansen en risico’s worden gerealiseerd of vermeden. Regelgeving dient daarom zo te worden geformuleerd dat verantwoorde innovatie op het gebied van algoritmische besluitvorming mogelijk is. Voorkomen moet daarbij in het bijzonder worden dat normen te veel worden toegespitst op reeds bestaande technologieën en zij geen ruimte laten voor nieuwe ontwikkelingen. Dergelijke regelgeving biedt namelijk enkel rechtszekerheid en -bescherming zolang de specifieke technologie ook daadwerkelijk gereguleerd wordt door de opgestelde regels. Als de betreffende technologieën zich ontwikkelen, bestaat de mogelijkheid dat de betrokken (technologiespecifieke) regulering niet meer actueel is en zodoende geen houvast meer biedt voor de wijze waarop met nieuwe ontwikkelingen moet worden omgegaan. Bovendien kan het gebruik van technologiespecifieke regelgeving het zicht op de onderliggende uitgangspunten en beginselen ontnemen, wat uiteindelijk de rechtsontwikkeling niet ten goede komt. De publieke waarden die de wetgever probeerde te waarborgen, komen dan door de snelle ontwikkeling van de technologie weer op het spel te staan.

Het lijkt ons daarnaast, in het licht van de bevindingen van dit onderzoek, niet zinvol om het juridisch kader in te richten op algoritmische besluitvorming in algemene zin. De algemene kaders zoals die momenteel beschikbaar zijn, vertonen namelijk geen grote tekortkomingen of structurele

195 problemen. Integendeel: gebleken is dat ze een aanzienlijk absorberend vermogen hebben, wat betekent dat ze ook bij de ontwikkeling en inzet van nieuwe technologieën richting kunnen bieden. De casestudy’s laten bovendien zien dat de kansen en risico’s voor alle onderzochte publieke waarden en belangen sterk afhankelijk zijn van het domein en de organisatorische context waarin een algoritme wordt ingezet. Ook ten aanzien van de gevolgen die de inzet van algoritmen heeft voor mensen laten de toepassingen in de casestudy’s zich niet eenvoudig vergelijken. De waardering van kansen en risico’s van algoritmische besluitvorming is met name afhankelijk van de ernst van de gevolgen die dergelijke besluitvorming kan hebben en de mate waarin herstel mogelijk is. Zo is het onterecht bellen van een schuldenaar door een CJIB-medewerker van een andere orde dan een verkeersongeluk dat een zelfrijdende auto veroorzaakt door een verkeerde interpretatie in de sensoriek van de auto. Ook valt het modereerproces van online platformen, waarin algoritmen redengevend zijn maar niet zelf beslissen, niet te vergelijken met algoritmen die rechterlijke uitspraken automatisch kunnen anonimiseren. In alle gevallen worden de kansen en risico’s die uit de inzet van algoritmen voortvloeien dus sterk gekleurd door het domein en de organisatorische context waarin de algoritmen worden ingezet. Nadere algemene regelstelling heeft voor het bestrijden van risico’s voor de publieke waarden dan ook nauwelijks meerwaarde. De kansen en risico’s voor publieke waarden en belangen moeten vooral in het licht van de dynamiek in een domein en de verhoudingen tussen betrokken partijen in kaart worden gebracht en gewogen. Het voorgaande pleit er volgens ons dan ook voor om, daar waar knelpunten worden ervaren, deze knelpunten zo veel mogelijk domeinspecifiek aan te pakken. Alleen op die manier kan voldoende recht worden gedaan aan de specifieke kansen en risico’s voor de specifieke publieke waarden en belangen die op het spel staan.

197

Bijlage 1. Begeleidingscommissie

Voorzitter

prof. mr. A.R. Lodder, hoogleraar internet governance and regulation, Vrije Universiteit

Leden

D. Frijters MA, BSc, MT-lid & programma- en teammanager ECP | Platform voor de InformatieSamenleving

mr. E.C. van Ginkel, projectbegeleider, WODC

L. Kool MSc, MA, coördinator Digitale Samenleving, Rathenau Instituut prof. mr. V. Mak, hoogleraar privaatrecht, Tilburg University