• No results found

Discriminerende algoritmes

N/A
N/A
Protected

Academic year: 2021

Share "Discriminerende algoritmes"

Copied!
2
0
0

Bezig met laden.... (Bekijk nu de volledige tekst)

Hele tekst

(1)

Tilburg University

Discriminerende algoritmes

Prins, Corien

Published in:

Nederlands Juristenblad

Publication date:

2021

Document Version

Publisher's PDF, also known as Version of record

Link to publication in Tilburg University Research Portal

Citation for published version (APA):

Prins, C. (2021). Discriminerende algoritmes. Nederlands Juristenblad , 96(20), 1454.

General rights

Copyright and moral rights for the publications made accessible in the public portal are retained by the authors and/or other copyright owners and it is a condition of accessing publications that users recognise and abide by the legal requirements associated with these rights. • Users may download and print one copy of any publication from the public portal for the purpose of private study or research. • You may not further distribute the material or use it for any profit-making activity or commercial gain

• You may freely distribute the URL identifying the publication in the public portal

Take down policy

If you believe that this document breaches copyright please contact us providing details, and we will remove access to the work immediately and investigate your claim.

(2)

NEDERLANDS JURISTENBLAD − 21-5-2021 − AFL. 20

1637

Vooraf

Het Vooraf staat ook op njb.nl/blogs

1454

Discriminerende algoritmes

Afgelopen maand toonden zowel de Europese commissie als de Tweede Kamer zich streng in het stellen van regels voor de inzet van algorit-mes en kunstmatige intelligentie (AI). Maar waar Europa zich realistisch toont, lijkt het handelen van onze volksver-tegenwoordigers ingegeven door huiver. Huiver die contra-productief kan uitwerken.

De Commissie presenteerde op 21 april j.l. een con-cept voor de Verordening die de ontwikkeling en het gebruik van AI moet regelen (COM(2021) 206 final).1 Over-duidelijk toont de Commissie ambitie, zowel in reikwijdte als de inhoud van de normering. Expliciet verwijst ze daar-bij naar het belang van fundamentele rechten en de risico’s die bepaalde AI-toepassingen met zich meebrengen, zoals discriminatie en willekeurige massa-surveillance. Om bur-gers tegen dergelijke risico’s te beschermen worden in arti-kel 5 diverse toepassingen verboden, waaronder applicaties die kwetsbare personen uitbuiten, willekeurige massa- surveillance voor rechtshandhaving, social scoring (zoals het welbekende sociaal kredietsysteem van de Chinese regering) en schadelijke manipulatie.

Het voorgestelde verbod op deze toepassingen is onderdeel van een risicoclassificatie in vier typen. Behalve de voornoemde applicaties die als onacceptabel worden aangemerkt, gaat het om toepassingen met respectievelijk een minimaal risico, een beperkt risico en een hoog risico. Om tot een concrete risicoclassificatie te komen hanteert de Commissie diverse criteria: het beoogde doel en de reik-wijdte van het gebruik van de betreffende toepassing, het aantal personen dat daaraan wordt onderworpen en de implicaties van de toepassing (waaronder onomkeerbaar-heid van schade). Relevant voor de classificatie is ook de mate waarin Uniewetgeving reeds voorziet in effectieve maatregelen om risico’s te adresseren. Opvallend is dat de classificatie strenger zal uitvallen voor het gebruik van AI binnen de publieke sector dan de private sector. Vanuit de afhankelijke positie waarin de burger zich ten opzichte van de overheid bevindt valt dat te begrijpen. Maar wie kijkt naar de mogelijkheden die grote tech-bedrijven zich toe-eigenen (en ook krijgen) tot surveillance binnen de open-bare ruimte, zal vraagtekens stellen bij dit verschil in uit-werking tussen de publieke en private sector.

Maar afgezien hiervan: belangrijk is vast te stellen dat de Commissie strenge of mindere strenge regels toepast afhankelijk van de functie, het beoogde doel en de modali-teiten van de AI-toepassing. Met andere woorden: de Com-missie kijkt niet alleen naar sec de technologie en vanuit een generiek oordeel over het gebruik, maar juist naar de specifieke context.

Hoe anders is de insteek van de Tweede Kamer in de oproep ‘te stoppen met het gebruik van discriminerende algoritmes’. De oproep is onderdeel van een meeromvatten-de motie die op 29 april j.l. met een ruime meermeeromvatten-derheid van stemmen werd aangenomen als uitvloeisel van de parle-mentaire discussie over de notulen van de ministerraad in de Toeslagenaffaire.2 Bij de Toeslagenaffaire vertrouwden ambtenaren veelal op computermodellen aan de hand waarvan burgers geautomatiseerd werden beoordeeld. Maar een deel van deze modellen bleek achteraf gevoelig

voor etnisch profileren, wat discriminatie faciliteerde. De oorzaak daarvan lag onder meer in de registratie door de Belastingdienst van de dubbele nationaliteit van bijna anderhalf miljoen Nederlanders. Alhoewel onrechtmatig, werd deze registratie gebruikt voor fraude- en handha-vingsonderzoek. Aldus werden duizenden burgers extra onder de loep genomen gegeven het vermeende risico dat uitging van hun tweede nationaliteit, zo bleek uit een onderzoek van de Autoriteit Persoonsgegevens (AP).3 De voorzitter van de AP waarschuwde de leden van de Tweede Kamer afgelopen januari nog eens expliciet voor discrimi-nerende algoritmes.

Afgaande op een rapport van de Algemene Reken-kamer, eveneens van januari, valt het momenteel wel mee met de hoeveelheid discriminerende algoritmes binnen de rijksoverheid.4 De rijksoverheid hanteert slechts vrij simpe-le algoritmes, bijvoorbeeld voor de afhandeling van corres-pondentie. De Rekenkamer trof geen zelflerende algoritmes aan. Mijn inschatting is dat de risico’s voor de rechtsbe-scherming daarom vooralsnog veeleer van doen hebben met de houding van mensen dan met het handelen van technologie. De Rekenkamer constateerde immers dat ambtenaren te weinig oog hebben voor de potentieel dis-criminerende effecten van computermodellen en zich veel-al achter die modellen verschuilen. Met andere woorden, ambtenaren bieden onvoldoende weerstand aan een moge-lijk vooringenomen uitwerking van de technologie. En inderdaad, op het moment dat algoritmes wel breed inge-zet worden, levert juist deze ambtelijke houding in de com-binatie met slimme (maar nog steeds soms domme) syste-men grote risico’s voor de rechtsbescherming op. Belangrijk daarom is het kader dat de Algemene Rekenkamer ontwik-kelde om algoritmes te toetsen. Dat richt zich op aspecten van sturing en verantwoording, gehanteerde modellen en data, opslag en toegang, informatievoorziening aan burgers, bezwaar- en beroepsmogelijkheden alsmede priva-cy-waarborgen. Maar ook bevat het ethische vragen. Want vanzelfsprekend moet discriminatie worden voorkomen als daardoor burgers in de verdrukking komen en ten onrechte worden gestereotypeerd en gediscrimineerd. Maar een algemeen verbod kan ook contraproductief werken. Het betekent dat rechtmatig gebruik van algoritmes om gericht positief te discrimineren, of om te zoeken naar risicogroe-pen met betrekking tot slachtofferschap van onder andere mensenhandel niet meer mogelijk is.

Of het ligt aan het huidige politieke wantrouwen in Den Haag, ik weet het niet. Maar het is jammer dat de leden van de Tweede Kamer in het debat over discrimine-rende algoritmes niet een houding van nuchterheid en ver-dieping hebben getoond. De boeman op voorhand in de technologie zochten. Geen oog hadden voor mogelijkheden tot nuancering, bijvoorbeeld aan de hand van het door de Algemene Rekenkamer ontwikkelde kader. Goed dat de Europese Commissie anders in het debat staat en breder kijkt dan sec de technologie.

Corien Prins

1. De noten zijn te vinden bij de online versie op www.njb.nl/blogs/discriminerende-algoritmes/

Referenties

GERELATEERDE DOCUMENTEN

Wiskunde in machines COMPUTER 2.0 Er is ondertussen een nieuw soort computer in de maak, de kwantumcomputer. Die werkt ook met nullen en enen, maar rekent er op een heel

Hero Balancer heeft bij ongeveer 40 onderzocht wat de huidige waardes voor de binnentemperatuur, het CO 2 -gehalte en de relatieve luchtvochtigheid zijn en of

Het opvangen van andere negatieve maatschappelijke bijeffecten wordt gezien als een taak voor de overheid, door middel van regulering; maar zeker ook niet te veel, en

Deze bepalingen maken echter niet duidelijk wanneer een computer-generated werk voldoende creatief zou (kunnen) zijn om voor auteursrechtelijke bescherming in aanmerking te komen..

We bekijken het volgende algoritme voor het Common Superstring probleem, dat vraagt naar een (zo kort mo- gelijke) string die een stel gegeven strings bevat: Neem herhaald de twee

Hoe kun je deze heuristieken gebruiken in het A* algoritme om de brandweerman zo snel mogelijk naar het vuur te leiden (aangenomen dat hij al minder dan 100 meter van de

Als heuristiek voor de afstand van een punt in het huis naar de brand op zolder wordt het volgende gebruikt: de euclidische afstand tot de dichtsbijzijnde trap maal het

Toch kun je ook zeggen dat Deep Blue niet echt intelligent is omdat het voornamelijk gebruik maakt van brute force om de beste zetten te vinden en niet begrijpt waarom een zet goed