• No results found

Vrijheidsrechten .1 Inleiding

In document Algoritmes en grondrechten (pagina 107-127)

- Datawaarneming door sensoren

III.3 Vrijheidsrechten .1 Inleiding

Hoewel het concept van indirecte discriminatie hierbij dus een oplossing kan bieden, is die zeker niet ideaal. Allereerst zijn er niet de voordelen die de specifiekere wetgeving over directe discriminatie heeft in termen van scherpe rechtvaardigheidseisen, rechtszekerheid, houvast voor werkgevers en aanbieders van diensten en goederen, en toetsbaarheid voor de rechter. Daarnaast werkt de construc-tie via indirecte discriminatie alleen goed wanneer er een voldoende groot aantal gevallen is om een discriminerend effecten te kunnen laten zien. De bewijslast die rust op de betrokkene is daarmee aan-zienlijk.

Verder is in hoofdstuk II toegelicht dat het voor het gelijkebehandelingsrecht niet uitmaakt of een ge-discrimineerde persoon daadwerkelijk beschikt over de kenmerken op grond waarvan hij of zij nadelig is behandeld.650 Discriminatie op grond van ‘vermeende’ persoonskenmerken is ook verboden, net als discriminatie op grond van het associëren van een persoon met de persoonskenmerken van iemand anders.651 Ook deze leerstukken zijn relevant voor het gebruik van Big Data-analyses. Ze impliceren bijvoorbeeld dat wanneer Facebook vacatureadvertenties afstemt op de vermeende homoseksualiteit van een gebruiker, sprake kan zijn van discriminatie, ook wanneer deze gebruiker zelf geen homosek-sueel is. Hetzelfde geldt als een algoritme aandacht blijkt te besteden aan het feit dat een sollicitant misschien niet zelf chronisch ziek is, maar wel zorg draagt voor iemand anders met een chronische ziekte.652

III.3 Vrijheidsrechten III.3.1 Inleiding

Hiervoor is ingegaan op de effecten van nieuwe, algoritme-gedreven technologieën voor de privacy en voor gelijkheidsrechten. Belangrijke effecten zijn er daarnaast voor de in hoofdstuk II onderscheiden andere vrijheidsrechten: de vrijheid van meningsuiting, de vrijheid van godsdienst, de demonstratie- vrijheid, de verenigingsvrijheid en het hieraan verwante kiesrecht. Hoewel deze grondrechten traditi- oneel vooral beschermen tegen inmenging door de staat, is duidelijk dat hieraan ook een zekere bete-kenis toekomt in verhoudingen tussen private spelers. Dit is van belang, nu blijkt dat onder meer Big Data-analyses door bedrijven een belangrijke rol kunnen spelen als het gaat om de uitoefening van de in hoofdstuk II beschreven vrijheidsrechten. In dit verband is ook van belang dat in hoofdstuk II is gebleken dat de staat zich niet alleen heeft te onthouden van onredelijke beperkingen van deze vrijhe- den, maar dat er ook positieve verplichtingen bestaan om ze actief te beschermen – ook tegen bedrij-ven of andere private actoren.

650 HvJ 17 juli 2008, zaak C-303/06, ECLI:EU:C:2008:415 (Coleman), EHRC 2008/108 m.nt. Hendriks, NJ 2008/501 m.nt.

Mok, TRA 2008 m.nt. Veldman. Zie hoofdstuk II, par. 2.2

651 Zie nader hoofdstuk II.

652 Zie het in hoofdstuk II, par. 2.1.3 gegeven voorbeeld.

In deze paragraaf wordt nader ingegaan op de impact van nieuwe technologieën voor de uitoefening en bescherming van deze grondrechten. Daarbij wordt grofweg dezelfde volgorde van bespreking ge-hanteerd als in hoofdstuk II. Vermeldenswaard is dat de vrijheid van godsdienst en levensovertuiging hier niet afzonderlijk wordt besproken. Voor zover het daarbij gaat om het ‘forum internum’, dus de gewetensvrijheid en het recht om een godsdienst te hebben (zonder die te uiten), is deze vrijheid al even aan de orde gekomen in paragraaf II.2. Voor zover het gaat om het ‘forum externum’ zijn er veel dwarsverbanden met de vrijheid van meningsuiting (bijvoorbeeld waar het gaat om het uiten van een godsdienst door het dragen van religieuze kleding of online religieuze uitingen), de vrijheid van ver-gadering, demonstratie of betoging (bijvoorbeeld waar het gaat om religieuze samenkomsten) of de vrijheid van vereniging (bijvoorbeeld waar het gaat om de erkenning of ontbinding van geloofsge-meenschappen). Uiteraard zijn er verschillen in regulering, zoals besproken in hoofdstuk II, maar deze verschillen zijn niet bijzonder relevant voor het onderhavige hoofdstuk.

III.3.2 Vrijheid van meningsuiting en vrijheid om informatie te ontvangen

Algoritmes hebben een potentieel grote impact op de vrijheid van meningsuiting in de digitale samen-leving. Hieronder wordt ingegaan op een drietal belangrijke knelpunten die in dit kader van belang zijn: (1) aantasting van de pluriformiteit en diversiteit van informatie en het ontstaan van ‘filterbub-bels’, (2) de mogelijkheden tot algoritmische censuur van digitale meningsuiting en (3) het chilling effect dat op kan treden door het Internet of Things (IoT) en de inzet van algoritmes in een Big Data-context. Daaraan voorafgaand wordt echter eerst een positief punt belicht, namelijk de toename van toegang tot informatie en van mogelijkheden om informatie te openbare en te verspreiden.

III.3.2.1 Vrijheid van meningsuiting en diversificatie van het media-aanbod

Lange tijd waren het vooral grote mediaconglomeraten die bepaalden welke informatie tot mensen kwam. De nieuwsvoorziening was in handen van kranten, dagbladen, radiostations en tv-zenders. Het Internet wordt gezien als een motor van pluralisme in informatievoorziening. In het digitale tijdperk hebben burgers idealiter toegang tot een grote hoeveelheid aan bronnen en standpunten en beschik-ken zij tevens over de mogelijkheid om zichzelf online vrijelijk te uiten.653 Digitale meningsuiting vindt vandaag de dag grotendeels plaats door middel van een private infrastructuur bestaande uit grote so-ciale media netwerken en invloedrijke zoekmachines. Bedrijven als Facebook, Google, YouTube en Twitter zijn niet primair zelf verantwoordelijk voor het produceren van ‘content’, maar richten zich op het verspreiden van informatie, nieuws, opinies en kennis geproduceerd door burgers zelf. Google’s PageRank-algoritme verwerkt ruim 3,5 miljard zoekopdrachten per dag en uit recent onderzoek blijkt dat 31% van de Nederlanders nieuws vindt via sociale media.654 De algoritmes die door deze bedrijven worden gebruikt, zijn verworden tot ‘poortwachters’ van vrije meningsuiting en informatievoorzie-ning.655 Hiermee zijn het niet langer primair de ‘choices, methods and subjectivities’ van traditionele mediabedrijven, maar die van algoritmes die bepalen welke informatie burgers bereikt.656

De hierboven weergegeven ontwikkelingen raken nauw aan de vrijheid van meningsuiting. Net als traditionele media moeten nieuwe intermediairs, zoals bedrijven die internetfora, zoekmachines, web-sites en sociale media beheren, de vrijheid hebben om naar eigen inzicht gedachten, gevoelens,

653 Zie in dit kader de Mededeling van de Commissie aan het Europees Parlement, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio's, Een Digitale Agenda voor Europa, Brussel 19 mei 2010, COM(2010)245, p. 34.

654 Zie respectievelijk http://www.internetlivestats.com/google-search-statistics/ (geraadpleegd op 22 januari 2018) en Newman e.a. 2016, p. 92.

655 Over ‘digital intermediaries’ als ‘gatekeepers’ zie o.a. Vīķe-Freiberga 2013, p. 27.

656 Gillespie 2014, p. 191.

informatie en feiten te delen.657 Het ligt vanuit de rationale van de vrijheid van meningsuiting in de rede dat ook activiteiten als het vindbaar maken, prioriteren en filteren van informatie kunnen worden gerekend tot het recht op vrijheid van meningsuiting van de rechtspersonen die eigenaar zijn van zoek-machines en sociale media.658 Of de nieuwe intermediairs deze bescherming ook altijd al krijgen, is overigens niet altijd duidelijk.659

Vanuit het perspectief van de vrijheid van meningsuiting is het verder een groot goed dat mensen door de nieuwe intermediairs zoveel middelen ter beschikking staan om hun gedachten, gevoelens en overtuigingen onder de aandacht te brengen. Sociale media hebben in de moderne democratische sa-menleving een belangrijke mobilisatie- en emancipatiefunctie – ze kunnen een belangrijke rol spelen bij het uitwisselen van meningen, opvattingen en inlichtingen of het organiseren van demonstraties (zie ook hierna, paragraaf III.3.3).660 Daarnaast kunnen Big Data leiden tot maatschappelijk gezien be-langrijke onthullingen, zoals de voorbeelden van klokkenluiders Assange en Snowden hebben laten zien, die aanvankelijk niet mogelijk waren.661 Het feit dat tegenwoordig iedereen journalistieke con- tent kan maken en kan verspreiden, maakt ook dat de media sterk zijn gedemocratiseerd en gediver-sificeerd, wat op zichzelf tot een groter en mogelijk meer onafhankelijk informatieaanbod kan lei-den.662

III.3.2.2 Pluriformiteit en onafhankelijkheid van informatie

Vindbaarheid van informatie

Het Internet heeft gezorgd voor een brede beschikbaarheid van informatie en ideeën. Ook nieuwe in- termediairs, zoals sociale media en zoekmachines, zijn steeds meer een essentiële schakel in het ver-schaffen van toegang tot informatie.663 Zoals hiervoor aangegeven, heeft dit geleid tot een waardevolle diversificatie van het media- en informatieaanbod. Vanuit het perspectief van het recht om informatie te ontvangen is ook dit als waardevol te beschouwen.664 Tegelijkertijd bestaan er risico’s voor de on-afhankelijkheid en pluriformiteit van de media, terwijl ook dat vanuit het perspectief van vrijheid van meningsuiting belangrijke waarden zijn.665

Een eerste knelpunt is gelegen in de online vindbaarheid van de informatie en ideeën.666 De be-langrijke positie van zoekmachines als Google, Yahoo! en Bing en sociale media als Facebook, Twitter en YouTube roept in dit kader grondrechtelijke vragen op. In paragraaf I.2.3.2, is gewezen op het ge- bruik van algoritmes die zoekresultaten prioriteren. Deze algoritmische prioritering bepaalt welke in-formatie we lezen, naar wie we luisteren en welke ideeën gehoord worden. Dergelijke prioritering is onvermijdelijk. Gelijke vindbaarheid van alle informatie is ondoenlijk en het is de taak van zoekmachi-nes en sociale media om bronnen te rangschikken en gebruikers in staat te stellen relevante informatie te vinden. De centrale grondrechtelijke vraag is welke standaarden door algoritmes worden gebruikt om informatie te prioriteren en of pluriformiteit en toegankelijkheid van informatie hiermee vol-doende gewaarborgd wordt.

De term ‘search engine bias’ is in dit verband bijzonder relevant. Deze term refereert aan de vele factoren die bepalen hoe zoekresultaten geprioriteerd en gemanipuleerd (kunnen) worden. Pasquale

657 In deze trant Special Rapporteur on Freedom of Opinion and Expression 2016, p. 15.

658 Zie ook hoofdstuk II, par.3.2.1.

659 AIV 2014, p. 29; zie ook de voorbeelden van verantwoordelijkheid van webforumbeheerders besproken in hoofdstuk II, par. 3.2.3.

660 AIV 2014, p. 30; AIV 2017, p. 29.

661 AIV 2014, p. 30.

662 AIV 2017, p. 29.

663 AIV 2014, p. 29. Zie ook Special Rapporteur on Freedom of Opinion and Expression 2017.

664 Zie over dit recht nader hoofdstuk II, par. 3.2.1.

665 AIV 2017, p. 29; zie ook hoofdstuk II, par. 3.2.2.

666 Van Hoboken 2012, p. 282.

en Oren onderscheiden hierbij ‘bias in the strong universal sense’ en ‘highly specific bias’.667 ‘Bias in the strong universal sense’ ziet op algoritmische criteria die universeel gelden en die een grote hoe-veelheid aan websites filteren en prioriteren. Dergelijke criteria geven, bedoeld of niet, voorrang aan de ene bron boven de andere. Deze vorm van prioritering begint reeds bij de selectie van webpagina’s die vindbaar zijn via zoekmachines. Niet alle websites zijn namelijk geïndexeerd, bijvoorbeeld omdat Google’s algoritme deze niet nuttig acht voor gebruikers, waardoor ze niet in de zoekresultaten te-rechtkomen.668 Het blijkt bovendien dat de algoritmes van zoekmachines reeds populaire bronnen prefereren, Engelstalige sites rangschikken boven anderstalige bronnen en ernaar neigen om commer-ciële informatiebronnen een hoge positie te geven in zoekopdrachten.669 De hoge prioritering van der-gelijke pagina’s gaat ten koste van de positie van andere websites en daarmee van de neutraliteit van de informatie die toegankelijk wordt gemaakt voor het publiek. Commerciële en politieke organisaties proberen de zoekresultaten van zoekmachines bovendien in hun voordeel te beïnvloeden.670 Zoekma-chineoptimalisatie (‘Search Engine Optimization’) is door dit alles inmiddels een belangrijke industrie, maar deze leidt niet altijd tot objectiviteit en neutraliteit van de aangeboden informatie. De financiële middelen van de organisaties achter websites kunnen een belangrijke rol spelen in de prioritering van zoekresultaten.671 Zo is klimaatverandering het onderwerp geworden van een online strijd tussen kli-maatsceptici en klimaatactivisten met Google als strijdveld. De New York Times schreef hierover: ‘The climate denial ads on Google come amid a wider effort — backed by wealthy conservatives, fossil fuel companies and right-wing think tanks — to discredit the prevailing science on global warming and to prevent action.’672 Zoekmachines zijn ontvankelijk voor commerciële invloeden. Zij zijn immers pri-vate bedrijven die voor hun winst grotendeels afhankelijk zijn van marketingstrategieën van financieel daadkrachtige actoren.

Naast deze ‘bias in the strong universal sense’ is er een ‘highly specific bias’ zichtbaar in de infor-matievoorziening bij gebruik van nieuwe technologieën. Deze categorie van ‘bias’ betreft gevallen waarin specifieke informatie een lagere (of hogere) ranking wordt toebedeeld en daardoor anders (minder goed of beter) wordt gepresenteerd. Zo spande de website Search King een procedure aan tegen Google nadat de site plotseling aanzienlijk was gedaald in Google’s weergave van zoekresultaten.

In de procedure liet Google de mogelijkheid open dat dit het gevolg was van het ‘targeten’ van de be-treffende website.673 Ook online-mediaplatforms kunnen specifieke bronnen algoritmisch of handma-tig ‘blacklisten’.674 In het verlengde hiervan ligt het algoritmisch ‘degraderen’ van bepaalde video’s of berichten. YouTube kan bijvoorbeeld weigeren suggestieve video’s opnemen in ‘most-watched’ lijsten of op de homepage van gebruikers. Ook kan een algoritme bepaalde gevoelige tweets eenvoudigweg niet als ‘trending’ aanmerken.675

Het is de vraag in hoeverre pluriformiteit en objectiviteit van informatie een belangrijk criterium is voor de algoritmes die worden gebruikt voor filtering en prioritering.676 Deze vormen van ‘bias’ en manipulatie kunnen ertoe leiden dat informatie niet neutraal en objectief wordt gepresenteerd, dat de stem van zwakkere partijen of minderheidsgroepen niet wordt gehoord, of dat onwelgevallige bron-nen niet langer niet langer zichtbaar zijn. In de hiervoor genoemde gevallen gaat het daarbij steeds om

667 Pasquale & Oren 2008.

668 Bozdag 2013, p. 214-215.

669 Gillespie 2014, p. 177.

670 AIV 2017, p. 29.

671 Van Hoboken 2012, p. 296 en 303-316.

672 New York Times, ‘How Climate Change Deniers Rise to the Top in Google Searches’, 29 December 2017, via:

https://www.nytimes.com/2017/12/29/climate/google-search-climate-change.html (laatst geraadpleegd 18 februari 2018).

673 Zie over de zaak en Google’s redenering in deze Grimmelmann, 2009, p. 945-947.

674 Bozdag 2013, p. 216-217.

675 Gillespie, p. 172.

676 Idem, p. 298.

het bieden van toegang van informatie door private partijen, maar het is denkbaar dat overheidsorga-nen op dezelfde manier de toegang tot informatie beïnvloeden, bijvoorbeeld wanneer de staat nauwe banden heeft met bepaalde (media-)bedrijven of wanneer sprake is van betrokkenheid bij prioritering of ‘blacklisting’.677 De representativiteit en diversiteit van informatievoorziening kunnen daardoor sterk onder druk komen te staan.678

Filterbubbels

‘Filterbubbels’ vormen een specifieke manifestatie van het hiervoor aangeduide risico. Sunstein wees al in 2001 op het gevaar van ‘information cocoons’.679 Burgers zouden het Internet gebruiken om slechts kennis te nemen van hun welgevallige meningen.680 Deze vorm van vrijwillige selectieve bloot-stelling kan worden aangeduid als ‘zelfgeselecteerde personalisatie’.681 In 2011 verscheen Pariser’s bestseller The Filter Bubble, waarin hij een aanverwant probleem aankaart. In toenemende mate per-sonaliseren websites, media-aanbieders, zoekmachines en sociale media de inhoud van hun platforms.

Op basis van beschikbare gegevens over gebruikers wordt daarbij via algoritmes bepaald in welke in-formatie iemand waarschijnlijk is geïnteresseerd. Dit leidt tot het ontstaan van ‘bellen’ of ‘bubbels’ met

‘a unique universe of information for each of us’.682 De filterbubbel wordt ook wel gekarakteriseerd als

‘vooraf geselecteerde personalisatie.’683 Het is met name deze vorm van personalisatie die in dit hoofd-stuk aandacht behoeft.

De grote hoeveelheid data die door en voor sociale media en andere actoren wordt verzameld stelt algoritmes in staat om informatievoorziening af te stemmen op de individuele gebruiker. In hoofdstuk I zijn reeds enkele voorbeelden vermeld van de werking van deze algoritmes. Associatie-algoritmes stellen bijvoorbeeld aanbieders van films, boeken of muziek in staat om producten aan te raden op basis van eerder keuzegedrag. Door middel van profilering kunnen sociale media zoals Facebook een uniek profiel van iedere gebruiker opstellen, waarop de inhoud van de ‘Newsfeed’ kan worden afge-stemd. De zoekresultaten worden daarbij niet alleen geprioriteerd (zoals hierboven al beschreven), maar ook gepersonaliseerd. Op basis van eerder gebruik van de zoekmachine verschillen de zichtbare resultaten voor eenzelfde zoekopdracht dan voor iedere gebruikers.684 In hun filterbubbel krijgen ge-bruikers daardoor enkel ‘content’ te zien die ‘in hun straatje past.’685 Opvattingen die niet gehuldigd worden door een gebruiker, komen daardoor niet in zijn of haar Newsfeed, en zoekresultaten of on-derwerpen die hem of haar niet aanspreken worden niet getoond.

De filterbubbel kan leiden tot ‘confirmation bias’. Het consumeren van informatie die onze opvat-tingen bevestigt is weliswaar eenvoudig en plezierig, maar verhindert genuanceerde meningsvorming.

Daarvoor zijn contrasterende opinies nodig die onze aannames in twijfel trekken.686 Doordat zij geen directe toegang meer hebben tot een pluriformiteit aan informatie, kunnen mensen ingekapseld raken in hun eigen opvattingen. Daardoor wordt ook de diversiteit en pluriformiteit in een democratische samenleving geraakt. Vooraf geselecteerde personalisatie blijkt polarisatie te versterken en delibera-tie en consensusvorming te bemoeilijken.687 Als algoritmes zo zijn ingericht dat ze alleen informatie laten zien waar gebruikers waarschijnlijk in geïnteresseerd zijn, verhindert dit gemakkelijke en brede kennisvergaring. Vooraf geprioriteerde en gepersonaliseerde informatie leidt bovendien tot

677 AIV 2017, p. 30; zie ook Morozov 2012.

678 Commissariaat voor de Media 2017, p. 46.

679 Sunstein 2001.

680 Idem.

681 Zuiderveen Borgesius e.a. 2016, p. 256.

682 Pariser 2011, p. 9.

683 Zuiderveen Borgesius e.a. 2016, p. 256.

684 Bozdag 2013, p. 209.

685 Commissariaat voor de Media 2017, p. 18.

686 Bozdag 2013, p. 218.

687 Vīķe-Freiberga e.a. 2013, p. 27; Zuiderveen Borgesius e.a. 2016, p. 260.

fragmentatie van informatievoorziening, wat uiteindelijk het recht van burgers beperkt om vrijelijk informatie te ontvangen.

Het negatieve effect van de hierboven beschreven fenomenen op de vrijheid van meningsuiting en de informatievrijheid wordt nog versterkt doordat de kwaliteit van de uitkomst van een zoekopdracht kan verschillen per gebruiker. De keuze van een gebruiker voor een specifieke zoekmachine, zijn of haar talenkennis en de mogelijkheid om zoekopdrachten te formuleren en herformuleren hebben een aanzienlijke invloed op, bijvoorbeeld, de diversiteit van zoekresultaten.688 Veel gebruikers van zoek-machines ontbreekt het aan de kennis en vaardigheden om te ontsnappen aan de nadelige effecten van door zoekmachines opgeworpen filterbubbels. Hetzelfde geldt voor nieuwsvoorziening via sociale me-dia. Dit is des te gevoeliger omdat belangstelling in nieuws en politiek veelal samen blijkt te hangen met opleidingsniveau en sociaaleconomische achtergrond.689 Daarmee is er een risico dat laagopgelei-den in mindere mate in staat zijn om te komen tot een brede blik op de maatschappij. Filterbubbels hebben zo dus ook een potentieel negatieve impact op de gelijke toegang tot pluriforme informatie.

De nadelige consequenties die filterbubbels kunnen hebben op de informatievoorziening en plurifor-miteit zijn in de literatuur al vaak genoemd. Belangrijk is wel te vermelden dat veel claims (nog) niet empirisch zijn onderbouwd. Het is onduidelijk in welke mate vooraf geselecteerde personalisatie voor-komt, of filterbubbels daadwerkelijk bestaan en welk effect zij hebben op mensen en hun gedrag.690 Dat neemt niet weg dat de potentiële invloed van filterbubbels groot is. Algoritmes, kunnen wanneer gecombineerd met grote hoeveelheden data over individuele burgers, een grote impact hebben op de vrijheid van meningsuiting van burgers.

III.3.2.3 Algoritmische censuur

Zoals hierboven beschreven heeft het prioriteren van informatiebronnen effecten voor de toeganke-lijkheid van informatie. Daarnaast kan het leiden tot een vorm van voorafgaande beperking van de vrijheid van meningsuiting. Sommige bronnen zullen als gevolg van dit proces wel beschikbaar, maar (extreem) lastig vindbaar zijn. Het algoritmisch verwijderen van bepaalde informatie van, bijvoor-beeld, sociale media platforms is van een andere grondrechtelijke orde. Classificatie-algoritmes zijn in staat om onwelgevallige, verdachte of gevaarlijke content te herkennen en niet te uploaden of automa-tisch te verwijderen.691 Zowel bedrijven als de overheid kunnen dergelijke algoritmes voor dit doel gebruiken – voor algoritmische censuur dus.

Private censuur

YouTube, Facebook en Twitter hebben uitgebreide algemene voorwaarden en interne richtlijnen op- gesteld om te bepalen welke content toegestaan is en welke berichten van gebruikers verwijderd wor-den.692 Een brede categorie aan opinies en berichten kan worden verwijderd en content die in strijd is met interne voorwaarden en richtlijnen is niet per definitie strafbaar. Er zijn hoofdzakelijk drie manie-ren waarop deze bedrijven de content op hun platforms monitoren:693

1. Door middel van ex ante-controle kan, bijvoorbeeld, Facebook voorkomen dat content geplaatst

1. Door middel van ex ante-controle kan, bijvoorbeeld, Facebook voorkomen dat content geplaatst

In document Algoritmes en grondrechten (pagina 107-127)