• No results found

Zelfregulering door online platforms in de bestrijding van online desinformatie : De verhouding van een Code of Practice tot Europees recht en fundamentele rechten

N/A
N/A
Protected

Academic year: 2021

Share "Zelfregulering door online platforms in de bestrijding van online desinformatie : De verhouding van een Code of Practice tot Europees recht en fundamentele rechten"

Copied!
60
0
0

Bezig met laden.... (Bekijk nu de volledige tekst)

Hele tekst

(1)

Zelfregulering door online platforms in de bestrijding van

online desinformatie

De verhouding van een Code of Practice tot Europees recht en fundamentele rechten

19 juli 2018

Naam: Gijs van Til Studie: Informatierecht Begeleider: dr. T. McGonagle

(2)

‘It’s just a rumour that was spread around town.’

(3)

Abstract

Het moment van afronden van het onderzoek voor deze scriptie valt samen met het beoogde moment van afronding, ondertekening en presentatie van een achter Europese schermen opgestelde Code of Practice ter bestrijding van online desinformatie door online platforms. Om online desinformatie of “fake news” is in de huidige tijd veel te doen en gevreesd wordt voor de sturende werking en invloed die valse online verspreide en circulerende informatie op een samenleving en het functioneren van de democratie zou kunnen hebben. Binnen een trend waarin een steeds grotere verantwoordelijkheid bij online platforms wordt gelegd om met betrekking tot problematische online content op te treden, wordt zelfregulering door online platforms als een veelbelovende methode in de aanpak van deze problematiek gezien. Uit deze scriptie komt echter naar voren dat tegen een Code of Practice ter bestrijding van online desinformatie een groot aantal bezwaren kan worden ingebracht en dat deze om meerdere redenen onvoldoende in overeenstemming is met Europese recht en fundamentele rechten. Daarbij wordt met name gewezen op het problematische karakter van de rol die de Europese Commissie speelt en zal gaan spelen in de totstandkoming, uitvoering en evaluatie van deze code en het gevaar dat daarmee dreigt dat de uitingsvrijheid wordt ingeperkt in afwezigheid van de (procedurele) waarborgen die zouden gelden wanneer deze inperking rechtstreeks van een overheid afkomstig zou zijn. Ook wordt gewezen op de problematische verhouding van een Code of Practice tot het aansprakelijkheidsregime voor tussenpersonen uit de eCommerce-richtlijn en wordt betoogd dat deze code onvoldoende in overeenstemming is met op de Europese Commissie rustende positieve verplichtingen met betrekking tot de uitingsvrijheid, waaronder de verplichting om beschermingsmaatregelen te treffen om bemoeilijking van de effectieve uitoefening van die vrijheid door online platforms te voorkomen.

In het licht van de tegen de code aangedragen bezwaren wordt in deze scriptie een aantal manieren voorgesteld waarop de toereikendheid van een initiatief van zelfregulering als methode ter bestrijding van online desinformatie vergroot zou kunnen worden. Centraal staat hierbij dat een Code of Practice binnen een meer expliciete vorm van samenwerking tussen de Europese Commissie en online platforms tot stand moet komen, moet worden uitgevoerd en moet worden geëvalueerd, zodat met betrekking tot elk van deze drie fases de vereiste (procedurele) waarborgen en transparantie kunnen worden ingebouwd, waarmee de informatie- en uitingsvrijheid in voldoende mate beschermd kan worden.

(4)

Inleiding 1

1 – Introductie van het onderwerp 1

2 – Probleemstelling en opzet 3

3 – Onderzoeksmethode 5

Hoofdstuk I - Online desinformatie: een conceptueel kader 6

I.1 – Inleiding 6

I.2 – Nepnieuws, online desinformatie, of ..? 7

I.3 – Het probleem dat online desinformatie heet 10

I.4 – Actoren betrokken in de bestrijding van online desinformatie 12 Hoofdstuk II – Regulering en problematische online content: een theoretisch kader 14

II.1 – Achtergrond 14

II.2 – Een continuüm van reguleringsvormen 14

II.3 – Methoden van zelfregulering 16

II.4 – Voor- en nadelen van zelfregulering 17

II.5 – Zelfregulering in de vorm van een Code of Practice 18

Hoofdstuk III – Case study: Code of Conduct on Countering Illegal Hate Speech Online 21

III.1 – Achtergrond 21

III.2 – De aansprakelijkheid van internettussenpersonen voor problematische online content 21

III.3 – De inhoud en reikwijdte van de Code of Conduct 23

III.4 – Kritiek op de Code of Conduct 25

Hoofdstuk IV - Zelfregulering ter bestrijding van online desinformatie 29

IV.1 – Het recht op vrijheid van meningsuiting 29

IV.2 – Online desinformatie en de uitings- en informatievrijheid 31 IV.3 – Online desinformatie en de aansprakelijkheid van internettussenpersonen 33

IV.4 – Online desinformatie en positieve verplichtingen 37

IV.5 – Online platforms en de bescherming van fundamentele rechten 40

Conclusie 43

Literatuurlijst 46

Primair 46

Europese Unie: Regelgeving 46

Europese Unie: Communicaties en aanbevelingen 46

Raad van Europa 47

Nationaal 47

Rechtspraak 47

Hof van Justitie van de Europese Unie 47

Europees Hof voor de Rechten van de Mens 47

Overig 48 Secundair 49 Boeken 49 Artikelen 50 Rapporten 52 Online / Weblogs 54

(5)

1 Inleiding

1 – Introductie van het onderwerp

Om online desinformatie, of ‘fake news’, is in de huidige tijd veel te doen. De voorbeelden zijn inmiddels welbekend en reiken van een niet-gedane steunbetuiging van de Paus aan Donald Trump via een verwijzing door diezelfde Donald Trump naar een niet-gepleegde terroristische aanval in Zweden tot, dichter bij huis, een vals dreigement van een militante organisatie in het kader van het Nederlandse referendum over het associatieverdrag met Oekraïne.1 Hoewel geen nieuw verschijnsel, bestaat er momenteel angst voor de nadelige

gevolgen die desinformatie, gedreven door de opkomst van het internet en social media, op het voor een democratie essentiële publieke debat zou kunnen hebben.2 In de kern draait de

problematiek om de sturende werking en invloed die valse online verspreide en circulerende informatie op een samenleving zou kunnen hebben, waarbij direct dient te worden aangetekend dat deze informatie in veel gevallen niet enkel uit politieke beweegredenen verspreid zal zijn, maar veelal, onder meer gedreven door de online advertentiemarkt, bijvoorbeeld ingegeven zal zijn door economisch motieven. Gelet op de angst die er bestaat voor de mogelijke impact van online desinformatie, is het niet vreemd dat zowel op nationaal als op Europees niveau, zich momenteel verschillende strategieën ontvouwen om de verspreiding daarvan tegen te gaan. Deze drang tot het nemen van maatregelen wordt misschien nog wel het treffendst onderschreven door het volgende citaat uit een recente Communicatie waarin de Europese Commissie haar visie op de problematiek uiteenzet: ‘Inaction is not an option.’3

Een strategie die veel genoemd wordt ter bestrijding van online desinformatie is zelfregulering.4 Ook door de Europese Commissie wordt zelfregulering als één van de

manieren voorgesteld waarop online desinformatie aangepakt zou kunnen worden. In haar recente Communicatie heeft de Commissie onder meer een voorstel gedaan tot de ontwikkeling van een Code of Practice waarin met name online platforms zich zouden

1 Ritchie, CNBC 2016; Topping, The Guardian 2017; NOS, ‘Dreigfilmpje ‘Nee tegen Oekraïne’ komt uit

Rusland’, 3 april 2016.

2Zie bijvoorbeeld CM/Rec 2018/2, sub 3. 3 Communication COM(2018) 236, p. 6.

4 Joint Declaration on “Fake News”, Disinformation and Propaganda, maart 2017; Recommendation

(6)

2 moeten committeren om tot een aanpak van online desinformatie te komen.5 De Commissie

baseert haar voorstel deels op een advies dat in het vroege voorjaar van 2018 werd uitgebracht door een op initiatief van de Commissie gevormde High Level Expert Group (HLEG). Aan deze groep, waarin vertegenwoordigers van online platforms, nieuwsmedia, onderzoeksinstituten en maatschappelijke organisaties plaatsnamen, was onder meer de taak opgelegd principes te identificeren die leidend zouden kunnen zijn bij de ontwikkeling van initiatieven van zelfregulering om de verspreiding van online desinformatie aan te pakken.6

Het is, gelet op eerdere opmerkingen van de Commissie, niet verwonderlijk dat zij een grote rol en verantwoordelijkheid voor online platforms weggelegd ziet in de bestrijding van online desinformatie. ‘Social networks and online platforms’, zo viel te lezen in het nieuwsbericht waarin de samenstelling van de HLEG werd aangekondigd, ‘need to be responsible players of a fair internet ecosystem. These media carry the main responsibility to act against fake news.’7 Het moment van afronden van het onderzoek voor deze scriptie valt samen met het

beoogde moment van afronding, ondertekening en presentatie van de achter Europese schermen opgestelde Code of Practice ter bestrijding van online desinformatie door online platforms.

De oproep tot zelf-, maar ook coregulering, door online platforms met betrekking tot problematische online content is geen nieuw verschijnsel.8 Ook door de Commissie werd

eerder, onder meer in het kader van de bestrijding van online hate speech, opgeroepen tot het nemen van maatregelen op basis van zelfregulering.9 Dit heeft in 2016 op initiatief van de

Commissie geleid tot de totstandkoming van een Code of Conduct on Countering Illegal Hate Speech Online (hierna: de gedragscode), welke op het moment van afronden van dit onderzoek door zeven IT-bedrijven ondertekend is.10 In deze gedragscode committeren deze

bedrijven zich onder meer om verzoeken tot verwijdering van haatzaaiende uitingen binnen 24 uur af te handelen en om deze inhoud indien nodig te verwijderen.

5 EC Communication COM(2018) 236, p. 7.

6 Zie Europese Commissie, ‘Call for applications for the selection of members of the High Level group on Fake

News’, 12 november 2017.

7 Zie Europese Commissie, ‘Commission appoints members of the High Level Expert Group on Fake news and

online disinformation’, 12 januari 2018.

8 Zie bijvoorbeeld de Joint Declaration on Freedom of Expression and the Internet, juni 2011 of EC

Communication COM(2016) 288, p. 5.

9 EC Communication COM(2017) 555, p. 4.

10 Code of Conduct on Countering Illegal Hate Speech Online, mei 2016; De ondertekenaars zijn: Facebook,

(7)

3 De gedragscode is inmiddels voor de derde keer geëvalueerd en de Commissie uit zijn tevredenheid over de gestage ontwikkeling in het aantal naar aanleiding van een notificatie verwijderde uitingen.11 Toch bestaat er ook forse kritiek op de gedragscode. Deze kritiek richt

zich onder meer op de brede definitie die gehanteerd wordt van het begrip hate speech en de manier waarop de gedragscode ervoor zorgt dat private partijen zich gedwongen kunnen voelen content van hun platforms te verwijderen.12 De recente documentaire The Cleaners en

onthullingen in De Volkskrant geven goed het black box-karakter van de hierover door platforms te nemen beslissingen weer en laten voorts op schokkende wijze zien hoe het werk van zogeheten content moderators er in de praktijk uitziet.13 Bovenal wordt gewezen op de

problematische verhouding van de gedragscode tot fundamentele rechten, waaronder het recht op vrijheid van meningsuiting en mediavrijheid.

Desalniettemin wordt door Andrus Ansip, de huidige Europese commissaris voor Digital Single Market en tevens vice-voorzitter van de Europese Commissie, op deze gedragscode gewezen als het soort maatregel dat op een vergelijkbare manier kan worden genomen in de aanpak van online desinformatie.14 De gedragscode vormt derhalve een illustratie van hoe

zelfregulering in recente tijden is ingezet ter bestrijding van problematische online content. Aan de hand van deze gedragscode wordt in deze scriptie inzicht verschaft in de te verwachten obstakels en uitdagingen bij een zelfreguleringsinitiatief in de vorm van een Code of Practice ter bestrijding van online desinformatie.

2 – Probleemstelling en opzet

Het internet in het algemeen en online platforms in het bijzonder zijn in toenemende mate een plek geworden waar het voor een democratie essentieel geachte publieke debat plaatsvindt en waar journalisten hun rol als publieke waakhond kunnen vervullen.15 Ook bieden online

platforms voor gebruikers ongekende mogelijkheden tot participatie en communicatie en maken zij het hen mogelijk het fundamentele recht om informatie te zoeken, te ontvangen en te verspreiden uit te oefenen.16 Als curatoren en poortwachters van het publieke debat komen

11 Zie voor de resultaten: Europese Commissie, ‘Results of Commission's last round of monitoring of the Code

of Conduct against online hate speech’, 19 januari 2018.

12 Zie bijvoorbeeld Kuczerawy, KU Leuven Centre for IT&IP Blog 2016. 13 Article 19, 2016, p. 3; McNamee, EDRi 2016.

14 Bond & Robinson, Financial Times 2017. 15 McGonagle 2015, p. 19.

16 Angelopoulos e.a. 2016, p. 8; Frosio, Oxford International Journal of Law and Information Technology 2018,

(8)

4 online platforms daarmee in een belangrijke positie waarin zij de mogelijkheid hebben om de effectieve uitoefening van deze rechten door gebruikers in sterke mate te beïnvloeden of in te perken.17 Tegelijkertijd worden online platforms als belangrijke actoren gezien die de

verspreiding en circulatie van online desinformatie mogelijk maken.18

In het licht van het bovenstaande rijst de vraag hoe ver de verantwoordelijkheid van online platforms reikt om de door gebruikers met behulp van het platform verspreide content te modereren en, wanneer deze content illegaal of anderszins problematisch is, met betrekking daartoe op te treden.19 Zelfregulering in de vorm van ‘vrijwillige’ gedragscodes maakt dat zij

zich hier in sommige gevallen door een overheid tot gedwongen kunnen voelen, waarmee de vraag rijst of dergelijke initiatieven met voldoende waarborgen zijn omkleed om de uitingsvrijheid te garanderen. In deze scriptie wordt om die reden onderzocht of een initiatief van zelfregulering in de vorm van een Code of Practice in overeenstemming is met Europees recht en fundamentele rechten en een toereikende methode op kan leveren om de verspreiding van online desinformatie te bestrijden. De hoofdvraag die daartoe beantwoord wordt, luidt als volgt:

Is zelfregulering door online platforms in de vorm van een Code of Practice in overeenstemming met Europees recht en fundamentele rechten en hoe kan een dergelijk initiatief een toereikende methode ter bestrijding van online desinformatie opleveren?

Om tot beantwoording van de hoofdvraag te komen zullen verscheidene subvragen beantwoord worden. In het eerste hoofdstuk zal een conceptueel kader van online desinformatie uiteengezet worden aan de hand waarvan de vraag beantwoord kan worden wat precies het subject is van een initiatief van zelfregulering in de vorm van een Code of Practice. In dit hoofdstuk zal tevens aan de orde komen waarom het van belang wordt geacht om tot regulering hiervan te komen en waarom daarin aan online platforms een belangrijke rol wordt toegekend. Het tweede hoofdstuk bevat een theoretisch kader van reguleringsmethoden aan de hand waarvan de vraag kan worden beantwoord op welke manier zelfregulering met betrekking tot problematische online content kan worden ingezet, wat de voor- en nadelen van deze alternatieve vorm van regulering zijn en hoe een Code of Practice binnen dit kader past.

17 Gillespie, New Media & Society 2010.

18 EC Communication COM(2018) 236, p. 7; Joint Declaration on “Fake News”, Disinformation and

Propaganda, maart 2017, p. 2.

(9)

5 In het derde hoofdstuk wordt bij wijze van casestudy aandacht besteed aan de hiervoor genoemde Code of Conduct on Countering Illegal Hate Speech Online. Aan de hand van deze gedragscode zal de vraag beantwoord worden op welke wijze dergelijke maatregelen, waarbij het aan private partijen wordt overgelaten om op te treden tegen problematische online content, in recente tijden zijn ingezet en hoe dergelijke maatregelen zich verhouden tot het regelgevend kader van de Europese Unie en de Raad van Europa. Daarbij zal tevens aandacht worden besteed aan de kritiek die, onder meer vanuit fundamenteelrechtelijk oogpunt, op deze gedragscode geuit is. Tot slot zal in het vierde hoofdstuk aan de orde komen of een initiatief van zelfregulering door online platforms in de vorm van een Code of Practice in overeenstemming is met de in de hoofdstukken één tot en met drie uiteengezette kaders en hoe deze een toereikende methode in de bestrijding van online desinformatie op kan leveren.

3 – Onderzoeksmethode

Ten behoeve van dit onderzoek is zowel literatuur- als jurisprudentieonderzoek verricht. Vanuit een intern juridisch perspectief wordt in deze scriptie een normatief oordeel geformuleerd over de vraag of zelfregulering in de vorm van een Code of Practice in overeenstemming is met Europees recht en fundamentele rechten. Aan de hand van relevante internationale standaarden en aanbevelingen zullen hierbij tevens suggesties worden gedaan over de manier waarop de toereikendheid van zelfregulering als methode ter bestrijding van online desinformatie vergroot kan worden.

Nu een Code of Practice op het moment van schrijven van deze scriptie nog niet is aangekondigd, zal de inhoud daarvan, aan de hand van de meest recente Communicatie van de Europese Commissie met betrekking tot het onderwerp en de tien door de HLEG geformuleerde principes, slechts in abstracto behandeld kunnen worden. Gelet op de aandacht die momenteel voor het verschijnsel van online desinformatie bestaat en de staat van ontwikkeling waarin de regulering daarvan zich momenteel bevindt, is het in dit verband tevens van belang om op te merken dat dit onderzoek eveneens slechts de ontwikkelingen op Europees niveau omvat tot aan deze Communicatie.

(10)

6 Hoofdstuk I - Online desinformatie: een conceptueel kader

I.1 – Inleiding

Voordat kan worden toegekomen aan beantwoording van de vraag of inzet van zelfregulering door online platforms in de vorm van een Code of Practice in overeenstemming is met Europees recht, is het van belang om af te bakenen wat precies verstaan wordt onder online desinformatie. Begripsafbakening is, ook in het kader van de totstandkoming van initiatieven van zelfregulering, om verscheidene redenen van belang. In de eerste plaats vanwege de invloed die de gekozen bewoordingen en definities hebben op de daaruit volgende aannames over de wijze waarop informatie zich verspreidt en wie deze informatie verspreidt of ontvangt. Deze aannames bepalen vervolgens in belangrijke mate welke tussenkomst en oplossingen gewenst, geschikt of mogelijk zijn.20 Het conceptuele kader en de gehanteerde

definities zijn, met andere woorden, een belangrijke factor in de wijze waarop regulering uiteindelijk wordt vormgegeven. Aansluitend hierop is het gelet op het in de inleiding genoemde spanningsveld tussen (de bestrijding van) online desinformatie en het recht op vrijheid van meningsuiting, ook vanuit fundamenteelrechtelijk opzicht van belang om tot een duidelijke begripsafbakening te komen. Voor beperkingen op het recht op vrijheid van meningsuiting geldt dat deze in overeenstemming zullen moeten zijn met de eisen die daaraan onder Europees en internationaal recht gesteld worden.21 Een algemene verbodsbepaling op

het verspreiden van informatie gebaseerd op een vaag en dubbelzinnig concept van wat nepnieuws inhoudt zal over het algemeen niet aan dergelijke internationale standaarden voldoen.22 Het conceptuele kader en de gehanteerde definities van nepnieuws en online

desinformatie zijn, anders geformuleerd, van invloed op het antwoord op de vraag of de regulering daarvan kan worden aangemerkt als een toegestane beperking van het recht op vrijheid van meningsuiting.23 Het vervolg van dit hoofdstuk beoogt inzicht te bieden in de

pogingen die tot op heden zijn ondernomen om tot een definitie of conceptueel kader te komen dat recht doet aan de vele verschijningsvormen waarin online desinformatie zich voordoet.

20 Data & Society Research Institute 2017, p. 14.

21 Joint Declaration on “Fake News”, Disinformation and Propaganda, maart 2017, sub. 1. 22 Joint Declaration on “Fake News”, Disinformation and Propaganda, maart 2017, sub. 2. 23 McGonagle, NQHR 2017, p. 204.

(11)

7 I.2 – Nepnieuws, online desinformatie, of ..?

Wat in de eerste plaats opvalt, is de breed gedragen oproep om af te stappen van het gebruik van de term ‘fake news’ of ‘nepnieuws’, of deze term in ieder geval slechts tussen aanhalingstekens te gebruiken.24 Voor de noodzaak daarvan worden verschillende argumenten

aangedragen. Ten eerste wordt veelal gewezen op de ongeschiktheid van deze term om de complexiteit van het verschijnsel te beschrijven.25 Hiermee samenhangend wordt aangevoerd

dat de term geen recht doet aan het brede palet aan kwalitatief verschillende soorten expressies dat het zou moeten omvatten.26 Daarnaast wordt veelal als argument om van

gebruik af te zien aangevoerd dat de term inmiddels ook wordt toegeëigend door politici en door hen gebruikt wordt om berichtgeving aan te duiden die zij onwenselijk achten.27

Opvallend in dit verband is dat de politieke lading van de term voor sommige anderen juist reden is deze te blijven gebruiken, nu hiermee juist de aandacht voor het onderwerp getrokken kan worden.28

De consensus is desalniettemin dat het aanbeveling verdient om af te stappen van het gebruik van de term ‘nepnieuws’, waarmee de vraag rijst op welke wijze het fenomeen dan wel dusdanig beschreven kan worden zodat aan de complexiteit en veelzijdigheid daarvan recht wordt gedaan. Vaak wordt daarbij in de eerste plaats gezocht naar een begrip waarmee de problematiek in zijn geheel omschreven kan worden om van daaruit te komen tot een nadere precisering en categorisering.29 In dit verband spreekt men bijvoorbeeld van problematische

informatie30 of misleidend nieuws.31 In een recent rapport dat in het kader van de Raad van

Europa werd opgesteld, spreken Wardle en Derakhshan van informatiewanorde. Hoewel zij een definitie van deze term achterwege laten, zou dit kunnen worden omschreven als het geheel aan onwenselijke verstoringen van een informatie-ecosysteem.

24 Wardle & Derakhshan 2018, p. 5; McGonagle, NQHR 2017, p. 209; European Commission, Report of the

independent High Level Expert Group on fake news and online disinformation 2018, p. 10.

25 Wardle & Derakhshan 2018, p. 5; European Commission, Report of the independent High Level Expert Group

on fake news and online disinformation 2018, p. 10.

26 McGonagle, NQHR 2017, p. 204.

27 European Commission, Report of the independent High Level Expert Group on fake news and online

disinformation 2018, p. 10; Wardle & Derakhshan 2018, p. 5; Joint Declaration on “Fake News”, Disinformation and Propaganda, maart 2017.

28 Zie Lazer e.a., Science, p. 1094.

29 Overigens wordt ook in dit verband het gebruik van de term ‘nepnieuws’ afgeraden, zie McGonagle, NQHR

2017, p. 204 en Wardle, First Draft 2017.

30 Data & Society Research Institute 2017, p. 1.

(12)

8 Binnen de verschillende voorgestelde containerbegrippen wordt vervolgens meestal een categorisering aangebracht aan de hand van het type of soort informatie of expressie.32

Voorbeelden van een dergelijke categorisering zijn terug te vinden in de tien types van misleidend nieuws die de European Association for Viewers Interests (EAVI) heeft geïdentificeerd of in een typologie naar aanleiding van een recente inventarisatie van verschillende manieren waarop de term ‘fake news’ in wetenschappelijke artikelen gedefinieerd en gehanteerd wordt.33 Wardle en Derakhshan maken in dit verband een

onderscheid tussen mis-, des- en malinformatie.34 Om een expressie onder een van deze drie

categorieën te scharen, maken de auteurs in de eerste plaats een onderscheid tussen een boodschap die waar is en een boodschap die niet waar is. In de tweede plaats dient volgens de auteurs te worden bezien wat de intentie is waarmee informatie gecreëerd, geproduceerd of verspreid is, waarin zij als punt van onderscheid hanteren de vraag of daarmee schadelijke gevolgen beoogd zijn. De eerste parameters bij het classificeren van een expressie als mis-, des- of malinformatie zijn volgens Wardle en Derakhshan met andere woorden de feitelijke correctheid van de informatie en daarnaast de intentie waarmee deze informatie gecreëerd, geproduceerd en verspreid is.

Door sommige anderen wordt ervoor gekozen om niet tot een categorisering aan de hand van het type of soort informatie of expressie te komen, maar om direct tot een term met bijbehorende definitie te komen om de problematiek te omschrijven.35 Dergelijke definities

betreffen meestal slechts één van de type expressies uit de hiervoor genoemde categoriseringen. Zo stelt de HLEG in dit kader voor om uit te gaan van de term desinformatie, waaronder door de HLEG verstaan wordt alle vormen van valse, inaccurate of misleidende informatie die ontworpen, gepresenteerd en gepromoot is om opzettelijk schade te veroorzaken of winst te genereren.36 Ook in deze definitie zijn de feitelijke onjuistheid van

de informatie en de intentie waarmee deze verspreid wordt als belangrijkste kenmerken te herkennen. De HLEG voegt vervolgens aan deze definitie twee negatieve componenten toe. Desinformatie heeft ten eerste geen betrekking op de creatie en verspreiding van illegale

32 Dit blijkt bijvoorbeeld uit een recente inventarisatie van de manieren waarop de term ‘fake news’ in

verschillende wetenschappelijke artikelen wordt geoperationaliseerd, zie Tandoc Jr., Wei Lim & Ling 2018, Digital Journalism, p. 137-153.

33 EAVI, Infographic ‘Beyond ‘Fake News’. 10 Types of Misleading News’, juli 2017; Tandoc Jr., Wei Lim &

Ling 2018, Digital Journalism, p. 137-153; zie bijv. ook Tambini 2017, p. 3.

34 Wardle & Derakhshan 2018, p. 20.

35 Zie ook McGonagle, NQHR 2017, p. 203 en Lazer e.a., Science, p. 1094.

36 European Commission, Report of the independent High Level Expert Group on fake news and online

(13)

9 content die reeds onder EU- of nationale wetgeving valt.37 Ten tweede vallen ook satire,

parodie en andere vormen van opzettelijke, maar niet misleidende verdraaiingen van feiten volgens de HLEG niet onder de definitie van desinformatie. De Europese Commissie sluit in haar recente Communicatie met betrekking tot de problematiek aan bij de door de HLEG voorgestelde definitie.38

Naast onderscheidingen en definities naar het type expressie of informatie, worden binnen de genoemde containerbegrippen veelal ook nog andere kenmerken voorgesteld aan de hand waarvan de problematiek beschreven of gecategoriseerd kan worden. Zo worden de tien door het EAVI geïdentificeerde types van misleidend nieuws verder gecategoriseerd op basis van de motivatie die daarachter schuilgaat en worden deze types voorts ingeschaald op de mogelijke impact die het type heeft.39 Ook Wardle en Derakhshan stellen dat diverse andere

kenmerken nodig zijn om een volledig beeld van informatiewanorde te krijgen. Zo stellen zij in de eerste plaats voor om ook de levensloop van informatie in beschouwing te nemen bij de bestudering van informatiewanorde. Zij spreken in dit verband van de verschillende fases van informatiewanorde, waarin zij onderscheid maken tussen de creatie-, de productie- en de distributiefase.40 Ook door anderen wordt benadrukt dat slechts een volledig beeld verkregen

kan worden van het verschijnsel, wanneer dit bezien wordt in het licht van de wijze waarop informatie (online) circuleert.41

Daarnaast stellen Wardle en Derakhshan dat informatiewanorde tevens bestudeerd dient te worden aan de hand van drie verschillende elementen, waarbij zij kijken naar degene die de boodschap creëert, produceert of distribueert (hierna: actor), naar de boodschap zelf en naar degene die de boodschap interpreteert.42 Het is in dit verband van belang om te wijzen op de

grote verschillen in karakteristieken die tussen actoren bestaan, waarbij het bovendien van belang is om in gedachte te houden dat deze karakteristieken sterk veranderlijk van aard kunnen zijn en per fase van informatiewanorde zullen verschillen.43 Enkele nuttige

onderscheidingen die hier kunnen worden aangebracht zijn bijvoorbeeld het type actor,

37 European Commission, Report of the independent High Level Expert Group on fake news and online

disinformation 2018, p. 11.

38 EC Communication COM(2018) 236, p. 4.

39 EAVI, Infographic ‘Beyond ‘Fake News’. 10 Types of Misleading News’, juli 2017. 40 Wardle & Derakhshan 2018, p. 22.

41 Bonegru e.a. 2017, p. 8.

42 Wardle & Derakhshan 2018, p. 22. 43 Wardle & Derakhshan 2018, p. 25.

(14)

10 waarbij onder meer de vraag speelt of een actor officieel of onofficieel is, en de mate van organisatie van een actor.44 Zoals hiervoor reeds aan de orde kwam speelt ook de motivatie

waarmee informatie gecreëerd en verspreid wordt een rol in de duiding van een actor. Deze motivatie kan bijvoorbeeld politiek of financieel, maar ook sociaal of psychologisch van aard zijn en zal per actor verschillen.45 Met betrekking tot de boodschap zelf benadrukken Wardle

en Derakshan dat mis- en desinformatie vooral niet enkel als tekstueel probleem dient te worden beschouwd, maar dat, gelet op de sterke overtuigingskracht daarvan, met name ook aandacht dient te worden besteed aan visuele aspecten en de wijze waarop een boodschap is vormgegeven.46

De hiervoor uiteengezette classificaties, definities en kenmerken leveren een gecompliceerd en multidimensionaal kader op waarmee online desinformatie binnen informatiewanorde geduid kan worden. Het kader vormt een continuüm waarin de feitelijke juistheid van informatie en de intentie waarmee deze informatie gecreëerd, geproduceerd of verspreid wordt twee belangrijke variabelen zijn, maar daarnaast ook telkens aandacht dient te worden besteed aan andere factoren.47 Enkel door, in de bewoordingen van Wardle en Derakshan, de

verschillende types, elementen en fases in onderlinge samenhang te bezien kan recht worden gedaan aan de veelzijdigheid en complexiteit die informatiewanorde in zijn geheel en desinformatie in het bijzonder kenmerkt.48

I.3 – Het probleem dat online desinformatie heet

Zoals in de inleiding aan de orde kwam wordt er vaak op gewezen dat de verspreiding van desinformatie op zichzelf geen nieuw fenomeen is, hetgeen aanleiding geeft om kort stil te staan bij de vraag waarom het verschijnsel juist op dit moment problematisch wordt geacht, welke gevaren er worden gezien en welke redenen worden aangevoerd om juist op dit moment maatregelen te treffen.

44 Zie voor overige relevante factoren: Wardle & Derakhshan 2018, p. 25; Zie ook Joint Declaration on “Fake

News”, Disinformation and Propaganda, maart 2017; European Commission, Report of the independent High Level Expert Group on fake news and online disinformation 2018, p. 5 waarin onderscheid gemaakt wordt tussen statelijke en niet-statelijke actoren (bijvoorbeeld individuele of groepen burgers).

45 EAVI, Infographic ‘Beyond ‘Fake News’. 10 Types of Misleading News’, juli 2017; Wardle & Derakhshan

2018, p. 33.

46 Wardle & Derakshan 2018, p. 18 en 39.

47 Tandoc Jr., Wei Lim & Ling 2018, Digital Journalism, p. 147. 48 Wardle & Derakhshan 2018, p. 22.

(15)

11 Als belangrijkste drijver voor de manier waarop online desinformatie op dit moment een problematische rol speelt binnen samenlevingen, wordt de manier gezien waarop het media- en nieuwsecosysteem in recente tijden, ingegeven door de opkomst van het internet, sterk veranderd is.49 Deze veranderingen uiten zich onder meer in de verplaatsing van traditionele

media naar digitale media en in de opkomst van online platforms. Ook de schaal waarop en het gemak waarmee informatie online geplaatst en gedeeld kan worden, de snelheid waarmee deze informatie zich vervolgens verspreidt en de wereldwijde reikwijdte van deze informatie, dragen bij aan het vergroten van de mogelijke impact die online desinformatie kan hebben.50

Daarnaast wordt opgemerkt dat de problematiek niet los kan worden gezien van de groeiende verdeeldheid die in moderne samenlevingen geconstateerd wordt en moet worden bezien tegen de achtergrond van een algemene afname van het vertrouwen in democratische instituties zoals de politiek en de media.51

In het licht van deze factoren worden meerdere manieren genoemd waarop de verspreiding van online desinformatie schadelijke gevolgen kan hebben. In brede zin wordt gewezen op de afbreuk die online desinformatie kan doen aan de mogelijkheden van burgers om goed geïnformeerd deel te kunnen nemen aan het publieke debat, in welk verband wordt gewezen op de verstoring van het recht van het publiek om informatie te zoeken, ontvangen of verspreiden.52 Door de HLEG wordt daarbij ook gewezen op de mogelijke dreiging die de

verspreiding van desinformatie kan inhouden voor (de integriteit van) democratische politieke processen en de democratische waarden die overheidsbeleid op verschillende gebieden vormgeven.53 Daarnaast wordt ook het filosofische argument aangevoerd dat online

desinformatie ervoor kan zorgen dat afbreuk wordt gedaan aan de kansen van de waarheid om op een marketplace of ideas boven te komen in een publiek debat.54 Met betrekking tot online

desinformatie dient daarbij met name aandacht te worden besteed aan de wijze waarop online

49 McGonagle, NQHR 2017, p. 206; Lance Bennett & Livingston, European Journal of Communication, p. 128. 50 McGonagle, NQHR 2017, p. 206; Zie ook Europese Commissie, ‘Call for applications for the selection of

members of the High Level group on Fake News’, 12 november 2017.

51 Lance Bennett & Livingston, European Journal of Communication, p. 126-127; European Commission,

Report of the independent High Level Expert Group on fake news and online disinformation 2018, p. 11.

52 Joint Declaration on “Fake News”, Disinformation and Propaganda, maart 2017; EC Communication

COM(2018) 236, p. 1.

53 European Commission, Report of the independent High Level Expert Group on fake news and online

disinformation 2018, p. 5.

(16)

12 informatie expliciet maar vooral ook impliciet gefilterd wordt en aan de wijze waarop deze informatie vervolgens versterkt wordt door en circuleert in digitale gemeenschappen.55

Tegelijkertijd bestaat er ook enige scepsis over de schadelijke gevolgen van de verspreiding van online desinformatie. In dit verband wordt er met name op gewezen dat nog onduidelijk is wat het bereik van dergelijke informatie is. De (verkennende) studies die hiernaar zijn verricht geven nog geen duidelijk beeld, maar lijken te indiceren dat het bereik mogelijk minder groot is dan algemeen wordt aangenomen.56 Bovendien valt veelal moeilijk vast te stellen hoe groot

de impact van die informatie daadwerkelijk is. Nader onderzoek is, gelet op de relatieve nieuwheid van de huidige verschijningsvorm van desinformatie, vereist om over deze en andere zaken duidelijkheid te verschaffen.57

I.4 – Actoren betrokken in de bestrijding van online desinformatie

Ondanks de hiervoor aan de orde gekomen onduidelijkheden met betrekking tot de definitie, omvang en impact van online desinformatie, bestaat er inmiddels wel een brede oproep om maatregelen te nemen ter bestrijding daarvan. De consensus is, gelet op de veelzijdigheid van de problematiek en de verschillende actoren die bij de creatie, productie en verspreiding betrokken zijn, dat om tot een effectieve bestrijding van de problematiek te komen, eveneens een grote verscheidenheid aan actoren betrokken dient te zijn. De voorstellen voor maatregelen die momenteel gedaan worden richten zich dan ook op een breed scala aan actoren uiteenlopend van staten en maatschappelijke organisaties tot journalisten en mediaorganisaties.58 Zoals in de inleiding reeds vermeld, wordt aan online platforms in de

bestrijding van online desinformatie een belangrijke rol toegedicht en veel van de voorgestelde maatregelen zijn dan ook tot hen gericht. Dit geeft aanleiding om stil te staan bij de vraag welke partijen precies onder het koepelbegrip ‘platforms’ geschaard worden en waarom zij geschikt worden geacht een rol te spelen in de bestrijding van online desinformatie. De Europese Commissie benadrukt dat het begrip ‘platforms’ een breed scala aan partijen omvat die verschillende uiteenlopende activiteiten ondernemen.59 Als

gemeenschappelijk kenmerk wordt veelal het vermogen van deze partijen genoemd om als

55 De overige factoren zijn de snelheid waarmee informatie zich verspreidt en de winstprikkels van online

platforms; Syed, Yale Law Journal Forum 2017, p. 353.

56 Fletcher e.a. 2018, p. 7; Nelson 2017.

57 Zie voor een inventarisatie van nog te verrichten onderzoek: Tucker e.a. 2018, p.54 e.v..

58 Joint Declaration on “Fake News”, Disinformation and Propaganda, maart 2017; Wardle & Derakhshan 2018,

p. 80 e.v.; Inventarisatie methodes om “nepnieuws” tegen te gaan 2018.

(17)

13 tussenpersoon door middel van informatie- en communicatietechnologieën interacties tussen gebruikers te faciliteren en om gegevens over deze interacties te verzamelen en te gebruiken.60 Daarbij wordt ook vaak de toegevoegde waarde van het netwerkeffect benadrukt

waarvan deze partijen bij grote aantallen gebruikers kunnen profiteren.61

In het licht van deze kenmerken valt ook te verklaren waarom in de aanpak van online desinformatie een belangrijke rol voor online platforms gezien wordt. De door deze platforms gefaciliteerde mogelijkheden om informatie te publiceren en te verspreiden, maakt dat zij gezien worden als de belangrijkste actoren die de verspreiding van online desinformatie mogelijk maken.62 In dit verband dient in herinnering te worden gebracht dat het

problematische karakter van online desinformatie, niet los kan worden gezien van de manier waarop deze informatie zich online verspreidt.63 De technische controle die online platforms

hebben, brengt hen in de positie waarin zij als poortwachters invloed uit kunnen oefenen op de toegang tot en verspreiding van content op die platforms.64 Zoals in de inleiding aan de

orde kwam, bieden online platforms nieuwe mogelijkheden tot participatie en communicatie en maken zij het voor gebruikers mogelijk om informatie te zoeken, te ontvangen en te verspreiden. Op deze manier is een spanningsveld ontstaan tussen de belangrijke rol die online platforms in de huidige tijd voor de informatie- en de uitingsvrijheid innemen en de aanzienlijke feitelijke macht die zij tegelijkertijd hebben om deze vrijheid te beperken.65

60 Recommendation CM/Rec(2018)2, p. 1; European Commission, Report of the independent High Level Expert

Group on fake news and online disinformation 2018, p. 11.

61 European Commission, Report of the independent High Level Expert Group on fake news and online

disinformation 2018, p. 11.

62 Lazer e.a., Science, p. 1094-1096.

63 Syed, Yale Law Journal Forum 2017, p. 353.

64 Leerssen, JIPITEC 2015, p. 99-100; EC Communication COM(2016) 288, p. 7; Laidlaw 2015, p. 57;

Kuczerawy, JIPITEC 2017, p. 227.

(18)

14 Hoofdstuk II – Regulering en problematische online content: een theoretisch kader II.1 – Achtergrond

Met de opkomst van het internet rees al gauw de vraag op welke wijze de daar door verschillende actoren geplaatste en circulerende content, gereguleerd kon worden. Naast de evidente en eindeloze nieuwe mogelijkheden die het internet bracht en het toenemende belang van internet voor de uitingsvrijheid en de toegang tot informatie, werd tegelijk ook direct onderkend dat ook illegale en schadelijke content een weg naar dit nieuwe medium zou vinden en dat regelgeving op enige manier met betrekking tot deze content wenselijk zou zijn.66 Deze regulering zou echter wel in overeenstemming dienen te geschieden met het algemeen aanvaarde uitgangspunt dat het recht op vrijheid van meningsuiting op internet evengoed geldt als voor elke andere communicatiemethode.67 De daaruit volgende

beperkingen van de mogelijkheden tot inperking van die vrijheid door een overheid, in combinatie met het grensoverschrijdende karakter van het internet, maakte dat, onder meer ter bescherming van minderjarigen, al gauw werd gekeken naar alternatieve vormen van regulering.68 Ook in de huidige tijd, waarin een grote verscheidenheid aan

internettussenpersonen zoals online platforms een belangrijke rol van betekenis is gaan spelen, bestaat ter bestrijding van problematische online content nog steeds veel aandacht voor alternatieve reguleringsvormen, waaronder zelf- en coregulering.69 In dit hoofdstuk

wordt een theoretisch kader van (alternatieve) reguleringsmethoden uiteengezet aan de hand waarvan de vraag kan worden beantwoord op welke manier zelfregulering met betrekking tot problematische online content kan worden ingezet en wat de voor- en nadelen van deze alternatieve vorm van regulering zijn. Tot slot komt aan de orde hoe zelfregulering in de vorm van een Code of Practice ter bestrijding van online desinformatie binnen dit kader past.

II.2 – Een continuüm van reguleringsvormen

Zelf- en coregulering zijn slechts twee manieren binnen een breder spectrum aan mogelijkheden om problematische online content aan te pakken en het handelen van (private) partijen met betrekking daartoe te beïnvloeden en controleren. Op het ene uiteinde van dit spectrum plaatst men doorgaans traditionele (formele) vormen van regulering door een

66 OSCE 2013, p. 9.

67 Joint Declaration on Freedom of Expression and the Internet, juni 2011, p. 2. 68 Council Recommendation 98/560/EC, overweging 20.

69 Communication COM(2016) 288, p.15; Recommendation CM/Rec(2018)2, p. 6; Joint Declaration on

(19)

15 overheid en op het andere het volledig uitblijven van regulering.70 Het gebied tussen deze

twee extremen vormt een glijdende schaal waarop verschillende elkaar deels overlappende vormen van regulering mogelijk zijn. Ook voor de voorstellen met betrekking tot bestrijding van online desinformatie geldt dat deze het gehele spectrum aan reguleringsvormen beslaan.71

Uit het voorgaande volgt dat zelfregulering geen vastomlijnd begrip is en dat de invulling daarvan telkens afhankelijk is van de omstandigheden waaronder en de sector waarin deze reguleringsmethode wordt ingezet.72 Daarbij dient te worden aangetekend dat zelfregulering

in eigenlijke zin, waarmee bedoeld wordt dat een overheid geen enkele rol heeft gespeeld in onder meer de totstandkoming en handhaving van die regulering, in de praktijk haast niet voorkomt.73 In vrijwel alle gevallen zal er telkens toch op enige manier sprake zijn van een

verhouding tussen de zelfregulerende actoren en een overheid.74 Dit heeft tot gevolg dat ook

binnen zelfregulering verschillende gradaties mogelijk zijn, die veelal afhankelijk zijn van de mate van betrokkenheid van een overheid bij die regulering.75

Deze betrokkenheid kan zich op verschillende manieren manifesteren. Zo kan een overheid een faciliterende rol hebben in de totstandkoming van zelfregulering, invloed hebben op de inhoud daarvan of betrokken zijn bij de uitvoering daarvan.76 Het is in dit verband met name

van belang om erop te wijzen dat zelfregulering in veel gevallen tot stand zal komen tegen een achtergrond van dreiging tot interventie door een overheid waarbij zelfregulering door de betreffende private partijen als een gunstig alternatief wordt gezien om inmenging door een overheid in de vorm van traditionele regulering te voorkomen.77 Zoals later in dit hoofdstuk

nog aan de orde komt dreigt hierdoor een situatie te ontstaan waarin een overheid private partijen onder het mom van zelfregulering als instrument inzet om publieke beleidsdoeleinden te bereiken.

70 McGonagle 2003, p. 89; Bartle & Vass 2005, p. 1.

71 Zie voor een overzicht hiervan Tambini 2017, p. 13-15 of Inventarisatie methodes om “nepnieuws” tegen te

gaan 2018, p. 39-50.

72 Price & Verhulst 2005, p. 3.

73 Angelopoulos e.a. 2016, p. 5; Price & Verhulst 2005, p. 3. 74 Price & Verhulst 2005, p. 3.

75 Angelopoulos e.a. 2016, p. 50; Zie ook het spectrum zoals voorgesteld door Bartle & Vass 2005, p. 2 of

categorisering zoals voorgesteld door Ong 2010, p. 242.

76 Angelopoulos e.a. 2016, p. 50-51.

77 Zie Price & Verhulst 2005, p. 11 en Marsden 2011, p. 52 die in dit verband spreken van coerced (or enforced)

(20)

16 De betrokkenheid van een overheid in de totstandkoming en handhaving van zelfregulering doet de vraag rijzen waar de grens ligt tussen zelfregulering en coregulering en of het in veel gevallen niet evengoed mogelijk is om een als zelfregulering aangekondigd initiatief als coregulering aan te merken. Als kenmerkende eigenschap van coregulering wordt genoemd een meer expliciete vorm van samenwerking tussen een overheid en private actoren, bijvoorbeeld doordat een overheid een specifiek (wettelijk) kader creëert waarbinnen private actoren zelfstandig regels opstellen en handhaven.78 Aan deze vorm van regulering wordt

doorgaans het voordeel toegeschreven dat hiermee de mogelijkheid ontstaat een kader te scheppen waarin bepaalde good practices of process values met betrekking tot de totstandkoming, handhaving en uitoefening, en evaluatie van deze regelgeving verankerd kunnen worden.79 Op deze manier, zo wordt betoogd, kunnen bijvoorbeeld vereisten met

betrekking tot, onder andere, de participatie en representatie van alle relevante belanghebbenden in de totstandkoming van regulering (procedureel) gewaarborgd worden.80

Ook kan aan vereisten van transparantie en onafhankelijkheid van en verantwoordelijkheid voor dit proces en de regelgeving die als resultaat daarvan tot stand komt als dergelijke process values invulling worden gegeven.81

II.3 – Methoden van zelfregulering

Gedrags- of praktijkcodes zijn een veelvoorkomende techniek waarop zelfregulering vorm kan worden gegeven.82 De inhoud van dergelijke codes kan sterk uiteenlopen en met

betrekking tot problematische online content tot verschillende door de regulerenden te nemen maatregelen leiden waarop de verspreiding van of toegang tot deze content beperkt kan worden. Deze maatregelen kunnen bijvoorbeeld bestaan in het labellen of monitoren van content om problematisch materiaal te identificeren, het verwijderen van content of het blokkeren van de toegang daartoe of het filteren van content.83 Aan een blokkade of

verwijdering van content zal veelal een kennisgeving vooraf moeten zijn gegaan, bijvoorbeeld door middel van een notice-and-takedown-procedure. Filtering daarentegen verlangt een proactieve aanpak van de zelfregulerende entiteit, waarbij deze, al dan niet op

78 Palzer 2003, p. 4; Mifsud Bonnici 2008, p. 16.

79 McGonagle 2003, p. 93; Tambini, Leonardi & Marsden 2008, p. 282; Prosser, Journal of Consumer Policy

2008, p. 103.

80 McGonagle 2003, p. 93; Helberger, Pierson & Poell, The Information Society, p. 8; Prosser, Journal of

Consumer Policy 2008, p. 103; Tambini, Leonardi & Marsden 2008, p. 282.

81 McGonagle 2003, p. 93; Tambini, Leonardi & Marsden 2008, p. 282; Prosser, Journal of Consumer Policy

2008, p. 103.

82 Price & Verhulst 2005, p.153; Ong 2010, p. 263.

(21)

17 geautomatiseerde wijze, bij voorbaat problematische content zo spoedig mogelijk probeert te identificeren. Aangenomen wordt dat elk van deze maatregelen een inperking van de uitingsvrijheid tot gevolg kan hebben.84 De in een code gehanteerde terminologie en definities

zullen telkens een belangrijke factor zijn in de wijze waarop invulling aan dergelijke maatregelen gegeven wordt.85 Nu gedragscodes in principe op vrijwillige basis tot stand

komen, rijst in dit verband de vraag in welke mate de daarin neergelegde maatregelen een bindende status opleveren. Veelal zullen de maatregelen uit de gedragscode met betrekking tot content zijn beslag krijgen in de contractuele relatie tussen het platform en de gebruiker in de vorm van een bepaling in de gebruiksvoorwaarden of Community Guidelines van het desbetreffende platform. Aldus ontstaat een tweelagige structuur die wel wordt aangeduid als private ordering, waarbij een platform zijn handelen baseert op een in diens eigen voorwaarden neergelegde interpretatie van bepaalde (wettelijke) vereisten.86

II.4 – Voor- en nadelen van zelfregulering

Voor de wenselijkheid van het inzetten van zelfregulering worden verschillende argumenten aangedragen.87 Als belangrijkste argumenten worden veelal aangevoerd de (kosten)efficiëntie

en flexibiliteit die de inzet van dit instrument biedt en, daarmee samenhangend, het vermogen om daarmee snel in te springen op technologische en maatschappelijke ontwikkelingen.88 Ook

het inclusieve karakter van (het totstandkomingsproces van) zelfregulering, waarin verschillende actoren nauw betrokken kunnen worden, wordt vaak als voordeel genoemd.89

Dit inclusieve karakter zou tevens bij kunnen dragen aan het (ontstaan van) verantwoordelijkheidsgevoel bij de betrokken actoren en kunnen bijdragen aan de legitimiteit van dergelijke maatregelen.90 Tot slot zou deze inclusiviteit er ook voor kunnen zorgen dat

optimaal gebruik kan worden gemaakt van de bij de verschillende betrokken actoren aanwezige expertise.91

Tegelijkertijd wordt onderkend dat de inzet van zelfregulering als reguleringsinstrument een aantal zwaktes kent. Juist in dit verband wordt, ondanks het hiervoor aangestipte inclusieve

84 Hans-Bredow-Institut for Media Research 2006, p. 149. 85 Price & Verhulst 2005, p. 35.

86 Hugenholtz 2010, p. 309; Angelopoulos e.a. 2016, p. 6. 87 Lievens, Valcke & Valgaeren 2011, p. 29.

88 Lievens, Valcke & Valgaeren 2011, p. 29; Angelopoulos e.a. 2016, p. 5; Ogus, Oxford Journal of Legal

Studies 1995, p. 97-98.

89 Marsden 2011, p. 46. 90 Marsden 2011, p. 46.

(22)

18 karakter, in de eerste plaats vaak gewezen op de intransparantie en het gebrek aan legitimiteit of het democratisch tekort dat met inzet van deze instrumenten gepaard gaat.92 Private actoren

dragen bij zelfregulering een grote verantwoordelijkheid en het gevaar dreigt dat deze regulering niet, of in ieder geval in mindere mate, tot stand komt in een met procedurele waarborgen omkleed proces waar democratisch gekozen vertegenwoordigers bij betrokken zijn.93 Wanneer zelfregulering eenmaal tot stand is gekomen kan het gebrek aan legitimiteit

ook in het kader van het effectief monitoren en handhaven van dergelijke maatregelen problematisch zijn.94

De hiervoor geconstateerde tekortkomingen zijn met name problematisch wanneer zelfregulering tot stand komt als reactie op een dreiging tot regulering door een overheid. Daarmee kan de situatie ontstaan waarin een overheid private partijen onder het mom van zelfregulering als instrument inzet om publieke beleidsdoeleinden te bereiken.95 Private

partijen kunnen zich in dit geval gedwongen voelen een strikte interpretatie van wettelijke verplichtingen in hun (gebruiks-/service)voorwaarden op te nemen, wat er met betrekking tot problematische content mogelijk toe zal leiden dat zij eerder zullen handelen dan (wettelijk) vereist. Deze beslissing om aan de hand van (gebruiks-/service)voorwaarden met betrekking tot bepaalde content op te treden is bovendien vaak slechts in geringe mate aan publiek toezicht onderhevig.96 Aldus treedt een verschijnsel op dat wel wordt aangeduid als

gedelegeerde wetshandhaving of geprivatiseerde censuur.97 De gevolgen daarvan kunnen

volgens sommigen ingrijpender en verstrekkender zijn dan bij traditionele vormen van regulering van content.98

II.5 – Zelfregulering in de vorm van een Code of Practice

Zoals in de inleiding reeds genoemd, is door de Europese Commissie voorgesteld dat online platforms in de aanpak van online desinformatie op basis van tien door de HLEG opgestelde leidende principes tot een Code of Practice komen, welke naar planning in juli 2018 gereed zou moeten zijn. De exacte inhoud van deze code is daarmee nu nog ongewis. Uit de tien door de HLEG opgestelde principes en de doelstellingen van de Commissie in haar recente

92 Lievens, Valcke & Valgaeren 2011, p. 30-31. 93 Angelopoulos e.a. 2016, p. 5.

94 Lievens, Valcke & Valgaeren 2011, p. 30.

95 McNamee 2011, p. 7; Frosio, Oxford International Journal of Law and Information Technology 2018, p. 1. 96 Frosio, International Journal of Law and Information Technology 2017, p. 15.

97 McNamee 2011, p. 4; Tambini, Leonardi & Marsden 2008, p. 269. 98 Price & Verhulst 2005, p. 9.

(23)

19 Communicatie met betrekking tot het onderwerp valt echter wel reeds op te maken dat de inhoud van de code waarschijnlijkerwijs zal leiden tot verschillende maatregelen die beperkingen met betrekking tot de toegang tot of verspreiding van online content tot gevolg zullen hebben. Zo spreekt de Commissie onder meer de wens uit dat de effectiviteit met betrekking tot het sluiten van nepaccounts vergroot wordt en dat de zichtbaarheid van desinformatie verminderd wordt door de vindbaarheid van betrouwbare informatie te vergroten.99 Dergelijke doelstellingen zullen ertoe leiden dat online platforms op basis van de

code maatregelen zullen moeten nemen die neerkomen op het proactief monitoren en filteren van content, hetgeen zoals gezegd een inperking van de uitingsvrijheid tot gevolg kan hebben.

Hiervoor is aan de orde gekomen dat betrokkenheid van een overheid bij de totstandkoming en uitvoering van zelfregulering zelden zal ontbreken en dat deze zich op verschillende manieren kan manifesteren. Hoewel de Europese Commissie de Code of Practice als een voorstel tot zelfregulering presenteert, komt de betrokkenheid van de Commissie daarbij op verschillende manieren tot uiting en is deze wellicht groter dan de Commissie wil doen voorkomen. Dit blijkt in de eerste plaats uit de faciliterende rol die de Commissie zichzelf toeschrijft, waarin zij de ontwikkeling van de code zal ondersteunen.100 Het is onduidelijk hoe

deze rol in de praktijk uitwerking vindt en welke andere (belanghebbende) partijen daarbij betrokken zijn. Daarnaast zal ook de inhoud van de code in belangrijke mate ingevuld worden aan de hand van de wensen van de Commissie, onder meer door de doelstellingen die de Commissie daarvoor in een recente Communicatie met betrekking tot het onderwerp heeft voorgeschreven en de principes die de HLEG op initiatief van de Commissie heeft opgesteld.101 De Commissie bepaalt daarmee in belangrijke mate het kader waarbinnen de

inhoud van de Code tot stand zal komen. Tot slot zal de Commissie ook op de uitvoering van de in de Code neergelegde maatregelen in sterke mate invloed uitoefenen. Zo stelt de HLEG een bindend implementatietraject voor en benadrukt de Commissie dat het de implementatie van de Code en de effecten van de op basis daarvan genomen maatregelen zal evalueren.102

De Commissie geeft daarbij direct aan dat wanneer de resultaten tegen vallen, zij zich mogelijk genoodzaakt zal voelen om maatregelen van dwingende aard te moeten nemen.103

Dat de dreiging van de inzet van traditionele vormen van regulering reëel is, wordt

99 EC Communication COM(2018) 236, p. 7-8. 100 EC Communication COM(2018) 236, p. 7. 101 EC Communication COM(2018) 236, p. 7-8.

102 European Commission, Report of the independent High Level Expert Group on fake news and online

disinformation 2018, p. 6; EC Communication COM(2018) 236, p. 8.

(24)

20 geïllustreerd door ontwikkelingen op dit gebied in onder meer Duitsland en Frankrijk, alwaar online platforms op verschillende manieren op straffe van een boete tot handelen met betrekking tot desinformatie gehouden zijn.104

Uit het voorgaande blijkt dat de Commissie zowel bij de totstandkoming als bij de uitvoering als bij de evaluatie van de Code of Practice betrokken is en zal zijn, zodat reeds bij voorbaat de vraag kan worden gesteld of deze daadwerkelijk als vrijwillige zelfregulering aan te merken valt en het gevaar dreigt dat een situatie van geprivatiseerde wetshandhaving ontstaat.

(25)

21 Hoofdstuk III – Case study: Code of Conduct on Countering Illegal Hate Speech Online

III.1 – Achtergrond

Content op online platforms kan om verschillende redenen problematisch zijn. Naast de grootschalige wijze waarop in de digitale omgeving intellectuele eigendomsrechten geschonden worden, speelt in dit verband ook de vraag naar de verantwoordelijkheid voor expressies en content met een illegaal of schadelijk karakter.105 In dit kader is veel aandacht

besteed aan de zogeheten uitingsdelicten en in het bijzonder aan hate speech, dat een spectrum van extreem negatieve illegale uitingen omvat dat reikt van (het aanzetten tot) haat tot extreme vooroordelen.106 Evenals voor online desinformatie geldt dat hate speech geen

nieuw fenomeen is, maar dat binnen de context van nieuwe media van een opleving in de verspreiding van dergelijke uitingen sprake is, hetgeen voor nieuwe uitdagingen op het gebied van regulering heeft gezorgd.107

De Code of Conduct on Countering Illegal Hate Speech Online die in 2016 tot stand kwam en inmiddels door zeven grote IT-bedrijven is ondertekend, is een van de strategieën die is ingezet om online hate speech te bestrijden en een voorbeeld van hoe zelfregulering in recente tijden in de aanpak van problematische online uitingen is ingezet. In dit hoofdstuk wordt deze gedragscode nader bezien en wordt aan de hand daarvan uiteengezet hoe dergelijke maatregelen, waarbij het aan private partijen wordt overgelaten om op te treden tegen problematische uitingen online, zich verhouden tot het regelgevend kader van de Europese Unie en de Raad van Europa.

III.2 – De aansprakelijkheid van internettussenpersonen voor problematische online content Zoals in hoofdstuk één aan de orde kwam, benadrukt de Europese Commissie dat het begrip ‘platforms’ een breed scala aan partijen omvat die verschillende uiteenlopende activiteiten ondernemen.108 De activiteiten van deze partijen zullen in veel gevallen kwalificeren als

‘diensten van de informatiemaatschappij’ waarmee zij als tussenpersoon in de zin van de Richtlijn inzake elektronische handel kunnen worden aangemerkt.109 De verantwoordelijkheid

voor en verhouding van online platforms tot problematische illegale content zal in het kader

105 Akdeniz, Computer Law and Security Review 2010, p. 260; Frosio, JIPITEC 2017, p. 202. 106 McGonagle 2013, p. 4.

107 McGonagle 2013, p. 37.

108 EC Communication COM(2016) 288, p. 2.

(26)

22 van het Europees recht daarmee in de eerste plaats bepaald worden door het aansprakelijkheidsregime voor tussenpersonen uit deze richtlijn. Daarnaast zal, gelet op de beoogde uitbreiding van de werkingssfeer naar videoplatformdiensten, de Richtlijn audiovisuele mediadiensten, in toenemende mate een rol spelen.

Op grond van artikel 14 van de eCommerce-richtlijn is een tussenpersoon die een dienst levert die bestaat in de opslag van door een afnemer van de dienst verstrekte informatie, ook wel hosting genoemd, in beginsel niet aansprakelijk voor die informatie. Om zich op deze uitsluitingsgrond te kunnen beroepen is echter wel vereist dat de tussenpersoon geen daadwerkelijke kennis heeft van de onwettige activiteit of informatie en dat deze prompt handelt om die informatie te verwijderen of de toegang daartoe onmogelijk te maken zodra deze, bijvoorbeeld door middel van een notificatie, wel op de hoogte raakt van het onwettige karakter van die activiteit of informatie. In dit verband is van belang dat artikel 15 van de richtlijn bepaalt dat het lidstaten verboden is aan tussenpersonen een algemene verplichting op te leggen om toe te zien op de informatie die deze doorgeeft of opslaat. De overwegingen bij de richtlijn schrijven bovendien voor dat een verwijdering of het ontoegankelijk maken dient te geschieden met inachtneming van het beginsel van de vrijheid van meningsuiting.110

Tot slot dient te worden gewezen op artikel 16 van de richtlijn dat voorschrijft dat lidstaten en de Europese Commissie de totstandkoming van gedragscodes die bijdragen aan de goede toepassing van de bepalingen uit de eCommerce-richtlijn dienen te stimuleren.

In het kader van de Digital Single Market-strategie heeft de Europese Commissie vrij recentelijk benadrukt dat het aansprakelijkheidsregime uit de eCommerce-richtlijn nog steeds met betrekking tot het hele spectrum aan online content als uitgangspunt kan dienen.111 Naast

deze horizontale benadering kan volgens de Commissie van tussenpersonen met betrekking tot specifieke content-gerelateerde problemen echter een sectorale aanpak vereist worden, bijvoorbeeld in de vorm van vrijwillig genomen maatregelen op basis van zelfregulering.112

Deze verticale aanvulling op het aansprakelijkheidsregime uit de eCommerce-richtlijn past in een wereldwijde trend waarin er een verschuiving plaatsvindt van strikte mogelijkheden tot aansprakelijkheid van internettussenpersonen naar een bredere verantwoordelijkheid van

110 Overweging 46 bij de Richtlijn inzake elektronische handel. 111 EC Communication COM(2016) 288, p. 8.

(27)

23 internettussenpersonen voor problematische online content.113 De Code of Conduct on

Countering Illegal Hate Speech Online kan als voorbeeld van een dergelijke sectorale aanpak gezien worden en illustreert de toenemende verantwoordelijkheid die bij tussenpersonen gelegd wordt om met betrekking tot problematische online content op te treden.114

III.3 – De inhoud en reikwijdte van de Code of Conduct

Met de gedragscode committeren de ondertekenaars daarvan zich om de leiding te nemen in de aanpak van illegale online hate speech.115 De kern van de maatregelen die zij hiertoe

dienen te nemen is de invoering van effectieve procedures om verzoeken tot verwijdering van hate speech binnen 24 uur af te handelen en om deze inhoud indien nodig te verwijderen of de toegang daartoe te blokkeren.116 De gedragscode beoogt hiermee invulling te geven aan

kennisgevings- en verwijderingsprocedures die door tussenpersonen op basis van artikel 14 van de eCommerce-richtlijn zijn opgezet.117 Voor wat betreft de definitie van hate speech sluit

de gedragscode aan bij een Kaderbesluit van de Raad van de Europese Unie, dat voorschrijft dat lidstaten het publiekelijk aanzetten tot geweld of haat jegens een groep personen, of een lid van die groep, die op basis van ras, huidskleur, godsdienst, afstamming, dan wel nationale of etnische afkomst wordt gedefinieerd strafbaar stellen.118 De partijen dienen

binnengekomen verzoeken te beoordelen aan de hand van nationale wetgeving waarin dit Kaderbesluit is omgezet en hun eigen Community Guidelines waarin zij een verbod op het via de door hen geleverde dienst verspreiden van uitingen die aanzetten tot haat dienen te implementeren.

Over wat onder hate speech dient te worden verstaan, bestaat meer discussie dan de gedragscode doet vermoeden. Een gezaghebbende definitie ontbreekt vooralsnog en evenals voor online desinformatie geldt dat de consensus is dat het gaat om een breed spectrum aan uitingen.119 Naast het eerder genoemde Kaderbesluit wordt met betrekking tot de invulling

van het begrip hate speech in de gedragscode verwezen naar de rechtspraak van, onder

113 Frosio, JIPITEC 2017, p. 202; Kuczerawy, JIPITEC 2017, p. 228. 114 Frosio, Northwestern University Law Review 2017, p. 25.

115 Code of Conduct on Countering Illegal Hate Speech Online, mei 2016, p. 1. 116 Code of Conduct on Countering Illegal Hate Speech Online, mei 2016, p. 2.

117 Europese Commissie, ‘European Commission and IT Companies announce Code of Conduct on illegal online

hate speech’, 31 mei 2016.

118 Kaderbesluit 2008/913/JBZ, artikel 1.1 sub. a. 119 McGonagle 2013, p. 4; Article 19, 2018, p.6.

Referenties

GERELATEERDE DOCUMENTEN

For the obligations that will apply to them, see Article 7 paragraph 4 under f (new) of the Directive on unfair commercial practices (suggestion: Section 6:193e paragraph 1 under

Het is Operator uitdrukkelijk niet toegestaan om enige informatie die via de Dienst of het Platform toegankelijk wordt gemaakt, waaronder mede begrepen Content

CVO - Samenvatting Prevalentie problematisch speelgedrag onder deelnemers aan online kansspelen 3 Probleemspel kan in de mening van de behandelaars echter niet per

Bij online poker loopt het genuanceerde aandeel nogal uiteen: 5 tot 9 procent risicospelers en 1 tot 6 procent probleemspelers; veel online spelers die problematisch

Dit artikel legt uit welke opsporingsmethoden worden gebruikt voor het verzamelen van bewijs in opsporingson- derzoeken naar online drugsmarkten en op welke wijze

3 Nu sociale media een steeds groter onderdeel worden van de leefwereld van jongeren is het voor jongerenwerkers niet langer voldoende alleen offline actief te zijn.. In de

seksuele intimidatie: iedere vorm van verbaal, non-verbaal of fysiek gedrag met een seksuele connotatie dat als doel of gevolg heeft dat de waardigheid van een persoon

Dit is een bijzondere uitkomst voor een procedure waarin partijen tegengestelde belangen kunnen hebben, zoals echtscheiding, en het is een aanwijzing dat de benadering die door