• No results found

Sociale media als hoofdredacteur van jouw laatste nieuws : De regulering van sociale media en de daarop voorkomende online desinformatie en nieuws personalisatie

N/A
N/A
Protected

Academic year: 2021

Share "Sociale media als hoofdredacteur van jouw laatste nieuws : De regulering van sociale media en de daarop voorkomende online desinformatie en nieuws personalisatie"

Copied!
63
0
0

Bezig met laden.... (Bekijk nu de volledige tekst)

Hele tekst

(1)

Sociale media als

hoofdredacteur van jouw

laatste nieuws

De regulering van sociale media en de daarop voorkomende

online desinformatie en nieuws personalisatie

Naam: Margot Teerlink Begeleider: Dr. T. McGonagle Datum: 7 januari 2019

(2)

1 Abstract

Online desinformatie en nieuws personalisatie zijn fenomenen, die door technologische ontwikkelingen, de komst van het internet en de faciliterende rol van sociale media een grotere bedreiging zijn gaan vormen voor een accurate en pluriforme nieuwsvoorziening. De fenomenen zijn in toenemende mate bepalend voor het online nieuwsaanbod: desinformatie middels de kwaliteit en personalisatie middels de beschikbaarheid en/of prioriteit. De vrees bestaat dat online desinformatie gebruikt wordt om de publieke opinie en verkiezingsuitslagen te manipuleren. Algoritmen kunnen gemanipuleerd worden voor de verspreiding van online desinformatie of om bepaalde nieuwsberichten zodanig zichtbaar te maken voor gebruikers dat deze een bepaald effect sorteren. Daarom schuilt in algoritmische personalisatie gevaar. Echter, tot op heden is de onderbouwing hiervan in de vorm van empirisch bewijs uitgebleven.

Europa staat voor de lastige vraag wat de juiste maatregelen zijn om online desinformatie – en daarbij nieuws personalisatie – te bestrijden, zonder dat afbreuk wordt gedaan aan het recht op vrijheid van meningsuiting en informatie. De Europese Commissie ziet veel potentie in zelfregulering door sociale media. Daarom onderzoekt deze scriptie of de zelfregulerende

EU Code of Practice on Disinformation effectief en proportioneel zal blijken ter bestrijding

van de mogelijke gevaren van online desinformatie en nieuws personalisatie, of dat aanvullende regelgeving op Europees niveau gewenst is.

Uit deze scriptie blijkt dat wetgeving op nationaal niveau onwenselijk is vanuit mensenrechtelijk perspectief en de ondermijnende werking op de harmonisatie van het Europese recht. Wetgeving op Europees niveau leent zich in eerste instantie minder goed voor de complexe en dynamische problematiek rondom online desinformatie en nieuws personalisatie. De conclusie luidt dat zelfregulering de voorkeur verdient, maar de Code in haar huidige vorm niet volstaat, mede omdat een prominentere positionering van nieuws personalisatie in de Code gewenst is. Tot slot wordt aanbevolen om de Code op de volgende punten aan te passen om de effectiviteit en proportionaliteit te versterken:

(i) Het belang van menselijk toezicht bij content moderation dient in de Code opgenomen te worden, totdat technologie daadwerkelijk effectief is gebleken. (ii) Verdergaande transparantie en verantwoording dient bewerkstelligt te worden. (iii) Effectieve onafhankelijke evaluatie dient mogelijk gemaakt te worden.

(3)

2

Inhoudsopgave

Inhoudsopgave... 2

Inleiding ... 3

Hoofdstuk 1 – Definities en conceptueel kader ... 7

Hoofdstuk 1.1. Online ‘desinformatie’ ... 7

Hoofdstuk 1.2. ‘Nieuws personalisatie’ ... 9

Hoofdstuk 2 – Juridisch kader ... 11

2.1. Het recht op vrijheid van meningsuiting en informatie ... 11

2.2. Positieve verplichtingen ... 14

2.3. Aansprakelijkheid van internettussenpersonen ... 15

2.4. Het recht op privacy en bescherming van persoonsgegevens ... 19

Tussenconclusie ... 20

Hoofdstuk 3 – Mogelijke gevaren ... 22

3.1. Mogelijke gevaren van online desinformatie ... 22

3.2. Mogelijke gevaren van nieuws personalisatie ... 26

Tussenconclusie ... 28

Hoofdstuk 4 – De verantwoordelijkheid van sociale media ... 29

4.1. Rol in de totstandkoming en verspreiding van (gepersonaliseerd) nieuws ... 29

4.2. Corporate Social Responsibility ... 31

4.3. Recente regelgevende initiatieven in Europa: (on)wenselijk? ... 33

Tussenconclusie ... 36

Hoofdstuk 5 – Maatregelen ... 37

5.1. Zelfregulerende maatregelen ... 38

5.2. EU Code of Practice on Disinformation: effectiviteit en proportionaliteit ... 39

Tussenconclusie ... 43

Conclusie ... 44

(4)

3

Inleiding

Technologische ontwikkelingen hebben het medialandschap en de wijze waarop mensen informatie vergaren drastisch veranderd. Het nieuws wordt continu bijgewerkt, is veelal gratis en langdurig beschikbaar en wordt sneller globaal verspreid dan ooit tevoren. Vooral de exponentiële groei in het aanbod en het gebruik van sociale media1 heeft ingrijpende gevolgen gehad voor de nieuwsvoorziening, mede door de interactiemogelijkheden voor gebruikers.2 Bovendien vindt steeds vaker nieuws personalisatie plaats, waardoor nieuws beter aansluit op de interesses van gebruikers. Ondanks dat deze digitalisering mogelijkheden heeft gebracht voor een accurate en pluriforme nieuwsvoorziening in Europa, bestaan er ook risico’s die voornamelijk zijn gelegen in online desinformatie en nieuws personalisatie.

Onder online desinformatie wordt onware, inaccurate of misleidende informatie verstaan die opzettelijk wordt gecreëerd, gepresenteerd en verspreid op het internet om geld te verdienen of om het publiek opzettelijk te misleiden, waardoor schade veroorzaakt kan worden.3 De

vrees bestaat dat online desinformatie gebruikt wordt om de publieke opinie en verkiezingsuitslagen te manipuleren. Technologische ontwikkelingen maken de manipulatie van beeld en geluid steeds makkelijker en het onderscheid tussen authentieke en vervalste content moeilijker.4

Bij nieuws personalisatie wordt nieuws op maat beschikbaar gesteld aan gebruikers, waardoor het nieuwsaanbod per persoon kan verschillen. Vooral sociale media gebruiken algoritmen die het nieuwsaanbod aanpassen aan de voorkeuren of het gedrag van gebruikers, ter verhoging van de advertentie-inkomsten. De mogelijke gevaren van nieuws personalisatie zijn onder andere gelegen in de vrees voor zogenoemde ‘filter bubbels’ en echo chambers: de situatie waarin mensen uitsluitend eenzijdig geïndividualiseerd nieuws aangeboden krijgen die hun eigen mening bevestigd.5

1 De term ‘sociale media’ doelt op een host of aanbieder van een internet platform waarop informatie en gedachten uitgewisseld kunnen worden met een sterke focus op connectiviteit en interactie tussen gebruikers. 2 Reuters Institute 2017, p. 10; Keulen, van e.a. 2018, p. 11-12.

3 European Commission, EC press release, 26 april 2018, p. 1. 4 Polyakova & Boyer 2018, p. 7.

(5)

4 ‘Nepnieuws’ en ‘filter bubbels’ zijn recentelijk veelvuldig onderwerp van discussie geweest in het maatschappelijke en politieke debat. We zouden in een post-truth tijdperk6 leven,

waarin de samenleving in een informatieoorlog is verwikkeld en grote technologie bedrijven meer informatie over ons hebben dan onze naasten.7 De verspreiding van desinformatie via sociale media is een groot probleem in Europa: 83% van de Europeanen is van mening dat nepnieuws een bedreiging vormt voor de democratie.8 Nieuwsconsumptie vindt in toenemende mate online plaats, waar de manipulatie van informatie gemakkelijker, sneller en op grotere schaal kan plaatsvinden.9 Online desinformatie en nieuws personalisatie zijn geen nieuwe fenomenen om het publieke debat te sturen, maar door technologische ontwikkelingen en sociale media is de wijze en omvang van manipulatie drastisch veranderd.10 De fenomenen zijn in toenemende mate bepalend voor het online nieuwsaanbod: desinformatie middels de kwaliteit en personalisatie middels de beschikbaarheid en/of prioriteit. Daarnaast kan het lastig zijn voor gebruikers om de betrouwbaarheid van informatie te beoordelen en is het is niet altijd kenbaar of personalisatie heeft plaatsgevonden. Beide fenomenen verschillen echter wel van aard, nu desinformatie een ‘soort’ informatie is en nieuws personalisatie een ‘proces’ is dat het nieuwsaanbod beïnvloedt.

Probleemstelling, opzet en onderzoeksmethoden

Europa staat voor de lastige vraag wat de juiste maatregelen zijn om online desinformatie – en daarbij nieuws personalisatie – te bestrijden, zonder dat afbreuk wordt gedaan aan het recht op vrijheid van meningsuiting.11 Het belang van nieuws in een democratische samenleving moet niet onderschat worden, nu burgers gebaat zijn bij een accurate en pluriforme nieuwsvoorziening om effectief deel te kunnen nemen aan het publieke debat.12

Er is nog weinig consensus over de omvang van de mogelijke gevaren van online desinformatie en nieuws personalisatie.13 Dit geldt des te meer voor de vraag wat de meest

6 McGonagle, NQHR 2017, p. 203. 7 Kleijssen, Speech 13 juni 2017.

8 European Commission, Factsheet on tackling online disinformation 2018.

9 Newman & Fletcher in: Moore & Tambini 2018, p. 134-135; Keulen, van, e.a. 2018, p. 4. 10 Wardle & Derakhshan 2018, p. 11 en 50.

11 European Commission, Factsheet on tackling online disinformation 2018. 12 EC Communication COM(2018)236, p. 1.

(6)

5 effectieve en proportionele maatregelen zijn die sociale media kunnen en zouden moeten nemen, gezien hun centrale rol in de informatievoorziening.14 De beantwoording van de

volgende evaluerende, voorspellende en ontwerpende onderzoeksvraag tracht duidelijkheid te scheppen in deze complexe vraagstukken:

Zal de zelfregulerende EU Code of Practice on Disinformation, waarin aanbieders van sociale media zich verbinden tot het nemen van maatregelen tegen de mogelijke gevaren van online desinformatie – en daarbij nieuws personalisatie - effectief en proportioneel blijken ter bestrijding van deze mogelijke gevaren, rekening houdende met het recht op vrijheid van meningsuiting en informatie, of is aanvullende regelgeving op Europees niveau gewenst?

Deze vraag zal worden beantwoord middels een uitvoerig literatuur- en jurisprudentie onderzoek. Allereerst wordt een definitie gegeven van de begrippen online ‘desinformatie’ en ‘nieuws personalisatie’ in hoofdstuk 1. Hier wordt benadrukt dat het oude fenomenen zijn, die een grotere bedreiging zijn gaan vormen als een gevolg van technologische ontwikkelingen, de komst van het internet en de faciliterende rol van sociale media.

In hoofdstuk 2 wordt het juridisch kader voor de regulering van sociale media en de daarop voorkomende online desinformatie en nieuws personalisatie uiteengezet. Hier dient rekening mee gehouden te worden in de navolgende hoofstukken. Eerst wordt het recht op vrijheid van meningsuiting besproken en daarna het leerstuk van de positieve verplichtingen voor staten. Vervolgens wordt ingegaan op de aansprakelijkheid van internettussenpersonen, nu sociale media veelal onder deze regelgeving vallen, en tot slot het voor nieuws personalisatie van belang zijnde recht op privacy en gegevensbescherming. De rechtspraak van het Europese Hof voor de Rechten van de Mens (hierna: EHRM) is van groot belang bij dit kader.

De in hoofdstuk 3 te behandelen mogelijke gevaren dienen als verklaring voor de noodzaak om online desinformatie te bestrijden en brengen de negatieve kanten van personalisatie in kaart. In hoofdstuk 4 wordt gekeken welke rol sociale media spelen in de totstandkoming en verspreiding van (gepersonaliseerde) nieuws content en hoe zich dit verhoudt tot hun verantwoordelijkheid voor de mogelijke gevaren. Deze verantwoordelijkheid dient bekeken te worden vanuit een multi-stakeholder approach, nu journalisten, niet-gouvernementele

(7)

6 organisaties (hierna: NGO), overheidsinstanties en burgers eveneens een bijdrage kunnen leveren aan de bestrijding van online desinformatie.15 De politiek en maatschappij verwacht

in toenemende mate dat sociale media een passende verantwoordelijkheid uitdragen. Het enkel voldoen aan wettelijke verplichtingen volstaat niet meer.16 Dit botst met de economische belangen die deze private actoren vaak primair nastreven. In dit licht dient de verhouding tussen regelgeving en Corporate Social Responsibility besproken te worden: een vorm van internationale zelfregulering door het bedrijfsleven, welke een gevolg is van de in het geding zijnde maatschappelijke verantwoordelijkheid.17 Daarna wordt de wenselijkheid van de regelgevende initiatieven van afgelopen jaren uit Duitsland, Frankrijk en Italië besproken.

In hoofdstuk 5 wordt conceptuele kader van zelfregulering uiteengezet, evenals de redenen die zelfregulering een aantrekkelijke maatregel maken tegen de mogelijke gevaren van online desinformatie – en daarbij nieuws personalisatie. Vervolgens wordt specifiek gekeken naar een veelbelovend voorbeeld van zelfregulering: de EU Code of Practice on Disinformation (hierna: de Code).18 Deze zelfregulerende maatregel is in september opgesteld door online platforms en de advertentie industrie, ter bestrijding van online desinformatie. Hierbij wordt voorspellend ingegaan op de effectiviteit en de proportionaliteit van deze Code, rekening houdende met het recht op vrijheid van meningsuiting. Afsluitend worden de nodige aanbevelingen gedaan over mogelijke aanpassingen om de effectiviteit en proportionaliteit van de Code te versterken.

15 McGonagle e.a. 2018, p. 25.

16 Zie bijvoorbeeld EC Communication COM(2018)236, p. 8.

17 Sheely, Journal of Business Ethics 2015, p. 639; Johnson, UB Journal of Media Law & Ethics 2016, p. 24. 18 EU Code of Practice on Disinformation 2018.

(8)

7

Hoofdstuk 1 – Definities en conceptueel kader

Hoofdstuk 1.1. Online ‘desinformatie’

De verspreiding van desinformatie ter beïnvloeding van het publieke debat is geen nieuw fenomeen, maar de voortschrijdende technologie die de totstandkoming en verspreiding van desinformatie faciliteert heeft de zorgen omtrent online desinformatie doen toenemen. Het online nieuwsaanbod is sterk toegenomen en de nieuwsdistributie is veranderd, mede doordat nieuwsberichten het publiek veelal via sociale media bereiken.19 Deze ontwikkelingen kunnen het publieke debat zowel positief als negatief beïnvloeden. Positief, omdat nieuws sneller, gemakkelijker en veelal gratis globaal toegankelijk is via diverse online media en de interactie tussen gebruikers middels het becommentariëren of het zelf schrijven van publicaties op platformen wordt gestimuleerd.20 Echter, deze ontwikkelingen brengen ook de nodige zorgen teweeg, nu het steeds lastiger wordt om te juistheid en afkomst van informatie te beoordelen.21 Bovendien kan nieuws tegenwoordig met een ongekende snelheid online verspreid en gemanipuleerd worden, waarbij sociale media en algoritmische personalisatie misbruikt kunnen worden door kwaadwillenden voor de destabilisering en ondermijning van Westerse Democratische samenlevingen.22 Verdere technologische ontwikkelingen, vooral de evolutie van kunstmatige intelligentie en Machine Learning, versterken de problemen door verdergaande mogelijkheden te bieden voor de manipulatie van beeld- en geluidmateriaal. De authenticiteit van informatie is hierdoor nog moeilijker vast te stellen.23

Duidelijke definities van online desinformatie en nieuws personalisatie zijn nodig om verdere vragen omtrent de mogelijke gevaren en regulering van deze fenomenen te kunnen beantwoorden. Er wordt aangesloten bij de definitie van desinformatie zoals geformuleerd door de onafhankelijke High Level Expert Group on Fake News and Online Disinformation (hierna: HLEG), te weten:

19 Keulen, van e.a. 2018, p. 11-12. 20 Keulen, van e.a. 2018, p. 12. 21 McGonagle, NQHR 2017, p. 207. 22 Polyakova & Boyer 2018, p. 3. 23 Hwang 2017, p. 7.

(9)

8 “Onware, inaccurate of misleidende informatie die opzettelijk wordt gecreëerd, gepresenteerd en verspreid met de intentie om economisch voordeel te verwerven of om het publiek te misleiden, en die het publiek schade kan berokkenen”.24

Het gaat om ‘online’ desinformatie, waardoor het in het navolgende uitsluitend desinformatie betreft die op het internet wordt gepresenteerd en verspreid, veelal via sociale media. Desinformatie is een complex en moeilijk af te bakenen begrip, maar heeft betrekking op de ‘soort’ informatie. Wardle en Derakhshan categoriseren schadelijke informatie op basis van twee factoren (foutief en intentie) in:25

• Desinformatie: foutieve informatie die met opzet is gecreëerd en/of verspreid om schade toe te brengen aan een persoon, sociale groepering, organisatie of een land. • Misinformatie: foutieve informatie die per ongeluk wordt gecreëerd en/of verspreid,

zonder een schadelijke intentie.

• Malinformatie: waarheidsgetrouwe informatie die opzettelijk wordt gebruikt om een persoon, sociale groepering, organisatie of een land schade te berokkenen.

Het aan de definitie toegevoegde doel om schade te veroorzaken kan gezien worden als een politieke inkleuring.26 Er zijn vele andere manieren voor de categorisering van desinformatie, bijvoorbeeld de mate van negatieve impact die content heeft.27 Onder desinformatie valt ook het veel besproken fenomeen ‘nepnieuws’. Om twee redenen wordt afstand genomen van de term nepnieuws.28 De term is ontoereikend om het complexe fenomeen van desinformatie te beschrijven, nu desinformatie ook betrekking kan hebben op informatie die gedeeltelijk waar is of niet als nieuws valt te categoriseren. Daarnaast beschuldigen publieke figuren – waaronder politici – mediaorganisaties van het produceren en verspreiden van nepnieuws wanneer zij er een ander standpunt op na houden. Het gebruik van de term nepnieuws is hierdoor een manier geworden om de betrouwbaarheid van mediaorganisaties in twijfel te trekken, waardoor de persvrijheid indirect wordt aangetast.

24 European Commission, HLEG Report on fake news and online disinformation 2018, p. 11. 25 Wardle & Derakhshan 2018, p. 21.

26 McGonagle, Mediaforum 2018, p. 181. 27 EAVI, Infographic Beyond ‘Fake News’ 2017.

28 Zie bijvoorbeeld: McGonagle, NQHR 2017, p. 207; European Commission, HLEG Report on fake news and online disinformation 2018; Wardle & Derakhshan 2018, p. 5.

(10)

9 Hoofdstuk 1.2. ‘Nieuws personalisatie’

Het is altijd al mogelijk geweest om zelf te kiezen welk nieuws je tot je neemt en op welke krant je een abonnement neemt. Daarentegen is de wijze waarop nieuws personalisatie plaatsvindt, als een gevolg van de technologische ontwikkelingen en het gebruik van algoritmen, wél drastisch veranderd. Nieuws personalisatie kan omschreven worden als het ‘proces’ waarin nieuws content op maat beschikbaar wordt gesteld voor bepaalde individuen of groepen.29 Deze personalisatie vindt tegenwoordig steeds vaker plaats doordat sociale

media en zoekmachines, zoals Facebook en Google, gebruik maken van algoritmen. Hiermee willen deze commerciële organisaties de aandacht van hun gebruikers zo lang mogelijk vasthouden, zodat zij meer advertenties kunnen tonen en meer advertentie-inkomsten genereren.30 Er schuilt dus vaak een commercieel doel achter nieuws personalisatie.

Er kan een onderscheid worden gemaakt tussen ‘zelf-geselecteerde’ en door derden ‘voorgeselecteerde’ nieuws personalisatie.31 Bij zelf-geselecteerde nieuws personalisatie

kiezen gebruikers er zelf voor om enkel in aanraking te komen met nieuws wat is aangepast aan hun persoonlijke voorkeuren. Door derden voorgeselecteerde nieuws personalisatie betreft de personalisatie van het nieuwsaanbod door websites, adverteerders of andere actoren, vaak zonder dat gebruikers zich hiervan bewust zijn of hiervoor toestemming hebben gegeven.32 Vooral sociale media passen het persoonlijke nieuwsaanbod van gebruikers automatisch aan op basis van specifieke kenmerken, eerdere activiteiten van de gebruiker of van zijn vrienden.33 Zo kunnen aanbevelingen worden gedaan op basis van: profielen van vergelijkbare gebruikers, nieuws wat vergelijkbaar is met eerder door de gebruiker aangeklikt nieuws en gesponsorde content waarvoor is betaald door een derde partij.34

De voorspelling van Nicholas Negroponte uit 1995 is hiermee grotendeels feit geworden: de

Daily Me, een compleet gepersonaliseerde krant op basis van door de lezer vooraf ingestelde

voorkeuren.35 Het betreft echter geen krant, maar sociale media. In juni 2016 kondigde Facebook aan bezig te zijn met de verdere ontwikkeling van een “Better News Feed for

29 Zuiderveen Borgesius e.a., IPR 2016, p. 2. 30 Keulen, van e.a. 2018, p. 4.

31 Keulen, van e.a., p. 60: In de literatuur wordt ook wel gesproken over inactieve en actieve personalisatie of impliciete en expliciete personalisatie of systeemgedreven versus gebruikergedreven personalisatie.

32 Zuiderveen Borgesius e.a., IPR 2016, p. 3. 33 Keulen, van e.a. 2018, p. 14.

34 Moeller & Helberger 2018, p. 2. 35 Negroponte 1995, p. 153.

(11)

10

You”36 en zich in steeds verder gaande mate bezig te gaan houden met voorgeselecteerde

nieuws personalisatie, “to give you the most personalized experience”. Ondanks dat Nederlandse nieuwsmedia nog niet op grote schaal gebruik maken van nieuws personalisatie, maken zij voor een verdere verspreiding van hun nieuwsberichten wel gebruik van sociale media, waardoor nieuws personalisatie via sociale media alsnog plaatsvindt.37 Waar je als lezer voorheen meestal zelf het initiatief tot personalisatie nam, wordt deze keuze tegenwoordig voor de gebruiker gemaakt en vaak zonder dat de gebruiker zich hiervan bewust is.

36 Sunstein 2017; Mosseri, Facebook Newsroom 29 juni 2016. 37 Keulen, van e.a. 2018, p. 73: Reuters Institute 2018, p. 90.

(12)

11

Hoofdstuk 2 – Juridisch kader

In dit hoofdstuk wordt het juridisch kader voor de regulering van sociale media en de daarop voorkomende online desinformatie en nieuws personalisatie geschetst. Allereerst dient gekeken te worden of online desinformatie onder de bescherming van het recht op vrijheid van meningsuiting en informatie valt. Verder wordt onderzocht of de toepassing van algoritmische nieuws personalisatie een gevaar voor de vrijheid van meningsuiting kan vormen. Positieve verplichtingen van staten zorgen ervoor dat het recht op vrijheid van meningsuiting effect kan sorteren jegens private partijen, zoals sociale media. Vervolgens wordt gekeken wanneer internettussenpersonen – waar sociale media veelal onder vallen – aansprakelijk zijn voor content die door gebruikers is gegenereerd, en of het gebruik van algoritmische personalisatie bij kan dragen aan deze aansprakelijkheid. Tot slot is een bespreking van het recht op privacy en gegevensbescherming van belang, nu algoritmische nieuws personalisatie hiermee in overeenstemming dient te zijn. Met dit juridisch kader dient rekening gehouden te worden bij de vaststelling van de mogelijke gevaren, de verantwoordelijkheid van sociale media en de beoordeling van de effectiviteit en proportionaliteit van beschikbare maatregelen.

2.1. Het recht op vrijheid van meningsuiting en informatie

Het fundamentele recht op vrijheid van meningsuiting is onder andere neergelegd in artikel 10 Europees Verdrag tot bescherming van de rechten van de mens en de fundamentele vrijheden (hierna: EVRM) en artikel 11 Handvest van de grondrechten van de Europese Unie (hierna: Handvest). Het omvat het recht een mening te hebben en informatie en ideeën te ontvangen of te verstrekken, ongeacht grenzen, evenals eerbiediging van de mediavrijheid en -pluriformiteit.38 Het dient als controlemiddel op de overheid en is een voorwaarde voor democratische burgerparticipatie.39 Het EHRM heeft veelvuldig benadrukt dat het recht op vrijheid van meningsuiting van essentieel belang is in een democratische samenleving, nu het een voorwaarde is voor een samenhangend pluralistisch, tolerant en ruimdenkend publiek debat, en beledigende, schokkende en verontrustende informatie en ideeën eveneens worden beschermd.40 Vrijheid van meningsuiting en vrije verkiezingen vormen het fundament voor

38 Artikel 11 lid 2 Handvest van de grondrechten van de Europese Unie. 39 Barendt 2005, p. 7-23.

(13)

12 elk democratisch systeem, waardoor het in de periode voorafgaand aan verkiezingen in het bijzonder van belang dat informatie en meningen vrij kunnen circuleren.41

Omdat de pers de rol van publieke waakhond42 vervult, moeten machthebbers rekenschap afleggen voor hun handelen en worden misstanden aan de kaak gesteld. Het publiek heeft namelijk ook het recht om op behoorlijke wijze informatie over zaken van algemeen belang te ontvangen.43 De pers mag hierbij gebruik maken van bepaalde privileges, zoals bronbescherming44 en de publicatie van geheime informatie.45 Wanneer andere entiteiten, zoals NGO’s, bijdragen aan het publieke debat door informatie te verschaffen over maatschappelijk relevante zaken, verdienen zij als “social watchdog”46 dezelfde bescherming als de pers.47 Het internet heeft het vinden en verspreiden van informatie vergemakkelijkt, waardoor de ‘gewone burger’ eveneens als publieke waakhond kan optreden. Nu de boodschap centraal staat bij het EHRM is het beter om van mediavrijheid dan van persvrijheid te spreken.48 Naast de uitbreiding van het aantal entiteiten dat de rol van publieke waakhond kan vervullen, worden het internet en de daarop beschikbare online platforms steeds belangrijker voor de uitoefening van deze rol.49

Het recht op vrijheid van meningsuiting is geen absoluut recht.50 Uitoefening van dit recht

gaat gepaard met bepaalde plichten en verantwoordelijkheden, zoals te goeder trouw handelen en het publiceren op basis van accurate, feitelijke en betrouwbare informatie.51 Of

hieraan is voldaan dient per geval beoordeeld te worden.52 Bij de verspreiding van online desinformatie en de daarmee veelal gepaard gaande personalisatie wordt hier vaak niet aan voldaan. Inmenging is toegestaan, mits aan de strikte voorwaarden van het tweede lid van artikel 10 EVRM is voldaan. De inmenging moet zijn voorzien bij wet, een legitiem doel dienen en noodzakelijk zijn in de democratische samenleving. Een beperking met betrekking

41 EHRM 19 februari 1998 (Bowman/Verenigd Koninkrijk) §42-43. 42 EHRM 25 maart 1985(Barthold/Bondsrepubliek Duitsland) §58. 43 EHRM 26 april 1979 (Sunday Times/Verenigd Koninkrijk) §65-66.

44 Bijvoorbeeld: EHRM 15 december 2009 (Financial Times Ltd. e.a./Verenigd Koninkrijk) §59; EHRM 28 juni 2012 (Ressiot e.a./Frankrijk) §123-124.

45 Oosterveld & Oostveen, Mediaforum 2013, p. 147.

46 EHRM 14 april 2009 (Társaság a Szabadságjogokér/Hongarije) §27. 47 EHRM 15 februari 2005 (Steel and Morris/Verenigd Koninkrijk) §8. 48 Voorhoof, Mediaforum 2008, p. 203.

49 Voorhoof, Mediaforum 2008, p. 203.

50 EHRM 2 december 2008 (K.U./Finland) §49. 51 Oosterveld & Oostveen, Mediaforum 2013, p. 152. 52 EHRM 21 januari 1999 (Fressoz en Roire/Frankrijk) §54.

(14)

13 tot “political speech and matters of public interest” is zelden toegestaan.53 Ingevolge artikel

17 EVRM worden uitingen die tegen de fundamentele waarden van het EVRM indruisen niet beschermd. Nieuws dat aanzet tot haat of geweld – hate speech54 – wordt bijvoorbeeld niet

beschermd, terwijl satire als vorm van artistieke expressie wel beschermd wordt.55 Aangezien uitingen die verstoring van het publieke debat of het veroorzaken van schade tot doel hebben vrijwel niet beschermd worden, zal dit waarschijnlijk ook gelden voor online desinformatie.56 Het EHRM staat voor de uitdaging om het recht op vrijheid van meningsuiting te vertalen naar de huidige online context. Volgens de living instrument doctrine dient statische interpretatie van het EVRM voorkomen te worden.57 Het EVRM dient uitgelegd te worden in het licht van de huidige omstandigheden.58 Volgens de practical and effective doctrine dienen de door het EVRM gegarandeerde rechten op dusdanige wijze te worden ontwikkeld – middels uitleg en toepassing – dat deze daadwerkelijk effectief blijken in de praktijk.59 Het EHRM heeft expliciet erkend dat individuen recht hebben op internettoegang, nu dit één van de belangrijkste middelen is geworden voor de uitoefening van het recht op vrijheid van meningsuiting.60 De potentie van nieuwe communicatietechnologieën met betrekking tot de opslag, reproductie en verspreiding van content is eveneens erkend.61 Sociale media bieden hierbij een platform voor de uitoefening van het recht op vrijheid van meningsuiting.62 Verder is benadrukt dat media niet altijd substitueerbaar zijn, nu iedere variant haar eigen informatie behoefte beantwoordt.63 Door de grote verschillen tussen offline en online media,

voornamelijk met betrekking tot “the capacity to store and transmit information”, dient het internet aan andere regels en controle onderworpen te worden.64

53 EHRM 29 maart 2016 (Bédat/Zwitserland) § 49.

54 McGonagle 2013, p. 12; EHRM 8 juli 1999 (Sürek/Turkije No. 1) §62.

55 McGonagle, NQHR 2017, p. 204; EHRM 25 januari 2007 (Vereinigung Bildender Künstler/Oostenrijk) §33. 56 McGonagle, Mediaforum 2018, p. 183; Zie bijvoorbeeld EHRM 20 september 1994

(Otto-Preminger-Institut/Oostenrijk) §49.

57 McGonagle & de Boer, Mediaforum 2012, p. 339.

58 EHRM 25 april 1978 (Tyrer/Verenigd Koninkrijk) §31; EHRM 18 februari 1999 (Matthews/Verenigd

Koninkrijk) §39.

59 Bijvoorbeeld: EHRM 9 oktober 1979 (Airey/Ierland) §24.

60 Voorhoof, EUI Working paper RSCAS 2014/12, p. 3; EHRM 18 december 2012 (Ahmed Yildirim/Turkije). 61 McGonagle & de Boer, Mediaforum 2012, p. 339; EHRM 24 juni 2004 (Caroline von Hannover/Duitsland) §70.

62 Leerssen, JIPITEC 2015, p. 102; EHRM 22 april 2013 (Animal Defenders International/Verenigd

Koninkrijk).

63 McGonagle & de Boer, Mediaforum 2012, p. 339; EHRM 16 december 2008 (Khurshid Mustafa &

Tarzibachi/Zweden) §45.

(15)

14 2.2. Positieve verplichtingen

Naast overheidsbemoeienis kan de bemoeienis van private partijen met de media evengoed nadelig zijn voor de vrijheid van meningsuiting.65 Zowel in artikel 10 EVRM als in artikel 11 Handvest staan de woorden “zonder inmenging van enig openbaar gezag”, waardoor zij in beginsel uitsluitend beschermen tegen overheidsinmenging. De horizontale directe werking van grondrechten als zelfstandige toetsingsmaatstaf ontbreekt in de rechtspraak van het EHRM. Particulieren kunnen alleen een klacht tegen de staat indienen.66 Echter, het EHRM

heeft erkend dat de rechten uit het EVRM indirecte horizontale werking kunnen hebben middels de leer van de positieve verplichtingen.67 Hierdoor kan het recht op vrijheid van meningsuiting effect sorteren jegens private partijen, zoals sociale media.

Het onthouden van inbreuk makende activiteiten door staten – negatieve verplichtingen – is vaak onvoldoende voor een effectieve uitoefening van het recht op vrijheid van meningsuiting. De staat is tevens gehouden tot beschermings- en realisatieverplichtingen.68 In de rechtspraak van het EHRM zijn drie soorten positieve verplichtingen in het kader van vrijheid van meningsuiting voor de staat te onderscheiden. Allereerst dient de staat de effectieve uitoefening van het recht op vrijheid van meningsuiting te garanderen, middels adequate beschermende maatregelen.69 Het wordt aan de staat overgelaten om te bepalen welke beschermende maatregelen zij ‘adequaat’ acht. Dit is in lijn met de aan staten toebedeelde margin of appreciation, welke groter wordt naar gelang de in het geding zijnde uiting een grotere bijdrage levert aan het publieke debat.70

Daarnaast dient de staat een gunstig klimaat te scheppen voor de deelname aan het publieke debat.71 Individuen moeten zonder angst gebruik kunnen maken van hun uitingsvrijheid. Tot slot dient de staat zorg te dragen voor een pluralistisch informatieaanbod. De staat is de “ultimate guarantor”72 van ‘true’ of ‘effective’73 pluralisme, aldus het EHRM. De daaruit voortvloeiende positieve verplichting bestaat uit het garanderen van toegang tot onpartijdige

65 Broekstra, Mediaforum 2015, p. 2.

66 Sieburgh in: Gerards, de Waele & Zwaan 2015, p. 514. 67 EHRM 26 maart 1985 (X en Y/Nederland) §23.

68 Harris e.a. 2018, p. 19.

69 EHRM 16 maart 2000 (Ozgür Gündem/Turkije) §43 en §71; later herhaald in EHRM 6 mei 2003 (Appleby

e.a./Verenigd Koninkrijk) §39-40 en EHRM 12 september 2011 (Palomo Sánchez e.a./Spanje) §58-62.

70 EHRM 8 juli 1986 (Lingens/Oostenrijk) §42. 71 EHRM 14 september 2010 (Dink/Turkije) §137.

72 EHRM 24 november 1993 (Informationsverein Lentia e.a./Oostenrijk) §38. 73 EHRM 7 juni 2012 (Centro Europa 7 S.R.L. en Di Stefano/Italië) §130 en 134.

(16)

15 berichtgeving.74 Het EHRM heeft erkend dat de staat in bepaalde gevallen het recht op

vrijheid van meningsuiting dient te behoeden tegen inbreuken, inclusief aantastingen van private partijen.75 Hoewel het internet voor een omvangrijk informatielandschap heeft gezorgd, is er voor de staat nog steeds een taak weggelegd wat betreft het garanderen van een pluralistisch informatieaanbod. Internetgebruikers dienen het enorme informatieaanbod namelijk zelf te filteren door te kiezen aan welke informatie zij zich bloot willen stellen:

exposure diversity.76 Een omvangrijk informatieaanbod is namelijk geen garantie voor de diversiteit van de daadwerkelijk waargenomen informatie. Dominante sociale media vormen door hun grote online marktaandeel een gevaar voor een pluralistisch ‘geconsumeerd’ informatieaanbod.77 Zo zijn WhatsApp, Instagram en Facebook Messenger allemaal in het bezit van Facebook. Hierdoor gebruikt 80% van de mensen op zijn minst één keer per week een aan Facebook toebehorende applicatie, waarvan 54% voor nieuws.78 Wanneer voornamelijk of uitsluitend gebruik wordt gemaakt van Facebook als informatiebron, ontstaat afhankelijkheid van de door Facebook getoonde informatie. Een pluralistisch online informatieaanbod is dus onvoldoende, nu sociale media door het gebruik van algoritmen deze informatieoverdracht kunnen ondermijnen.

2.3. Aansprakelijkheid van internettussenpersonen

De e-Commerce richtlijn zet de Europese regels met betrekking tot de aansprakelijkheid van internettussenpersonen voor online content uiteen.79 Deze regelgeving is van belang, nu door het Hof van Justitie van de Europese Unie (hierna: het Hof) is bepaalt dat sociale media een hostingdienstverlener zijn wanneer zij de door gebruikers verstrekte profielinformatie (tijdelijk) op haar servers opslaat. 80 Het Europese recht maakt een onderscheid tussen hosts en editors, waarbij het verschil in invloed op de content en de kwaliteit daarvan er in beginsel voor zorgt dat hosts niet aansprakelijk zijn voor de online content en editors wel. 81 Men spreekt ook wel van het hosting- en uitgevers-aansprakelijkheidsmodel.82

74 EHRM 17 september 2009 (Manole e.a./Moldavië) §100. 75 EHRM 29 februari 2000 (Fuentes Bobo/Spanje) §38. 76 Napoli, The Journal of Media Economics 1997, p. 65.

77 Broekstra, Mediaforum 2015, p. 8; Recommendation CM/Rec(2007)16.

78 Newman & Fletcher in: Moore & Tambini 2018, p. 135; Reuters Institute 2017, p. 11. 79 Artikel 12-15 Richtlijn 2000/31/EG.

80 HvJ EU 16 februari 2012 (SABAM/Netlog) §27.

81 Helberger & Trilling, LSE Media Policy Project Blog 26 mei 2016.

(17)

16 Om als host aangemerkt te kunnen worden en onder de aansprakelijkheidsexceptie van artikel 14 e-Commerce richtlijn te vallen, dient een internettussenpersoon aan een aantal voorwaarden te voldoen.83 De door de gebruiker verstrekte informatie wordt uitsluitend opgeslagen of doorgegeven. De handelingen met betrekking tot de gehoste content op een platform hebben slechts een technisch, automatisch en passief karakter, waarbij kennis of controle over de doorgegeven of opgeslagen informatie ontbreekt.84 Zodra de internettussenpersoon daadwerkelijk kennis heeft over een illegale activiteit of informatie verkrijgt waaruit het illegale karakter blijkt, moet zij prompt handelen om de informatie te verwijderen of de toegang daartoe onmogelijk te maken.85 Sociale media zijn in ieder geval géén neutrale tussenpersoon indien zij eigen content produceren of content van derden aanpassen, redactionele controle uitoefenen op content van derden, of anderszins handelingen verrichten die tot kennis of controle over de illegale opgeslagen of doorgegeven content leidt.86

Sociale media houden zich steeds actiever bezig met de op hun platform aangeboden content. Zij bevelen nieuws aan middels algoritmische personalisatie, waarmee de beschikbaarstelling en rangschikking van nieuws wordt beïnvloed. Dit gaat verder dan het enkel toegang bieden tot informatie en nadert de redactionele taak van de traditionele media. Facebook ging zelfs nog een stap verder en maakte gebruik van menselijke redacteurs voor het bepalen van de door Facebook getoonde Trending Topics.87 Onder deze omstandigheden kan de stelling

worden ingenomen dat Facebook een editor is, die zelfstandig beslist welke content beschikbaar wordt gesteld en op welke wijze deze wordt gepresenteerd. Volgens de Raad van Europa omvat het redactionele proces “een reeks routines en conventies die de inhoudelijke besluitvorming ondersteunen”.88 Facebook zou dan dezelfde plichten en

verantwoordelijkheden dienen te dragen als traditionele media onder het uitgevers-aansprakelijkheidsmodel, voortvloeiende uit nationale en Europese mediawetgeving. Mede gezien dit aansprakelijkheidsrisico is het niet verwonderlijk dat Facebook is gestopt met

Trending Topics.89

83 Artikel 14 Richtlijn 2000/21/EG. 84 Overweging 42 Richtlijn 2000/31/EG. 85 Artikel 14 lid 1 sub a-b Richtlijn 2000/31/EG. 86 Oster 2017, p. 229.

87 Helberger & Trilling, LSE Media Policy Project Blog 26 mei 2016; Thielman, The Guardian 12 mei 2016. 88 Recommendation CM/Rec(2011)7, §31.

(18)

17 Alhoewel een juridische definitie van editor ontbreekt, geeft de audiovisuele mediadiensten richtlijn (hierna: AVMD-richtlijn) wel aan wat onder redactionele verantwoordelijkheid in juridische zin wordt verstaan90: “het uitoefenen van effectieve controle over de keuze van programma’s en de organisatie ervan, wat niet noodzakelijkerwijs een wettelijke aansprakelijkheid voor de inhoud of de aangeboden diensten behelst”.91 De nieuwe AVMD-richtlijn92, welke in november is aangenomen, is eveneens van belang geworden voor sociale media die gebruikers de mogelijkheid bieden om online video’s te posten. Aanbieders van deze ‘videoplatformdiensten’93 zijn hierdoor verplicht om passende maatregelen te nemen tegen bepaalde gebruikerscontent. Dit is in overeenstemming met de e-Commerce richtlijn doordat deze maatregelen géén betrekking hebben op de content als zodanig, nu “deze verplichtingen betrekking hebben op de organisatorische verantwoordelijkheden van de aanbieder en daaruit geen aansprakelijkheid voortvloeit voor illegale content die als zodanig wordt opgeslagen”.94 Yoo merkt overigens terecht op dat een zekere mate van redactionele discretie nodig is om gebruikers effectief toegang te bieden tot de informatie die zij wensen.95

Het EHRM en het Hof hebben zich de afgelopen jaren meerdere malen uitgelaten over de aansprakelijkheid van internettussenpersonen. Het Hof oordeelde dat het opleggen van een algemene surveillance plicht aan een internettussenpersoon met betrekking tot online content in strijd is met artikel 15 e-Commerce richtlijn.96 Toezichtverplichtingen voor specifieke

content zijn wel toegestaan.97 In Delfi liet het EHRM zich voor het eerst uit over de

aansprakelijkheid van online nieuwsplatformen voor de commentaren van haar gebruikers.98 De aansprakelijkheid van het online nieuwsplatform Delfi voor de “duidelijk onrechtmatige” commentaren – hate speech – van gebruikers op haar platform leverde geen schending van Delfi’s recht op vrijheid van meningsuiting op. De aard van de content, de alternatieve aansprakelijkheid van de gebruiker, de wijze waarop een platform wordt beheerd, de doeltreffendheid van de genomen maatregelen en de opgelegde sanctie, vormen relevante factoren voor de aansprakelijkheid van internettussenpersonen voor door gebruikers

90 Helberger e.a., Info 2015, p. 61. 91 Art. 1(c) Richtlijn 2010/13/EU. 92 Richtlijn (EU) 2018/1808.

93 Artikel 1a bis Richtlijn (EU) 2018/1808. 94 EC COM(2016)287, p. 14.

95 Yoo 2012, p. 111.

96 HvJ EU 24 november 2011 (Scarlet Extended/SABAM e.a.) §139; HvJ EU 12 februari 2012 (SABAM/Netlog) §40; HvJ EU 12 juli 2011(L’Oréal e.a./eBay) §38; Artikel 15 en Overweging 47 Richtlijn 2000/31/EG. 97 Overweging 47 Richtlijn 2000/31/EG.

(19)

18 gegenereerde content.99 Volgens critici had deze uitspraak een chilling effect op de vrijheid

van meningsuiting.100 Het is voor sociale media namelijk niet altijd helder wanneer sprake is

van duidelijk onrechtmatige content, waardoor zij eveneens rechtmatige content zullen verwijderen om aansprakelijkheid te vermijden: collateral censorship.101

In MTE en Index102 oordeelde het EHRM vervolgens dat het installeren van een efficiënt

notice-and-take-down systeem door een online platform volstaat voor beledigende maar geen

duidelijk onrechtmatige commentaren.103 In Pihl heeft het EHRM deze genuanceerde gedachtenlijn voortgezet door te oordelen dat een blogbeheerder niet verantwoordelijk was voor een snel verwijderd lasterlijk commentaar van een gebruiker.104 Ook Google werd in

Tamiz niet aansprakelijk gehouden voor de inhoud van de commentaren van gebruikers.

Sterker nog, Google zou in het meest genereuze geval enkel aansprakelijk kunnen zijn door overschrijding van de redelijke verwijderingstermijn.105 Het EHRM benadrukte hierbij het verschil met Delfi, nu Google géén professioneel gemanaged nieuwsportaal is en niet zelf artikelen publiceert voor een commercieel doel.106

Voor zover sociale media als host aangemerkt kunnen worden, zijn zij op Europees niveau dus niet aansprakelijk voor illegale content van derden. Deze aansprakelijkheidsexceptie bestaat uit twee basis principes: (i) sociale media zijn niet aansprakelijk voor door gebruikers gegenereerde illegale content, mits zij zich hier voldoende van distantiëren; (ii) een algemene monitoringsverplichting is niet toegestaan.107 Uit de EHRM rechtspraak volgt de redenering: hoe hoger de redactionele betrokkenheid, hoe groter de verantwoordelijkheid en kans op aansprakelijkheid.108 Algoritmische nieuws personalisatie blijft tot op heden ergens in het midden zweven. Een algoritme is immers een technische handeling, maar vereist wel menselijke programmering.109 Het is dan ook een interessante, maar nog onbeantwoorde

99 EHRM 16 juni 2015 (Delfi AS/Estland) §143 en §162; Oster 2017, p. 239. 100 Broekstra, Mediaforum 2015, p. 10

101 Voorhoof, Mediaforum 2015, p. 185.

102 EHRM 2 februari 2016 (Magyar Tartalomszolgáltatók Egyesülete en Index.hu Zrt/Hongarije). 103 Lievens & Voorhoof, Mediaforum 2016, p. 184.

104 EHRM 9 maart 2017 (Pihl/Zweden) §37-38. 105 EHRM 9 maart 2017 (Pihl/Zweden) §83.

106 Brink, Media Report 13 november 2017; EHRM 19 september 2017 (Tamiz/Verenigd Koninkrijk) §85. 107 Kuczerawy, CLSR 2015, p. 47.

108 McGonagle 2015, p. 24; EHRM 16 juni 2015 (Delfi AS/Estland). 109 Oster 2017, p. 359.

(20)

19 vraag, waar precies de grens ligt tussen een host die niet aansprakelijk is voor gebruikerscontent, en aansprakelijke media met redactionele verantwoordelijkheid.110

Verder is discutabel of deze aansprakelijkheidsexceptie nog wenselijk is. Dominante sociale media beschikken inmiddels over zodanige financiële en technologische middelen, dat secundaire aansprakelijkheid voor gebruikerscontent afgedekt zou kunnen worden zonder dat zij hun bedrijfsmodel hoeven aan te passen.111 De vraag of een internettussenpersoon aansprakelijk is voor de online content van derden komt overigens pas voor beantwoording in aanmerking wanneer vaststaat dat er sprake is van illegale content.112 Online desinformatie betreft vaak legale content die desondanks onwenselijk is wegens de schadelijke gevolgen.

2.4. Het recht op privacy en bescherming van persoonsgegevens

Content aansprakelijkheid dient onderscheiden te worden van de verantwoordelijkheid als verwerker van persoonsgegevens.113 Het fundamentele recht op privacy wordt beschermd door artikel 8 EVRM, en artikel 7 Handvest. Artikel 8 EVRM omvat het recht op bescherming van persoonsgegevens, maar artikel 7 Handvest en de Algemene Verordening Gegevensbescherming114 (hierna: AVG) bieden specifiekere bescherming. De rechten zijn dus verwant, maar niet gelijk.115 Het recht op bescherming van persoonsgegevens is van toepassing op de verwerking van persoonsgegevens: informatie over een geïdentificeerde of een (in)direct identificeerbare natuurlijke persoon.116 ‘Persoonsgegeven’ is een breed begrip, nu identificatie ook plaats kan vinden door individualisatie: het single out criterium.117

Algoritmische personalisatie kan een gevaar vormen voor het recht op privacy en bescherming van persoonsgegevens. Het bedrijfsmodel van sociale media bestaat uit het aanbieden van een gratis communicatieservice waarbij gebruikers ‘betalen’ met persoonlijke data die bijvoorbeeld betrekking heeft op hun voorkeuren en gedrag. Met deze data kunnen sociale media hun advertentiemodellen verbeteren, middels gepersonaliseerde reclame.118

110 Moeller & Helberger 2018, p. 2; Le Borgne-Bachschmidt e.a. 2008, p. 221. 111 Sartor 2017, p. 11-12.

112 Oster 2017, p. 228.

113 Oster, Legal Studies 2015, p. 360; HvJ EU 13 mei 2014 (Google Spain/AEPD en González) §41. 114 Verordening (EU) 2016/679.

115 Zuiderveen Borgesius 2014, p. 165-165. 116 Artikel 4 en Overweging 26 AVG.

117 WP29, Opinion 4/2007, p. 12; HvJ EU 19 oktober 2016 (Breyer/Duitsland); HvJ EU 24 november 2011 (Scarlet Extended/SABAM).

(21)

20 Recente schandalen rondom Facebook/Cambridge119 laten zien dat misbruik van

persoonsgegevens voor politieke of commerciële doeleinden en datalekken120 mogelijk zijn.

De door sociale media geboden bescherming tegen ongeoorloofd gebruik van persoonsgegevens door derden is kennelijk onvoldoende.121

Voorts bestaat er een gebrek aan individuele controle en transparantie voor de gebruiker omtrent de persoonlijke informatie die wordt gebruikt voor algoritmische personalisatie.122 Voor het gebrek aan transparantie rondom het gebruik en de werkwijze van algoritmen kan de AVG uitkomst bieden, nu hiermee automatische beslissingen in kaart kunnen worden gebracht.123 Het inzagerecht van de betrokkene omvat namelijk het recht om “nuttige informatie over de onderliggende logica” van zijn gegevensverwerking te verkrijgen.124 Voorbeelden zijn de door het algoritme gebruikte gegevens, de wegingsfactor en de mogelijke uitkomsten van deze gegevens.125 Het staat echter ter discussie of het gegevensbeschermingsrecht van toepassing is op behavioural targeting, waar algoritmische nieuws personalisatie onder kan vallen. Bedrijven menen dat zij hierbij enkel anonieme data verwerken die niet herleidbaar is tot een specifieke persoon.126 De Article 29 Data Protection

Working Party is daarentegen van mening dat bedrijven wél persoonsgegevens verwerken

wanneer zij gebruik maken van behavioural targeting.127 Hierdoor moeten sociale media

voldoen aan de verplichtingen van de AVG bij gebruik van algoritmische nieuws personalisatie.

Tussenconclusie

Online desinformatie wordt vanwege haar veelal schadelijke intentie en de ondermijning van het publieke debat waarschijnlijk slechts beperkt beschermd door het recht op vrijheid van meningsuiting. Daarnaast zorgen positieve verplichtingen van staten ervoor dat het recht op vrijheid van meningsuiting effect kan sorteren jegens sociale media. Door derden

119 Granville, New York Times 19 maart 2018; BBC 25 oktober 2018. 120 Matsakis & Lapowsky, Wired 28 september 2018.

121 EC Communication COM(2018)236, p. 3. 122 Zuiderveen Borgesius 2014, p. 115. 123 Keulen, van e.a. 2018 p. 64. 124 Artikel 15 lid 1 sub h AVG. 125 Keulen, van e.a. 2018, p. 64. 126 Zuiderveen Borgesius 2014, p. 164. 127 WP29, Opinion 2/2010, p. 9.

(22)

21 voorgeselecteerde nieuws personalisatie kan als een gevaar voor de vrijheid van meningsuiting gezien worden, omdat mensen tevens het recht hebben om informatie te ontvangen. Een pluralistisch online informatieaanbod volstaat niet, nu sociale media door het gebruik van algoritmen deze informatieoverdracht kunnen ondermijnen.

Ondanks dat de besproken rechtspraak erop lijkt te wijzen dat sociale media niet aansprakelijk zijn voor de gevolgen van de door gebruikers gegenereerde en verspreide online desinformatie, gezien het feit dat online desinformatie vaak niet “duidelijk onrechtmatig” is en sociale media veelal een passievere rol vervullen dan online nieuwsplatformen en traditionele media, hebben sociale media wel plichten en verantwoordelijkheden met betrekking tot het waarborgen van het recht op vrijheid van meningsuiting in de door hun gecreëerde digitale omgeving.128 De omstandigheid dat sociale media steeds vaker worden geacht in staat te zijn om de aard en ernst van door derden geplaatste content te beoordelen leidt tot zelf-reguleringsinitiatieven.129 Dit wordt later uitvoerig besproken. Tot slot moeten sociale media voldoen aan de verplichtingen van de AVG wanneer zij algoritmische nieuws personalisatie toepassen.

128 Oster 2017, p. 232.

(23)

22

Hoofdstuk 3 – Mogelijke gevaren

In dit hoofdstuk worden de mogelijke gevaren van online desinformatie en nieuws personalisatie in kaart gebracht. Er zal uiteen worden gezet wat de mogelijke gevaren zijn, wat de ernst van deze gevaren is en in hoeverre beide fenomenen dezelfde gevaren behelzen. Bovendien zal worden stilgestaan bij recente ontwikkelingen. Nu de gevaren van online desinformatie en nieuws personalisatie veelal technologie-gedreven zijn, is het waarschijnlijk dat de gevaren zullen toenemen en het nemen van maatregelen lastiger wordt.130

3.1. Mogelijke gevaren van online desinformatie

Nieuws is van groot belang in een democratische samenleving. Het publieke debat en opinievorming zijn afhankelijk van een pluriforme en accurate informatievoorziening. Betrouwbaar nieuws is nodig voor een juiste voorstelling van actuele politieke en maatschappelijke aangelegenheden, om zo een mening te kunnen vormen en effectief gebruik te kunnen maken van het stemrecht.131 Online desinformatie kan daarom gezien worden als een wereldwijde bedreiging, variërend van de manipulatie van verkiezingen tot een ontbrekende consensus met betrekking tot klimaatverandering en een afnemend vertrouwen in de media en journalistiek.132

Sinds de presidentsverkiezingen van de Verenigde Staten in 2016 is de online verspreiding van desinformatie en de daarmee verwante invloed van buitenlandse inmenging op het publieke debat en de uitslag van referenda en verkiezingen, uitvoerig onderwerp van discussie geweest.133 Onderzoek heeft duidelijk gemaakt dat de verspreiding van desinformatie via sociale media op grote schaal heeft plaatsgevonden in de Verenigde Staten.134 Op onder andere Facebook, Twitter en YouTube is desinformatie middels bots en trollen135, vormen van (geautomatiseerde) nepaccounts, via algoritmen verspreid.136 Via Twitter zijn bijvoorbeeld 1,4 miljoen desinformatie berichten met Russische links verzonden

130 European Commission, HLEG Report on fake news and online disinformation 2018, p. 35. 131 McGonagle, NQHR 2017, p. 204.

132 Ireton & Posetti 2018, p. 18.

133 Botei, Bulletin of the Transilvania University of Braşov 2017, p. 133.

134 Shaban, Timberg & Dwoskin, The Washington Post 31 oktober 2017; US District Court of Columbia 16 February 2018 (United States of America v. Internet Research Agency LLc et al.).

135 Zie voor definities: Wardle, Information Disorder: the essential glossary, juli 2018, p. 3 en 6. 136 Keulen, van e.a. 2018, p. 32.

(24)

23 door bots, welke door 288 miljoen mensen gezien kunnen zijn.137 Ook in de daarop volgende

Europese verkiezingen hebben Russische desinformatie campagnes plaatsgevonden, met niet enkel misinformeren maar eveneens destabilisering en ondermijning van Westerse Democratische samenlevingen als doel.138 Wetenschappelijk onderzoek heeft aangetoond dat het publieke debat op sociale media voorafgaand aan de verkiezingen in Duitsland, Frankrijk139 en het Verenigd Koninkrijk140 voor een deel bestond uit door bots verspreide desinformatie. Het is echter onduidelijk in hoeverre de publieke opinie en de verkiezingsuitslagen hierdoor daadwerkelijk zijn beïnvloed.

Het feit dat twee mannen in India zijn doodgeslagen als het gevolg van een via WhatsApp verspreid bericht over kinderontvoerders en een bijgaande video waarop twee mannen op een motor te zien zijn die een kind meenemen, is één van de schaarse voorbeelden waaruit blijkt dat de online verspreiding van desinformatie gewelddadige gevolgen kan hebben.141 De video betreft een fragment uit een voorlichtingsfilm die op het gevaar van kinderontvoering wijst, en de vermoorde mannen waren onschuldig. De verspreiding van desinformatie kan het publieke debat juist ook positief aanwakkeren.142

Bij pogingen tot beïnvloeding van besluitvormingsprocessen en de publieke opinie worden steeds vaker digitale middelen ingezet, waardoor het bereik en impact van desinformatie is toegenomen.143 Zowel vanuit de politiek144 als vanuit de samenleving145 is de vrees geuit voor

het gevaar van online desinformatie voor de democratische samenleving. Deze vrees gaat gepaard met een afnemend vertrouwen in online platforms als nieuwsbron, maar het vertrouwen in traditionele media en journalistiek neemt inmiddels toe.146 Uit een enquête van

Reuters’ Digital News Report 2018 blijkt dat het gebruik van Facebook als wekelijkse nieuwsbron in het afgelopen jaar is gedaald van 42% naar 36% in twaalf toonaangevende landen.147 Dit komt mogelijk door een algemene afname van het gebruik van Facebook voor nieuws of door de aanpassing van het algoritme die tegenwoordig prioriteit geeft aan de

137 Keulen, van e.a. 2018, p. 35; AFP 1 november 2017. 138 Polyakova & Boyer 2018, p. 3.

139 Neudert, Kollanyi & Howard, Computational Propaganda Project 19 september 2017. 140 Howard & Kollanyi 20 juni 2016.

141 NOS, 11 juni 2018; BBC 11 juni 2018.

142 McGonagle, NQHR 2017, p. 205; BBC 14 december 2006. 143 AIVD jaarverslag 2017, p. 8-9.

144 EC Communication COM(2018)236; Minister Ollongren, brief aan Tweede Kamer 18 december 2017. 145 Zie bijvoorbeeld: Kleis Nielsen & Graves, RISJ Factsheet, oktober 2017; https://freedomfromfb.com/. 146 Edelman Trust Barometer 2018, p. 19.

(25)

24 interactie tussen familie en vrienden om de verspreiding van desinformatie tegen te gaan.148

Figuur 1 ondersteunt deze laatste verklaring.

Figuur 2 laat zien dat steeds vaker gebruik wordt gemaakt van messaging applications voor het nieuws.149 Zorgen over de onbetrouwbaarheid van nieuws, privacy overwegingen en het voorkomen van misinterpretatie hebben deze ontwikkeling tot stand gebracht.150 Dit zorgt voor nieuwe uitdagingen, aangezien er op messaging applications en de door gebruikers verstuurde content vrijwel geen controle uitgeoefend kan worden.151 WhatsApp maakt bijvoorbeeld gebruik van end-to-end-encryptie, waardoor niemand bij de berichtgeving kan. Online desinformatie bestaat momenteel vaak uit misleidende teksten en de verspreiding door

bots is nog vrij eenvoudig te achterhalen. In de (nabije) toekomst kan dit drastisch

veranderen. Naarmate bots geavanceerder worden, wordt detectie hiervan lastiger. Manipulatie van geluid en beeld wordt steeds eenvoudiger door technologische ontwikkelingen en kunstmatige intelligentie.152 Er wordt al voor gewaarschuwd dat het (vrijwel) niet meer mogelijk zal zijn om een onderscheid te maken tussen origineel en vervalst geluid- en beeldmateriaal, door uitvindingen zoals Adobe Voco153 en Face2Face154 die real time manipulatie mogelijk maken.155 Het creëren van deze zogenoemde deepfakes is

voor leken nog niet zo gemakkelijk als soms wordt aangenomen.156

De mogelijke gevaren bestaan voornamelijk uit zorgen over de beïnvloeding van besluitvormingsprocessen en de publieke opinie, en meer specifiek: de manipulatie van verkiezingen middels de verspreiding van desinformatie via sociale media en haar algoritmen. Het bereik en de impact van desinformatie is door het gebruik van digitale middelen toegenomen. De belangrijkste ontwikkelingen bestaan uit het gebruik van

messaging applications voor nieuws en de creatie van deepfakes, welke beide voor nieuwe

uitdagingen zorgen. Opmerkelijk is de afname van het vertrouwen in sociale media als nieuwsbron.

148 Reuters Institute 2018, p. 10.

149 Reuters Institute 2018, p. 11; :“The 12 markets included are UK, US, Germany, France, Spain, Italy, Ireland,

Denmark, Finland, Japan, Australia, Brazil”.

150 Reuters Institute 2018, p. 12. 151 Dias, FP 17 augustus 2017. 152 Polyakova & Boyer 2018, p. 7.

153 YouTube, Adobe Creative Cloud #VoCo. Adobe MAX 2016 (Sneak Peeks) 4 november 2016. 154 Thies e.a., Face2Face: Real-time Face Capture and Reenactment of RGB Videos, 2016. 155 Keulen, van e.a. 2018, p. 55; BBC 7 november 2016.

(26)

25

Figuur 1

Figuur 2

(27)

26 3.2. Mogelijke gevaren van nieuws personalisatie

Nieuws personalisatie biedt een oplossing voor information overload: de informatie waar mensen echt in geïnteresseerd zijn filteren uit de enorme hoeveelheid online informatie.157 Personalisatie helpt, nu gebruikers van nieuws voorzien kunnen worden, dat aansluit bij hun interesses. Uit onderzoek blijkt dat sociale media er juist voor zorgen dat gebruikers in hun zoektocht naar informatie in aanraking komen met tegengestelde standpunten: incidental

exposure.158 Daarnaast kan zelf-geselecteerde personalisatie de autonomie van sociale media

gebruikers verbeteren, waardoor zij zelf het heft in handen kunnen nemen om een meer pluriform nieuwsaanbod te creëren.159

Nieuws personalisatie kent niet alleen positieve aspecten. Het staat vooral bekend vanwege de mogelijke gevaren. De vrees bestaat dat wanneer mensen aan minder meningen en informatie worden blootgesteld, dit een negatief effect zou hebben op de publieke opinievorming en democratische besluitvorming.160 Nieuws personalisatie zou een bedreiging vormen voor het gedeelde gedachtengoed waarop een democratie is gebouwd, nu hierdoor het aangeboden nieuws per persoon kan verschillen.161 Daarnaast is het eveneens een krachtig middel om de publieke opinie te manipuleren. De vrees bestaat dat nieuws personalisatie kan leiden tot zogenoemde filter bubbels en echo chambers.

De term ‘filter bubbel’ is door Pariser geïntroduceerd in 2011 en omschrijft de situatie waarin mensen enkel eenzijdige geïndividualiseerde nieuws content tot zich nemen, wat zowel een eigen keuze van de gebruiker als een gevolg van personalisatie kan zijn.162 De algoritmische filter bubbel is individueler, onzichtbaarder en biedt minder autonomie voor de gebruiker dan de eerder bestaande filter mogelijkheden.163 Door dit gebrek aan diversiteit kunnen nieuwsconsumenten in een echo chamber komen, waarin zij enkel hun eigen mening bevestigd krijgen en die van gelijkgestemden herhalen. Dit komt door het confirmation bias effect: de neiging van mensen om enkel die informatie te interpreteren en te verwerken die de eigen mening bevestigt.164 Sociale media bieden door de mogelijkheid van het delen en

becommentariëren van enkel gelijkgestemde meningen de perfecte voedingsbodem voor echo

157 Moeller & Helberger 2018, p. 1.

158 Moeller & Helberger 2018, p. 17; Anspach, Political Communication 2017, p. 590-606. 159 Helberger, JIT 2011, p. 452-453.

160 European Commission, HLG Report on Media Freedom and Pluralism 2013, p. 27. 161 Pariser 2011, p. 50.

162 UNESCO 2018, p. 62; Pariser 2011. 163 Pariser 2011, p. 9-10.

(28)

27

chambers, waar extreme standpunten ontwikkeld kunnen worden: ‘cyberpolarisatie’.165

Volgens Sunstein moeten mensen worden blootgesteld aan diverse informatie om een democratie goed te laten werken en extremisme en fragmentatie tegen te gaan, nu gemeenschappelijke ervaringen als basis dienen voor het oplossen van sociale problemen in de samenleving.166

Er bestaan ook zorgen over de economische machtspositie van grote sociale media bedrijven.167 Traditionele media worden in steeds verdergaande mate afhankelijk van deze bedrijven om hun nieuws onder de aandacht te brengen. In algoritmen kunnen waarden worden ingebouwd die de belangen van de partij die het platform exploiteert vertegenwoordigen.168 Het probleem is dat de redactionele onafhankelijkheid van traditionele nieuwsorganisaties in het gedrang komt, wanneer zij hun content ook beschikbaar stellen op door derden geëxploiteerde platformen die gebruik maken van commerciële algoritmische personalisatie waar traditionele nieuwsorganisaties geen zeggenschap over hebben.169

Algoritmische personalisatie brengt ook de nodige privacy implicaties met zich mee. De omvangrijke dataverzameling, op basis waarvan personalisatie werkt, kan gezien worden als een vorm van surveillance.170 Dit kan het gedrag en de gedachten van gebruikers beïnvloeden

en een chilling effect hebben op hun recht op vrijheid van meningsuiting, nu de toegang tot en de verspreiding van informatie wordt beperkt.171 Een ander probleem is algoritmische

discriminatie, of sociale sortering.172 Doordat algoritmische personalisatie de samenleving

indeelt in bepaalde profielen op basis waarvan wordt bepaald welke soorten nieuwsberichten je wel of niet krijgt, kunnen groepen verder uit elkaar worden gedreven. Er dient benadrukt te worden, dat de zorgen ongegrond zijn wat empirisch bewijs betreft.173 Echter, wanneer online media de voornaamste informatiebron wordt, algoritmische personalisatie op grotere schaal wordt toegepast en algoritmen verbeteren, zouden de nu al bestaande zorgen rondom nieuws personalisatie werkelijkheid kunnen worden.174 Figuur 3 geeft weer op welke wijze

165 Sunstein 2017, p. 70; Keulen, van e.a. 2018, p. 78. 166 Sunstein 2002, p. 8-9

167 Moeller & Helberger 2018, p. 5. 168 Helberger e.a 2018, p. 7. 169 Helberger e.a. 2018, p. 8.

170 McGonagle 2015, p. 15-16; Zuiderveen Borgesius 2015, p. 75.

171 Zuiderveen Borgesius 2014, p. 111-112; Hoboken, van, 2012, p. 226; Joint declaration on freedom of expression and “fake news”, disinformation and propaganda 2017, p. 2.

172 Zuiderveen Borgesius e.a., IPR 2016, p. 5; Turow 2011, p. 196; Moore & Tambini 2018, p. 11. 173 Moeller & Helberger 2018, p. 19; Zuiderveen Borgesius e.a., IPR 2016, p. 10.

(29)

28 momenteel toegang tot online nieuws wordt verkregen.175 Van de respondenten geeft 53% de

voorkeur aan interfaces die gebruik maken van algoritmes voor de nieuwsselectie.

Figuur 3 – Bron: Reuters Institute 2018, p. 13.

Tussenconclusie

Met betrekking tot online desinformatie en nieuws personalisatie bestaan voornamelijk veelvuldig geuite zorgen, de gevaren zijn echter (nog) niet empirisch onderbouwd. Desinformatie en nieuws personalisatie zijn oude manieren om het publieke debat te sturen, maar worden gedreven door nieuwe technologische ontwikkelingen die voor nieuwe uitdagingen zorgen. Daarnaast kunnen algoritmen van sociale media gemanipuleerd worden om zo desinformatie te verspreiden of bepaalde nieuwsberichten zichtbaarder te maken voor gebruikers waarbij dit het meeste effect sorteert. 176 Hierdoor schuilt in personalisatie een

gevaar versterkende kracht.

175 Respondenten uit 37 landen met een focus op Europa. Zie voor een specificatie: Reuters Institute 2018, p. 5 176 Tucker e.a.2018, p. 30.

(30)

29

Hoofdstuk 4 – De verantwoordelijkheid van sociale media

De faciliterende rol van sociale media met betrekking tot de distributie van (gepersonaliseerd) nieuws, evenals de beschikbaarstelling, aanbeveling en toegang tot informatie, verklaren de toenemende druk op sociale media om verantwoordelijkheid te erkennen. Vervolgens zal in het kader van ethische verantwoordelijkheid worden bekeken hoe Corporate Social

Responsibility, een vorm van internationale zelfregulering door het bedrijfsleven, zich

verhoudt tot de regulering van sociale media en de daarop voorkomende online desinformatie en nieuws personalisatie. Gezien het feit dat de verantwoordelijkheid van sociale media eveneens voortvloeit uit recente regelgevende initiatieven uit Duitsland, Frankrijk en Italië, zal worden besproken in hoeverre dit een wenselijke ontwikkeling is.

4.1. Rol in de totstandkoming en verspreiding van (gepersonaliseerd) nieuws

De voornaamste functies van de pers gezien vanuit een democratisch ideaal bestaan uit: het informeren van de samenleving over politieke en maatschappelijke ontwikkelingen, het controleren van overheidshandelen, het bieden van een platform voor discussie en opinie en het agenderen van bepaalde onderwerpen.177 Facebook heeft lange tijd bepleit dat zij louter een passief technologiebedrijf is, om zo de kans op aansprakelijkheid en redactionele verantwoordelijkheid die gepaard gaat met de rol van de traditionele media te omzeilen.178 De traditionele rollenverdeling en de grens tussen publieke en private communicatie wordt steeds vager.179 Dominante sociale media zijn bepalend geworden voor de online informatievoorziening en het publieke debat, door hun invloed op de distributie, en aanbeveling van en toegang tot online informatie.180 Internettussenpersonen hebben de

gatekeeping functie van de traditionele media grotendeels overgenomen. De rol van de

traditionele media verschuift hierdoor naar gatewatching: het verifiëren, conceptualiseren en het reageren op online content die al verspreid is via sociale media.181

177 Trappel & Nieminen in: d’Haenens, Sousa en Trappel 2018, p. 194-195; NDP Nieuwsmedia, Democratie en media: nauw vervlochten.

178 Zollo & Quattrociocchi in: Moore & Tambini 2018, p. 356; Castillo, CNBC, 11 april 2018. 179 Valcke, Computerrecht 2009, p. 1; Recommendation CM/Rec(2011)7, §5.

180 McGonagle 2015, p. 13. 181 Bradshaw 2011, p. 6.

Referenties

GERELATEERDE DOCUMENTEN

Sanoma Media en Insites Consulting (Sanoma Media, 2012) hebben gekeken naar hoe emoties gebruikt kunnen worden voor meer relevante en aansprekende

Een vervolgonderzoek zou zich bovendien kunnen richten op het koppelen van de resultaten die blijken uit de huidige analyses, aan een onderzoek waarbij twitteraars

Een analyse van de literatuur en de casussen heeft geresulteerd in een overzicht van strategieën die door de overheid kunnen worden gehanteerd bij de inzet van sociale media: [1]

In dit geval zijn het aantal likes van de pagina een minder goede indicator voor prominentie van de pagina in het netwerk, gezien de pagina’s, die de meeste likes hebben vaak niet

The owner of the vital-sign monitoring (VsM) application service has designed an architecture of independent service providers, and translated requirement R1 into a set of assump-

Het wantrouwen in VT door professionals wordt versterkt door de gebrekkige bereikbaarheid van VT, een lange wachttijd en een ineffectieve communicatie (e.g. onwetend over

Artikel 14 van de EU-richtlijn inzake elektronische handel verhindert niet dat een hosting provider uit zichzelf schade- lijke informatie van zijn platform verwijdert vanuit een

De kennis van de risico‘s kan zeker helpen om het risico te minimaliseren, studies hebben echter aangetoond, dat veel jongeren ofwel helemaal niet aan de risico‘s denken, of ervan