• No results found

Bestaande oplossingen

Verschillende actoren in de maatschappij hebben zich gebogen over het fenomeen nepnieuws, en geprobeerd om duurzame oplossingen te bedenken: overheden, denktanks, journalisten, wetenschappers, het bedrijfsleven (met name social media- bedrijven) en de non-profitsector. De reeks aan voorgestelde maatregelen is lang en onordelijk, maar is breed genomen op te delen in vier categorieën:

– Algoritmisch – Wetgevend

– Correctief (factchecken) – Educatief

Algoritmische maatregelen

Met algoritmische maatregelen wordt bedoeld het aanpassen van de manier waarop online content wordt beoordeeld. Denk hierbij aan algoritmes die geruchten (Rojecki & Meraz, 2016; S Vosoughi, Mohsenvand, & Roy, 2017) of nepnieuws (Monti, Frasca, Eynard, Mannion, & Bronstein, 2019) kunnen detecteren, maar ook aan hoe berichten op social media (bijvoorbeeld op iemands Facebook-wall) worden gerangschikt, wat voor soort content voorrang krijgt en wat er onderaan de ranglijst komt te staan. Bedrijven als Facebook, Google en Twitter besteden een grote hoeveelheid geld en middelen aan het schrijven van algoritmes die het opsporen en verwijderen van ongewenste content makkelijker moeten maken. Indien succesvol, zou dit bijvoorbeeld Facebook een grote hoeveelheid geld besparen, dat

nu wordt uitgegeven aan de handmatige detectie van content die niet aan de gebruikersvoorwaarden voldoet. Bovendien zijn computers minder subjectief ingesteld dan mensen, is het idee, wat de maatregelen tegen nepnieuws minder partijdig zou maken.

Echter, het probleem met algoritmische maatregelen is en blijft dat computers fouten maken, en dat deze fouten voor een sterke tegenreactie kunnen zorgen. Social media-bedrijven krijgen met grote regelmaat kritiek op hun gebrekkige aanpak. Om een voorbeeld te noemen: YouTube introduceerde in 2019 een nieuwe methode om nazipropaganda automatisch te kunnen detecteren en verwijderen. Dankzij een nieuw beeldherkenningsalgoritme konden symbolen zoals het hakenkruis, maar ook gezichten (denk aan Adolf Hitler of Joseph Goebbels) automatisch worden opgespoord. Het idee was dat op deze manier video’s van witte nationalisten of neonazi’s niet langer online konden worden gezet zonder dat YouTube hiervan kennis had.

Het probleem met deze benadering werd al vrij snel duidelijk: het algoritme begreep het verschil niet tussen oprechte neonazi- content en historisch archief- of educatief materiaal (Waterson, 2019). Video’s van geschiedeniskanalen, onder andere het Regi- onaal Archief Alkmaar, werden door het algoritme aangemerkt als ‘haatzaaiend’ en zodoende verwijderd van het platform (NOS, 2019). Dit leidde tot veel woedende reacties. Nog een voorbeeld: een experiment van Facebook, waarbij sommige gebruikers al- leen commentaren onder berichten te zien kregen die ‘ongeloof uitdrukken’ (bijvoorbeeld door het woord ‘nep’ te gebruiken) werd alom slecht ontvangen. Gebruikers zeiden dat deze maatregel onterechte scepsis in de hand werkt door voorrang te geven aan commentaren die twijfel zaaien. Facebook heeft het experiment vervolgens beëindigd (Wakefield, 2017).

Kortom: algoritmische maatregelen kunnen een zekere mate van effect hebben, maar zijn in de regel kwetsbaar voor een terug- slageffect: zelfs als een algoritme in 99 van de 100 gevallen gelijk heeft, kan één fout tot onevenredig grote reputatieschade leiden. Dit leidt ertoe dat veel grote social media-bedrijven aarzelend

te werk gaan met het implementeren van detectiealgoritmes, en ruimte laten voor andere oplossingen.

Wettelijke maatregelen

De tweede categorie maatregelen is wetgeving. In veel landen bestaat al wetgeving omtrent smaad, laster of haatzaaien, die ingezet kan worden om bijvoorbeeld racistisch taalgebruik of persoonlijke aanvallen op individuen tegen te gaan. Een voorbeeld hiervan is de veroordeling van drie mensen voor het plaatsen van racistische opmerkingen onder een selfie op Facebook van voetballer Leroy Fer (Klompenhouwer, 2015). Het Openbaar Ministerie vond de uitlatingen ontoelaatbaar onder de bestaande discriminatiewetgeving. Als duurzame oplossing voor het probleem is dit echter ontoereikend; het aanklagen van mensen die hatelijke content online plaatsen is een tijdrovend en kostbaar proces, dat in veel gevallen bovendien geen veroordeling oplevert. Daarnaast heeft Justitie maar beperkte jurisdictie; iemand die vanuit het buitenland illegale content in Nederland verspreidt, kan doorgaans niet door een Nederlandse rechter worden veroordeeld.

Ook een idee is om wetten aan te nemen die het verspreiden van neppe, misleidende of haatzaaiende berichten illegaal maken. Duitsland is hier zeer vooruitstrevend in. In oktober 2017 werd hier een wet van kracht die mediabedrijven (inclusief social media) 24 uur de tijd geeft om haatzaaiend materiaal te verwijderen, op straffe van een boete van maximaal 50 miljoen euro. De wet werd sterk bekritiseerd omdat ze inbreuk zou plegen op de vrijheid van meningsuiting en zou leiden tot het verwijderen van materiaal dat in zijn geheel niet haatzaaiend is, om boetes te vermijden. Onder andere Human Rights Watch liet zich zeer negatief over de nieuwe wet uit (Human Rights Watch, 2018). Een jaar na invoering bleek dat Facebook, Google en Twitter tussen de 10 en 27 procent van alle verwijderingsver- zoeken inwilligen. Er was, zo kwam naar voren uit een forum over internet governance, inderdaad een duidelijke tendens om

twijfelgevallen te verwijderen in plaats van ze online te laten staan (Ermert, 2018).

Een ander, doorgaans onderschat risico van nepnieuwswet- geving is dat autoritaire staten wetgeving in democratische landen als inspiratie gebruiken om de persvrijheid in te perken of politieke tegenstanders de mond te snoeren (Financial Times, 2019). Landen als Syrië, China en Rusland, waar het vrije woord nu eenmaal niet erg hoog in het vaandel staat, wijzen bij kri- tiek op hun maatregelen tegen wat zij ‘nepnieuws’ noemen met de vinger naar Duitsland en andere westerse landen; immers, waarom zouden zij niet dezelfde maatregelen mogen nemen als hun democratische tegenhangers?

Oftewel: nepnieuws bestrijden door middel van wetgeving blijkt moeilijker dan gedacht. Niet alleen komt vrijheid van meningsuiting onder druk te staan, het vormt ook een excuus voor autoritaire regimes om de toch al wankelende politieke en maatschappelijke oppositie de mond te snoeren.

Correctieve maatregelen

Met correctieve maatregelen tegen nepnieuws bedoelen we initiatieven die nepnieuws proberen te ontkrachten door middel van factchecks of retroactieve verwijdering. In Nederland is NieuwsCheckers, een initiatief van de Universiteit Leiden, het bekendste voorbeeld hiervan, maar ook bij kranten en andere nieuwsorganisaties zijn factcheckers actief. In andere landen zijn Snopes en PolitiFact bekende voorbeelden. Virale nieuws- berichten worden door factcheckers op hun betrouwbaarheid getoetst, en onbetrouwbare berichtgeving krijgt een cijfer of een stempel (bijvoorbeeld ‘pants on fire’ bij PolitiFact). Alhoewel het natuurlijk belangrijk is dat het nieuws wordt gecheckt en getoetst, zijn er enkele nadelen aan deze benadering.

Ten eerste is het bewijs voor de effectiviteit van factchecken niet unaniem positief. Correcties falen bijvoorbeeld omdat ons geheugen ons in de steek laat of omdat mensen zelf redenen zoeken waarom zij het niet eens zijn met de factcheck (Nyhan,

2017; Nyhan & Reifler, 2012). Daarnaast laat onderzoek door Stephen Lewandowsky, hoogleraar aan de Universiteit van Bristol, zien dat het erg moeilijk is om iemand van mening te doen veranderen nadat hij of zij in deze mening cognitief heeft geïnvesteerd, zelfs als deze mening op aantoonbare onwaarheden is gebaseerd (Lewandowsky, Ecker, Seifert, Schwarz, & Cook, 2012). Of, in andere woorden, het is lastig om iemand ergens van te ‘onovertuigen’. Ook vestigt de factcheck opnieuw de aandacht op het oorspronkelijke bericht, waardoor het nooit geheel uit het oog verdwijnt. Een factcheck is dus niet altijd effectief, zeker als iemand niet door de factcheck wil worden overtuigd. Dit probleem is des te groter als de bron van de factcheck als onbetrouwbaar of bevooroordeeld wordt gezien.

Ten tweede heeft onderzoek aangetoond dat nepnieuws zich verder, sneller en dieper verspreidt op social media dan andere vormen van nieuws, bijvoorbeeld nieuws over natuurrampen, sport of entertainment (Soroush Vosoughi, Roy, & Aral, 2018). Dit betekent dat het onwaarschijnlijk is dat een factcheck evenveel mensen bereikt als het originele nepnieuws. In andere woorden: op internet verspreidt de leugen zich doorgaans sneller dan de waarheid haar kan achtervolgen. Dit betekent niet dat factchecks nutteloos zijn: een onderzoek uit 2015 liet zien dat politici gevoelig zijn voor hun eigen reputatie, en dat als zij herinnerd worden aan het feit dat hun uitspraken op hun waarheidsgehalte worden getoetst, zij (in ieder geval tot een paar jaar geleden) minder geneigd zijn onware uitspraken te doen (Nyhan & Reifler, 2015). Wel is het een aanwijzing dat er meer oplossingen dan alleen factchecks nodig zijn om het probleem van online nepnieuws aan te pakken.

Educatieve maatregelen

Deze vierde categorie wordt door velen, onder wie de Europese Commissie, min of meer als een heilige graal gezien (European Commission, 2018). Om kinderen en jongvolwassenen klaar te stomen voor de eenentwintigste eeuw is onder meer kennis nodig

over hoe je betrouwbare van onbetrouwbare informatie kunt onderscheiden. Dit moet, zo redeneert men, mensen klaarstomen voor een maatschappij waarin steeds meer ontwikkelingen zich online voordoen. Veel scholen zien in dat dit nuttig is en zijn begonnen met het implementeren van mediawijsheid- of mediageletterdheidsprogramma’s. Organisaties zoals Stichting Mediawijsheidscholen helpen hen hierbij.

Dergelijke initiatieven hebben geen last van veel van de nadelen die hierboven zijn beschreven; overheden en so- cial media-bedrijven grijpen immers niet direct in om iemands nieuws consumptie te veranderen. Hiermee worden lastige vragen rond persvrijheid en censuur voor een groot deel vermeden. Toch zijn er twee problemen met deze focus op het onderwijs.

Ten eerste blijkt uit onderzoek dat veel jongeren bovengemid- deld goed presteren op het herkennen van nep- of onbetrouwbaar nieuws, en dat juist ouderen hier veel minder goed in zijn (Guess, Nagler, & Tucker, 2019). Het probleem van de verspreiding van nepnieuws op internet wordt dus niet opgelost door alleen in te zetten op onderwijs, dat immers alleen jongeren bereikt. Het overgrote deel van de bevolking ziet doorgaans nooit een klaslokaal vanbinnen, en wordt dan ook niet blootgesteld aan mediawijsheidlessen.

Ten tweede is het fenomeen nepnieuws continu aan verande- ring onderhevig. Technologische ontwikkelingen gebeuren met zo’n vaart dat ze zelfs voor experts moeilijk bij te benen zijn. Een voorbeeld zijn de zogeheten deepfakes; gemanipuleerde video’s waarin iemand, bijvoorbeeld een figuur uit de politiek of entertainmentwereld, bijna perfect wordt geïmiteerd. Op deze manier wordt het wel heel makkelijk om iemand woorden in de mond te leggen. Nu is het zo dat ook deepfakes (in ieder geval nu nog) voor het oplettende oog te herkennen zijn. Maar iemand die vijf jaar geleden een mediawijsheidtraining heeft ondergaan, heeft in die training in ieder geval nooit over deep-

fakes gehoord. Oftewel: mediageletterdheid is niet aan het begin

van iemands leven ‘aan te leren’ zonder een bijspijkercursus zo nu en dan.