• No results found

Invloeden op het herkenningsvermogen van Deepfakes

N/A
N/A
Protected

Academic year: 2021

Share "Invloeden op het herkenningsvermogen van Deepfakes"

Copied!
40
0
0

Bezig met laden.... (Bekijk nu de volledige tekst)

Hele tekst

(1)

INVLOEDEN OP HET

HERKENNINGSVERMOGEN VAN

DEEPFAKES

Sjoerd Rienks

11773138

10 mei 2021

Begeleider: R. Pankow

2e Examinator: L. van Pappelendam

Bachelorscriptie Informatiekunde

Faculteit der Natuurwetenschappen, Wiskunde en Informatica

Universiteit van Amsterdam

(2)

1

Abstract

Steeds vaker krijgen we in de samenleving te maken met media die zijn gecreëerd door kunstmatige intelligentie. Een alomvattende term hiervoor is synthetische media, maar in de volksmond worden dit soort media ook wel Deepfakes genoemd. Deepfakes maken het mogelijk om media zo te bewerken dat het bijvoorbeeld lijkt alsof iemand iets zegt, wat hij in werkelijkheid nooit gezegd heeft. Deepfakes kennen in onze samenleving positieve, maar ook negatieve toepassingen. Zo is er een stijgende zorg over de toepassing van Deepfakes om desinformatie te creëren.

Het doel van dit onderzoek was om te achterhalen hoe goed mensen zijn in het herkennen van Deepfakebeelden. Er is gekeken of iemands gedrag online, informatiegeletterdheid en voorkennis van Deepfakes van invloed is op het vermogen van mensen tot het herkennen van dit soort beelden. Zodoende is de volgende onderzoeksvraag opgesteld: In hoeverre hebben iemands

informatiegeletterdheid, online gedrag en voorkennis van Deepfakes invloed op het vermogen tot het herkennen van Deepfakebeelden?

Om op deze vraag antwoord te kunnen geven zijn er drie hypotheses opgesteld en getoetst. De eerste hypothese had betrekking tot de informatiegeletterdheid van mensen en luidde als volgt: Iemand met een

hoge informatiegeletterdheid is beter in het herkennen van Deepfakebeelden. De tweede hypothese

toetste de voorkennis van Deepfakes van mensen: Iemand die voorkennis heeft over Deepfakes is beter in

het herkennen van Deepfakebeelden. De derde hypothese onderzocht de invloed van iemands

onlinegedrag: Iemands gedrag op sociale media en heeft een positieve invloed op het vermogen tot het

herkennen van Deepfakebeelden.

Vervolgens zijn de hypotheses middels kwantitatief onderzoek getoetst. Op sociale media zijn er in verschillende groepen vragenlijsten verspreid onder Nederlandse respondenten, ook zijn vragenlijsten verspreid in eigen netwerk. In de vragenlijst werd het onlinegedrag, de informatiegeletterdheid en voorkennis van Deepfakes onderzocht, alvorens de respondenten zowel echte als synthetische beelden te zien kregen. Aan de respondenten te bepalen welke echt of nep waren.

Uit de resultaten bleek dat er geen significante verbanden waren gevonden die het herkenningsvermogen van Deepfakes van mensen kan verklaren. Het is niet zeker dat iemands informatiegeletterdheid, online gedrag of voorkennis van Deepfakes positieve of negatieve invloed uitoefenen. Wel bleek dat de respondenten het moeilijk vonden om Deepfakebeelden te onderscheiden van echte beelden. Ook is gebleken dat de informatiegeletterdheid van de respondenten redelijk hoog was, maar de voorkennis over Deepfakes niet.

(3)

2

Inhoudsopgave

Abstract ... 1

1. Introductie ... 3

2. Theoretisch kader ... 5

2.1 Wat zijn deepfakes? ... 5

2.2 Wat is synthetische media? ... 5

2.3 Vormen van synthetische media ... 5

2.4 Generative Adversarial Network ... 6

2.5 Potentiële voordelen van synthetische media ... 7

2.6 Potentiële nadelen en gevaren van synthetische media ... 8

2.7 Hoe kan malafide synthetische media bestreden worden?... 9

2.7.1 Informatiegeletterdheid om malafide synthetische media te bestrijden ... 10

2.7.2 Voorkennis Deepfakes ... 10 3. Methodologie ... 12 3.1 Onderzoeksontwerp ... 12 3.2 Participanten ... 12 3.3 Materialen ... 12 3.4 Procedure ... 14 3.5 Analyse ... 14 4. Resultaten ... 15 4.1 Algemene gegevens ... 15 4.2 Onlinegedrag ... 15 4.3 Informatiegeletterdheid... 16 4.4 Voorkennis Deepfakes ... 16 4.5 Deepfake herkenningsvragen ... 19

4.6 Invloed van de variabelen op het herkenningsvermogen van Deepfakes ... 20

4.6.1 Regressieanalyse zonder zekerheidsfactor beantwoording ... 20

4.6.2 Meervoudige regressieanalyse met zekerheidsfactor beantwoording ... 22

5. Conclusie ... 24

6. Discussie ... 25

7. Literatuurlijst ... 26

(4)

3

1. Introductie

Deepfakes, dit zijn beelden, geluiden en teksten die door kunstmatige intelligentie worden gecreëerd. Sinds een paar jaar gaat de ontwikkeling van deze technologie razendsnel. Waar in 2017 nog door bijna iedereen was te zien dat Deepfakebeelden duidelijk nep waren. Is het anno 2021 een stuk lastiger. Bijna met de dag wordt kunstmatige intelligentie beter in het maken van deze media (Bates, 2018). Met de opkomst van deze technologie realiseren we ons dat er veel mooie en leuke dingen mee te bereiken zijn. Denk aan grappige apps om je eigen hoofd in een filmscène te plaatsen. Maar wanneer kustmatige intelligentie beelden van personen kan creëren die niet van echt te onderscheiden zijn, dan brengt dat ook risico’s met zich mee.

Uit recent onderzoek blijkt dan ook dat mensen die gemanipuleerde filmpjes onder ogen krijgen van bijvoorbeeld politici, negatiever kunnen gaan denken over die persoon (Dobber et al., 2020). Met beelden gemaakt door kunstmatige intelligentie is het mogelijk om de meningen en standpunten van mensen te beïnvloeden. De onderzoekers lieten Deepfakebeelden zien aan een specifieke doelgroep en toonden aan dat ze de meningen van de participanten met Deepfakes negatief konden beïnvloeden. Wel bleef het resultaat beperkt tot een specifieke groep personen waar van tevoren al bedacht was dat ze extra vatbaar zouden kunnen zijn. Niet iedereen was in dat onderzoek even makkelijk te manipuleren, maar dit laat wel zien dat Deepfakes gebruikt kunnen worden voor negatieve doeleinden.

Een Deepfake filmpje kan zodanig ingezet worden als nepnieuws. Wanneer Deepfakebeelden worden toegepast om nepnieuws te verspreiden, dan vallen ze onder een vorm van desinformatie. De laatste jaren is nepnieuws en desinformatie een steeds groter probleem in de samenleving. Onderzoek heeft aangetoond dat foutieve informatie zich sneller verspreidt op sociale media, dan betrouwbare informatie (Cochran & Napshin, 2021). Daarnaast schaadt dit ook het algemeen vertrouwen van mensen in media- en nieuwsbronnen (Bridges, 2019). Wanneer nepnieuws wordt gecombineerd met Deepfake video’s, dan kan de impact van nepnieuws nog stukken groter worden. Zo hebben Deepfake video’s al meerdere keren stof doen opwaaien omdat ze gebruikt werden om nepnieuws te verspreiden. Onderzoek naar de effecten hiervan wordt gedaan, voornamelijk wordt er geprobeerd om met kunstmatige intelligentie Deepfakes te herkennen. Er is echter nog weinig onderzoek uitgevoerd naar hoe goed Deepfakes te herkennen zijn door mensen zelf (Cochran & Napshin, 2021).

Eerder onderzoek rondom desinformatie op zich heeft wel uitgewezen dat verschillende factoren van invloed zijn op de mate waarin mensen nepnieuws kunnen herkennen. Wat namelijk blijkt is dat mensen met een hogere informatiegeletterdheid beter zijn in het herkennen van nepnieuws dan mensen met een lage informatiegeletterdheid gelden (Jones-Jang, Mortensen, & Liu, 2019). Wanneer

informatiegeletterdheid invloed heeft op het herkenningsvermogen van nepnieuws van mensen, dan wordt de link met Deepfakes snel gelegd. Ook voor het herkenningsvermogen van Deepfakes zou dit kunnen. Daarnaast bestaat de theorie dat wanneer mensen eerder in contact zijn gekomen met

desinformatie ze dit later beter kunnen herkennen (Jeong, Cho & Hwang, 2012). Mensen kunnen als het ware worden ingeënt tegen de schadelijke effecten van nepnieuws. In dit onderzoek wordt een poging gedaan om eerder gedaan onderzoek rondom desinformatie en nepnieuws te linken aan Deepfakes. Door te kijken naar het onlinegedrag van mensen, hun informatiegeletterdheid en voorkennis rondom

Deepfakes wordt onderzocht hoe goed mensen Deepfakes kunnen herkennen. De onderzoeksvraag van dit onderzoek luidt dan ook als volgt:

In hoeverre hebben iemands informatiegeletterdheid, online gedrag en voorkennis van Deepfakes invloed op het vermogen tot het herkennen van Deepfakebeelden?

(5)

4 Om dit te onderzoeken is er een kwantitatieve data-analyse verricht met als afhankelijke variabele het herkenningsvermogen van Deepfakes en als onafhankelijke variabelen informatiegeletterdheid, online gedrag en voorkennis van Deepfakes. Data is verzameld door middel van het houden van enquêtes. De data zijn met SPSS verwerkt waarna er eerst beschrijvend statistisch onderzoek is gedaan. Vervolgens is er een hiërarchische meervoudige regressieanalyse uitgevoerd om te kijken naar in hoeverre de

onafhankelijke variabelen invloed uitoefenen op de afhankelijke variabele.

In het volgende deel van deze scriptie wordt dieper ingegaan op de theorie rondom Deepfakes. Er wordt gekeken naar waar de technologie vandaan komt en er wordt met meer details beschrijven wat de voor- en nadelen van het gebruik hiervan kunnen zijn. De hypotheses worden in dit hoofdstuk opgesteld. Hoofdstuk 3 gaat in op de methodologie. Hierin wordt verder beschreven hoe het onderzoek is

uitgevoerd. Vervolgens beschrijft hoofdstuk 4 de resultaten van de kwantitatieve data-analyse. Tot slot worden in hoofdstuk 5 en 6 de conclusie en discussie beschreven.

(6)

5

2. Theoretisch kader

2.1 Wat zijn deepfakes?

Het wordt steeds eenvoudiger om met technologie beelden, geluiden en teksten te creëren. Afbeeldingen en video’s kunnen met de computer zo worden bewerkt dat virtuele simulaties echt lijken. Recente technologische ontwikkelingen hebben het voor de massa mogelijk gemaakt om video’s te maken van mensen waarbij het gezicht of hoofd is vervangen door het hoofd van iemand anders. Of video’s waarbij mensen dingen lijken te zeggen die ze in het echt nooit gezegd hebben. Dergelijke video’s worden Deepfakes genoemd.

Deepfakes ontlenen hun naam aan een combinatie van “deep learning” en “fake”. Met behulp van kunstmatige intelligentie en deep learning modellen worden neppe beelden gecreëerd (Bates, 2018). Kunstmatige neurale netwerken kunnen, met behulp van een dataset die groot genoeg is, iemands gezichtsuitdrukkingen, gedragskenmerken, en manier van praten leren na te doen. Zo is het mogelijk om een algoritme te trainen om in een video het gezicht van iemand te vervangen voor het gezicht van iemand anders. Een alomvattende term hiervoor is synthetische media.

Naast de term Deepfake wordt ook de term Cheapfake soms gebruikt. Dit zijn twee verschillende vormen van media en moeten niet met elkaar worden verward. Cheapfakes zijn weliswaar afbeeldingen of video’s, maar deze zijn niet door kunstmatige intelligentie gecreëerd (Paris & Donovan, 2019). Dit zijn vaak media waarbij er bestaand materiaal bewerkt is door mensen zelf dat het iemand moet kunnen misleiden. Denk hierbij aan gefotoshopte afbeeldingen of verknipte video’s.

2.2 Wat is synthetische media?

Deepfakes zijn een vorm van synthetische media. Media, zoals foto’s, video’s, teksten of

audiofragmenten, die gecreëerd of gemodificeerd zijn door kunstmatige intelligentie. Synthetische media zijn bijvoorbeeld video’s of afbeeldingen die gemaakt zijn door kunstmatige intelligentie waarbij de computer inspiratie heeft opgedaan bij bestaande beelden. Er worden geen beelden geknipt en geplakt door de computer, maar er wordt daadwerkelijk zelf iets bedacht en gecreëerd (Ovadya & Whittlestone, 2019). Op deze manier kan een computer een video maken waarin iemand iets doet, wat hij in

werkelijkheid nooit heeft gedaan.

De eerste keer dat de wereld in aanraking kwam met deze technologie was in 2017. Een anonieme gebruiker van Reddit was de eerste die een video postte van met kunstmatige intelligentie

gemodificeerde beelden van een beroemdheid. Met behulp van Tensorflow, een open-source

softwarebibliotheek van Google, creëerde hij neppe pornobeelden van beroemdheden (Schwartz, 2018). Sindsdien heeft de ontwikkeling van deze technologie een grote vlucht genomen en worden we er steeds vaker mee geconfronteerd.

2.3 Vormen van synthetische media

Deepfake video’s zijn op dit moment de meest voorkomende en bekendste vorm van synthetische media, maar er bestaan nog meer vormen. Zo bestaan er afbeeldingen die worden gegenereerd met behulp van kunstmatige intelligentie. Denk hierbij niet aan het verwisselen van een gezicht in een stilstaand beeld, maar het volledig creëren van objecten. Er kunnen plaatsen, objecten en zelfs personen worden gegenereerd (Karras et al., 2019). Zo heeft Nvidia in 2019 het Gaugan project vrijgegeven. Met deze software worden fotorealistische afbeeldingen gemaakt op basis van simpele tekeningen (Nvidia, z.d.). Ook bestaat er synthetische media in de vorm van spraak. Denk hierbij aan tekst-naar-spraak software en virtuele assistenten. Kunstmatige intelligentie kan stemmen namaken, maar ook bedenken. De slimme

(7)

6 assistent van Google kan zo met een door een computer gegenereerde stem een afspraak maken bij de kapper (Grubb, 2018). Daarnaast bestaat ook de vorm van synthetische media als muziek. Er bestaat al een bedrijf dat met behulp van kunstmatige intelligentie simpele muziekstukken maakt in meerdere genres (Aiva, 2020). Ook zijn er talloze internetfilmpjes te vinden waarbij nummers worden ‘afgemaakt’ door een algoritme. Neem als voorbeeld Broccaloo (2021), met behulp van OpenAI Jukebox maakt hij met kunstmatige intelligentie gecreëerde muzieknummers. De laatste veelvoorkomende vorm van

synthetische media is de creatie van tekst. Zo kunnen er volledige teksten worden gecreëerd op basis van een paar steekwoorden, of kunnen teksten worden aangepast (Brown et al., 2020). In totaal zijn er dus vier vormen van synthetische media te onderscheiden. Maar op welke manier werkt een kunstmatige intelligentie die deze media creëert?

2.4 Generative Adversarial Network

Het soort kunstmatige intelligentie dat betrokken is bij de creatie van synthetische media is een Generative Adversarial Network (GAN). Een GAN netwerkt bestaat uit twee concurrerende neurale netwerken die samen iets nieuws creëren (Brownlee, 2019). De twee netwerken heten de ‘generator’ en de ‘discriminator’. Beiden worden getraind op dezelfde dataset met afbeeldingen, video’s en

audiofragmenten. Zie figuur 1 een visueel model van een Generative Adversarial Network.

De discriminator heeft de taak om te bepalen of nieuwe media thuishoren in de bestaande dataset. Dit netwerk bepaalt zo of een afbeelding realistisch genoeg is, in vergelijking met de afbeeldingen uit de oorspronkelijke dataset, om echt of nep te kunnen zijn. De generator heeft juist de taak om nieuwe media te genereren. Als deze twee netwerken samen werken, dan wordt er dus door de generator media gecreëerd en door de discriminator gecontroleerd of deze media realistisch genoeg is. De twee netwerken kunnen zo van elkaar leren.

Een GAN zal echter nooit volledig zelf iets bedenken. Alleen op basis van andere beelden kunnen er objecten of personen worden gegenereerd. Als een systeem is getraind op het creëren van planten, zal het nooit een auto kunnen maken. Of als een GAN alleen maar data is gegeven met mensen waarbij het haar bedekt is, dan zal er nooit een persoon kunnen worden gegenereerd met een volle bos krullen. Een Deepfake video dus een video die gecreëerd is door een Generative Adversarial Network.

Figuur 1. Model van een Generative Adversarial Network (Brownlee, 2019)

(8)

7

2.5 Potentiële voordelen van synthetische media

Met de opkomst van GAN’s die steeds realistischere beelden kunnen creëren is het goed om te kijken naar hoe we deze techniek kunnen toepassen met voordelen voor de maatschappij. De technologie van Deepfakes kent naast het maken van grappige internetfilmpjes namelijk vele toepassingen. Voor meerdere sociale en commerciële industrieën liggen er kansen. Bijvoorbeeld voor de film- en game industrie, de gezondheidszorg, sociale media en marketing.

De filmindustrie kan op meerdere manieren voordelen behalen uit het gebruik van synthetische media. Waar het vroeger voor alleen Hollywood producties met een groot budget mogelijk was om bijvoorbeeld overleden acteurs opnieuw tot leven te wekken door het hoofd van een plaatsvervangende acteur te veranderen door het hoofd van een overleden acteur. Is dat nu mogelijk met een veel kleiner budget (Marr, 2019). Zo kunnen er makkelijker nieuwe films gemaakt worden met al lang overleden acteurs, of kan een film of serie worden doorgezet als een acteur halverwege overlijdt.

Deepfake technologie in combinatie met goede videobewerkingsvaardigheden staat ook toe dat er veranderd kan worden wat acteurs tijdens de opnames hebben gezegd. Zo hoeft er niet opnieuw gedraaid te worden als er pas tijdens de productie wordt bedacht dat er iets aangepast moet worden aan de tekst. Een voorbeeld hiervan is wat Synthesia, een organisatie gespecialiseerd in het maken van advertenties en bedrijfsvideo’s met kunstmatige intelligentie, heeft gedaan in een video waarin de tekst van Snoop Dogg met behulp van Deepfake technologie is aangepast om bruikbaar te zijn op de Australische markt (Synthesia, 2020).

Deze tak is verder door te voeren. Uit recent onderzoek is gebleken dat het met een GAN mogelijk is om automatisch gesproken video’s te vertalen en ervoor te zorgen dat de lipbewegingen kloppen met de uitspraak van de vertaalde tekst. Het dubben van films in een andere taal is nu nog een hele dure taak, maar zou met het gebruik van kunstmatige intelligentie een stuk goedkoper kunnen (K R et al., 2019, p. 1434).

Ook in de zorg bestaan er kansen voor het gebruik van synthetische media. Een model voor kunstmatige intelligentie wordt vaak getraind met heel veel data. Dat kan voor wetenschappers die een model willen trainen voor de herkenning van bijvoorbeeld ziektesymptomen een probleem zijn. Door privacy- en financiële redenen, of schaarste, kan het een uitdaging zijn om aan de juiste data te komen. In recent onderzoek is het gelukt om met behulp van een GAN afbeeldingen te creëren waarmee betrouwbare herkenningssoftware kon worden getraind (Shin et al, 2018). Op deze manier kan de zorg profiteren van synthetische media; herkenningssoftware kan worden getraind terwijl de privacy van mensen beschermd blijft en de kosten hiervan niet te hoog oplopen.

Er bestaan meer toepassingen op het gebied van zorg. Met deepfake’s zouden transgenders zichzelf kunnen zien in het lichaam van het andere geslacht. Ook kunnen geamputeerde ledematen op

afbeeldingen en in video’s worden gerecreëerd, wat misschien kan helpen bij de acceptatie van het verlies (Westerlund, 2019).

Ten slotte kan het gebruik van synthetische media ook de commerciële markt, in het bijzonder de marketing, voordelen geven. Advertenties met bekende acteurs kunnen stukken goedkoper worden gemaakt, omdat de acteur zelf niet bij de opnames aanwezig hoeft te zijn. Alles kan digitaal. Voor de kledingindustrie hoeft zelfs helemaal geen model meer te bestaan, de modellen zelf kunnen gecreëerd worden door kunstmatige intelligentie (DutchNews, 2021). Deze technologie kan er zelfs voor zorgen dat kleding die online gekocht wordt, thuis gepast kan worden. Door jezelf met een webcam te filmen, kan een kunstmatige intelligentie jou laten zien hoe een kledingstuk jou staat. Zo hoef je niet meer naar de

(9)

8 winkel (Dietmar, 2019). Er bestaat dus flink potentie in de wereld van marketing voor het gebruik van synthetische media.

2.6 Potentiële nadelen en gevaren van synthetische media

Hoewel de opkomst van synthetische media de laatste jaren heeft gezorgd voor een scala aan vermakelijke video’s en toepassingen voor goede doeleinden, ziet de toekomst er niet uitsluitend rooskleurig uit. Met synthetische media kunnen mensen voor de gek worden gehouden op manieren die vroeger nooit voor mogelijk werden aangezien. Zo kunnen Deepfakes gebruikt worden voor het maken van nepnieuws (Dobber et al., 2020). Een afbeelding zegt namelijk meer dan duizend woorden, maar een video misschien wel meer dan duizend afbeeldingen.

Zolang als er media bestaan, bestaat er al nepnieuws. Denk bijvoorbeeld aan het radio-hoorspel War of the Worlds uit 1938. In nieuwsberichten op de radio werd er verslag gedaan van een buitenaardse invasie. De kranten volgden snel en kopten massaal over paniek onder luisteraars over deze buitenaardse aanval. Uiteindelijk bleek dat niet alleen het radio-hoorspel, maar ook de krantenberichten volledig onecht waren. Toch bestaat nu, meer dan 80 jaar later, nog steeds het idee dat mensen massaal in paniek raakten na een avond radio luisteren (Redactie Joop, 2018).

Dat synthetische media gebruikt kunnen worden voor het maken van nepnieuws is eigenlijk

vanzelfsprekend. Met neppe beelden en teksten kunnen nieuwsberichten worden gemaakt om mensen op het verkeerde been te zetten. Het opzettelijk verspreiden van misleidende informatie, bijvoorbeeld een neppe video van een politici, wordt desinformatie genoemd (Wardle & Derekhshan, 2017). Desinformatie wordt gecreëerd om opzettelijk personen, sociale groepen, landen of organisaties te schaden.

Tijdens de presidentiële verkiezen voor de Verenigde Staten in 2016 kwam het debat rondom nepnieuws en desinformatie in een stroomversnelling terecht. Samen met de opkomst van sociale media, waarmee iedereen een podium kan krijgen om informatie te delen, werd de term ‘nepnieuws’ steeds vaker gebruikt (Lee, 2019). Dat niet alleen het debat rondom nepnieuws toen op gang kwam, maar ook daadwerkelijk de verspreiding ervan toenam, blijkt uit ander onderzoek (Allcott en Getzkow, 2017). Het aantal meldingen van nepnieuws steeg, en uit later onderzoek blijkt ook dat vele stemgerechtigden daadwerkelijk in aanraking zijn gekomen met nepnieuws tijdens de Amerikaanse verkiezingen en dat hun meningen daardoor beïnvloed kunnen zijn (Jones-Jang et al., 2019). Nepnieuws is dus zeker een reëel verschijnsel dat een gevaar kan vormen, zeker in combinatie met synthetische media.

Ook in kleine kring kan synthetische media een gevaar vormen. Denk hierbij aan afpersing van bekenden met het maken van een neppe video waarin iemand iets zegt of doet wat hij nooit zou hebben gedaan. In kleine kring kan zich dit bijvoorbeeld uiten als online intimidatie en cyberpesten tussen jongeren

(Simonite, 2020). Iedereen met een sterke computer kan namelijk een Deepfake video maken.

Desinformatie, en in het bijzonder synthetische media, is ook in staat tot het schaden van het algemeen vertrouwen in de media. Als burgers niet meer weten of een video van politici echt of nep is, wordt het steeds moeilijker om informatie die je krijgt te vertrouwen. Al helemaal in de tijd dat de informatie die we te zien krijgen gebaseerd is op ons zoekgedrag, bestaat de kans dat je terechtkomt in een bubbel gevuld met desinformatie. Het is dan ook niet heel gek dat we tegenwoordig meer en meer nieuwsberichten lezen over demonstranten die geloven in complottheorieën (Kloor, 2020). Vooral wanneer zelfs video’s niet meer te vertrouwen zijn is dit een probleem.

Een voorbeeld van het niet meer vertrouwen in de media van video’s is de speech die president Ali Bongo van Gabon hield in 2018. Het gerucht ging dat de president niet langer gezond was en het land kon leiden.

(10)

9 De regering deelde toen een speech van de president waarin hij het land geruststelt en zegt dat het goed met hem gaat (Breland, 2019). In de video komt de president stijfjes over met een onnatuurlijke manier van spreken en gezichtsuitdrukkingen. Volgens de autoriteiten kwam dit doordat Ali Bongo ziek was geweest en waren deze gelaatsuitdrukkingen gevolgen van zijn behandeling en botox. Tegenstanders van Bongo verklaarden de video echt bijna meteen als een Deepfake, volgens hen kon dit geen echte video zijn. Uit later onderzoek (Cahlan, 2020) is wel gebleken dat de video waarschijnlijk echt is. Meerdere wetenschappers hebben de video getest met tools om Deepfakes te herkennen, en bij alle tests werd vastgesteld dat de video geen Deepfake was. De schade was echter al gedaan. Binnen een week

destabiliseerde het land en pleegde het leger een coup. Uiteindelijk was deze niet succesvol, maar dit laat wel zien wat een impact een video kan hebben als media niet meer te vertrouwen is (Cahlan, 2020). Of een video dan uiteindelijk synthetisch of echt is, maakt weinig verschil.

2.7 Hoe kan malafide synthetische media bestreden worden?

Dat synthetische media bestaat en groeit is niet te ontkennen. Ook zal het niet snel gaan verdwijnen, er valt aan te nemen dat de technologie hiervoor de komende jaren alleen nog maar zal verbeteren. Aan de ene kant is dat goed, met synthetische media zijn vele mooie dingen te bereiken. Maar er bestaat zeker ook een schaduwkant. Het is daarom een goed idee om te kijken naar manieren waarop malafide synthetische media te bestrijden zijn.

Ten eerste is wetgeving en regulering omtrent synthetische media en nepnieuws een vereiste. Op dit moment bestaat er amper wetgeving rondom dit onderwerp. In de Europese Unie zijn parlementaire vragen gesteld (Lenaers, 2019) en recent is er nieuwe wetgeving aangekondigd door de Europese Unie op dit gebied (NOS, 2021). De revolutie rondom kunstmatige intelligentie en nepnieuws in het algemeen vraagt om nieuwe soorten wetten en regelgeving. Deepfakes geven namelijk aanleiding tot bezorgdheid rondom privacy en copyrightregels. De beelden van bijvoorbeeld beroemdheden in een neppe video zijn namelijk niet gekopieerd, maar gecreëerd door een computer. Gelden dan de huidige copyrightregels nog wel? De wetgeving lijkt voor nu op dit onderwerp achter te lopen. Op dit moment bestaat er namelijk nog geen enkele wet- of regelgeving rondom de toepassingen van kunstmatige intelligentie (Thornton, Fromlowitz, Sylla, Fleeson, Pennisi (2020).

Goede wetgeving en regulering omtrent synthetische media kan ervoor zorgen dat we malafide

toepassingen kunnen gaan bestrijden. Zo zou het illegaal kunnen worden om video’s te manipuleren en te verspreiden van mensen zonder nadrukkelijke toestemming vooraf. Dan is het in ieder geval mogelijk om voor de wet te zeggen dat het niet meer mag. Handhaving is dan nog wel een probleem, gezien de grote mate van anonimiteit die het internet haar gebruikers biedt. Daarnaast is een verbod in eigen land een idee, maar wanneer een ander land middels synthetische media desinformatie probeert te verspreiden, dan zullen ze zich niks aantrekken van wetten (Thornton et al., 2020). Een compleet verbod op de technologie is waarschijnlijk niet gewenst. Volgens Bobby Chesney (2019), Amerikaans advocaat en hoogleraar aan de universiteit van Texas, is een volledig verbod onethisch en bijna onmogelijk om te handhaven.

Ten tweede kan synthetische media worden bestreden door vuur met vuur te bestrijden. Het is mogelijk om een kunstmatige intelligentie te maken die speciaal ontwikkeld is om neppe media te herkennen. Zo is het mogelijk om Deepfakes te herkennen en om echte media te authentiseren. De beschikbaarheid van datasets die modellen moeten kunnen trainen om manipulatie van video’s te herkennen zijn echter schaars. In 2018 hebben onderzoekers een dataset gemaakt met meer dan een half miljoen afbeeldingen waarmee herkenningsmodellen voor Deepfakes zouden kunnen worden getraind (Rössler et al., 2018). Dat onderzoek wees echter ook uit dat met dezelfde dataset modellen konden worden getraind die juist

(11)

10 Deepfakes kunnen creëren. De ontwikkeling van herkenningssoftware kan dus ook de ontwikkeling van creatiesoftware bevorderen. Uiteindelijk kan dit dan een kat-en-muisspel tussen creatie- en

herkenningssoftware worden. De vraag is of dit op de lange termijn een voordelige uitkomst biedt. Ten derde zijn educatie, training en het algemeen herkenningsvermogen van mensen heel belangrijk. Uiteindelijk zijn het namelijk altijd mensen het doelwit van de verspreiding van desinformatie. Hun meningen worden veranderd en hun gedrag wordt beïnvloed. Als mensen zelf niet goed op de hoogte zijn van het bestaan en de ontwikkelingen rondom synthetische media, dan zullen ze hier waarschijnlijk veel vatbaarder voor zijn. Er bestaat dus een behoefte om publiek besef te creëren over dit onderwerp. Wanneer mensen beter kunnen identificeren welke informatie juist is en welke niet noemen we dit het vergroten van iemands informatiegeletterdheid.

2.7.1 Informatiegeletterdheid om malafide synthetische media te

bestrijden

De term geletterdheid kan verwarrend overkomen aangezien dit nog wel eens gelimiteerd wordt tot alleen de mate waarin iemand kan lezen en schrijven. Deze term stamt namelijk uit de tijd van voor computers, de wereld van print. In de moderne tijd kan het woord ‘geletterdheid’ breder worden

toegepast en wordt de term beschreven als de mate waarin iemand ergens kundig in is (Livingstone et al., 2008). Aldus bestaat er informatiegeletterdheid.

Informatiegeletterdheid kan op meerdere manieren beschreven worden. Lloyd (2017) definieert informatiegeletterdheid als volgt:

‘Information literacy is a practice that is enacted in a social setting. It is composed of a suite of activities

and skills that reference structured and embodied knowledges and ways of knowing relevant to the context. Information literacy is a way of knowing’.

Voorbeelden hiervan kunnen zijn: de bekwaamheid om informatie efficiënt en effectief te verkrijgen, de mate waarin iemand informatie kan evalueren en de manier waarop iemand de gevonden informatie gebruikt. Informatie wordt hierbij gezien als een instrument om een ander doel te bereiken.

In tegenstelling tot de vaker gebruikte term media-geletterdheid is informatiegeletterdheid tot stand gekomen met digitale omgevingen in het achterhoofd. Media-geletterdheid is voornamelijk opgesteld om iemands bekwaamheid te beschrijven in gedrukte media en media in de vorm van audio.

Informatiegeletterdheid daarentegen toetst beter de vaardigheid online (Livingstone et al., 2008). Er kan gesteld worden dat informatiegeletterdheid een term is om te meten hoe goed iemand is in het vinden, begrijpen, evalueren en gebruiken van informatie. Uit eerder onderzoek van Jones-Jang et al. uit 2019 blijkt dat informatiegeletterdheid invloed heeft op het vermogen van mensen om nepnieuws te herkennen. Na een steekproef met 1299 respondenten bleek dat mensen met een hogere

informatiegeletterdheid beter waren in het herkennen van nepnieuws. Daarom wordt in dit onderzoek de eerste hypothese als volgt opgesteld:

Hypothese 1: Iemand met een hoge informatiegeletterdheid is beter in het herkennen van

Deepfakebeelden.

2.7.2 Voorkennis Deepfakes

Door iemands informatiegeletterdheid te meten en daarna te kijken naar het vermogen om Deepfakes te herkennen is dit te onderzoeken. Iemands voorkennis van Deepfakes kan echter wel van invloed zijn op het herkenningsvermogen van mensen. Naast iemands informatiegeletterdheid is het van belang dat

(12)

11 mensen zelf feiten kunnen onderscheiden van nepnieuws. Eén van de theorieën hierover bestaat uit het zogenaamd ‘inenten’ van mensen tegen desinformatie. De theorie stelt dat wanneer mensen eerder al bloot worden gesteld aan nepnieuws en synthetische media, ze dit later makkelijker kunnen herkennen (Jeong et al., 2012). Mensen worden dan ‘ingeënt’ tegen de nare effecten van nepnieuws. Om dit mee te nemen in het uit te voeren onderzoek is hypothese twee opgesteld:

Hypothese 2: Iemand die voorkennis heeft over Deepfakes is beter in het herkennen van Deepfakebeelden.

Omdat Deepfakes bijna uitsluitend online verspreid worden hebben mensen die veel online aanwezig zijn een grotere kans om met Deepfakes in aanraking te komen. Iemand die zijn nieuws haalt uit sociaal medium als Facebook komt waarschijnlijk eerder een Deepfake tegen dan iemand die altijd de krant leest. Het is daarom mogelijk dat het gedrag van mensen op sociale media invloed heeft op het

herkenningsvermogen van Deepfakes. Ook hiervoor is een hypothese opgesteld:

Hypothese 3: Iemands gedrag op sociale media en heeft een positieve invloed op het vermogen tot het

herkennen van Deepfakebeelden.

De opgestelde hypotheses worden in de resultaten meer uitgebreid beschreven en op een wetenschappelijke manier opgesteld. De H0 en Ha hypotheses zijn in de resultaten te vinden.

Om de onderzoeksvraag: “In hoeverre hebben iemands informatiegeletterdheid, online gedrag en

voorkennis van Deepfakes invloed op het vermogen tot het herkennen van Deepfakebeelden?” te

beantwoorden worden de hierboven opgestelde hypotheses in de resultaten verder uitgewerkt. In het volgende hoofdstuk wordt de methode van het onderzoek beschreven.

(13)

12

3. Methodologie

3.1 Onderzoeksontwerp

In dit onderzoek is kwantitatief onderzoek uitgevoerd om antwoord te geven op de vraag of de informatiegeletterdheid van iemand invloed heeft het vermogen van het herkennen van Deepfake afbeeldingen en video’s. Hiervoor is een enquête afgenomen onder 213 personen. Omdat hier meerdere variabelen met elkaar vergeleken worden en een drietal hypotheses worden getoetst is er gekozen voor een kwantitatieve onderzoeksmethode (Cresswell & Cresswell, 2018).

Om de hypotheses goed te kunnen onderzoeken werd er gekeken naar verschillende factoren naast iemands informatiegeletterdheid. Demografische gegevens als leeftijd, geslacht en opleidingsniveau werden ook gemeten. Om een link te kunnen leggen tussen het vermogen tot het herkennen van synthetische media en iemands informatiegeletterdheid is er getest hoe hoog de basiskennis over synthetische media van een respondent is en is er gevraagd naar het gedrag online en op sociale media. Als laatste werd getest hoe goed de respondent in staat was om Deepfakes te herkennen.

3.2 Participanten

Dit onderzoek richt zich op het vermogen van mensen tot het herkennen van deepfakes. Er is daarom gezocht naar een zo wijdverspreid mogelijke groep respondenten. Respondenten van alle leeftijden, opleidingsniveau’s en geslacht waren welkom. Het hoofddoel was dat er respondenten werden gevonden met een verschillende score in informatiegeletterdheid.

Respondenten zijn gevonden door contact op te nemen met personen in het eigen netwerk, en door oproepen te plaatsen op verschillende sociale mediakanalen. Hierbij is gebruik gemaakt van een van ‘snowball sampling’ (Burns & Burns, 2018). Omdat dit geen volledig willekeurige steekproefmethode is, is er gezocht naar verschillende groepen mensen. De respondenten die hieruit voortvloeiden zijn gevraagd om de vragenlijst door te sturen in hun netwerk. Dit was de makkelijkste methode om respondenten te vinden die in de doelgroep van het onderzoek pasten. Er is gekozen voor een online verspreiding van de vragenlijst omdat dit een laagdrempelige manier is om veel mensen te bereiken. Ook was het hierdoor voor de respondenten gemakkelijk om de vragenlijst verder te verspreiden.

3.3 Materialen

De gemaakte vragenlijst bestaat uit meerdere onderdelen. Daarnaast wordt er in de eerste paar vragen gevraagd naar een aantal demografische gegevens. Dit zijn iemands geslacht, leeftijd en opleidingsniveau. Dit zijn factoren om mee te nemen in de analyse om een completer beeld te kunnen vormen over de respondenten, hun informatiegeletterdheid, en hun mogelijkheid tot het herkennen van Deepfakes. Voor een volledig beeld is de volledige vragenlijst is opgenomen in de bijlage.

Onlinegedrag

Om het gedrag van respondenten online in kaart te brengen zijn er vier vragen opgesteld. Hierin wordt onder andere gevraagd naar welke sociale media er gebruikt wordt en naar op welke manier iemand aan zijn of haar nieuws komt. De keuze om te vragen naar iemands nieuwsbron is gemaakt om een koppeling met nepnieuws en Deepfakes te kunnen leggen.

Informatiegeletterdheid

In vier vragen werd de informatiegeletterdheid getoetst. De vragen komen uit eerder opgestelde vragenlijsten van Madison Assessment (2021) en Boh Podgornik, Dolničar, Šorgo, & Bartol (2015). Ze zijn

(14)

13 vertaald en in sommige opzichten iets aangepast om beter bij de doelgroep te passen. De vragen zijn in essentie hetzelfde gebleven, alleen zijn soms de onderwerpen en voorbeelden van een vraag aangepast. Alle vragen waren meerkeuze, waarbij er telkens één correct antwoord was Op deze manier viel er bij elke vraag een te punt te verdienen. Door het gemiddelde van iemands punten te nemen werd de

informatiegeletterdheid van een respondent berekend.

Als voorbeeld de vraag: “Je doet onderzoek naar de effecten van broeikasgassen op het klimaat. Van

welke bron is de informatie hiervan waarschijnlijk het minst bevooroordeeld?...”. De mogelijke

antwoorden van deze vraag bestonden uit een milieuorganisatie, een energiebedrijf, een onderzoeksinstituut en een vliegtuigfabrikant. Wanneer een respondent het correcte antwoord (onderzoeksinstituut) koos, werd er een punt verdiend.

Basiskennis Deepfakes

Ook de basiskennis van Deepfakes werd in vier vragen getoetst. Deze vragen zijn afkomstig uit een eerder opgestelde test van het Center for an Informed Public uit 2020 in samenwerking met Microsoft. Ook deze vragen zijn vertaald en zo nodig aangepast om beter te passen bij de doelgroep. Bij drie van de vier vragen was de vraag een meerkeuzevraag. Hier waren voor de respondenten vier punten per vraag te verdienen. Per keuzevakje dat goed ingevuld werd verdiende de respondent één punt. Eén van de vier vragen was een multiple select vraag. Hier werden of vier punten verdiend, of nul. Wederom werd door het gemiddelde van iemands punten te nemen de basiskennis van een respondent berekend.

Een voorbeeldvraag: “Welke vormen kan een Deepfake hebben? (meerdere antwoorden mogelijk)”. De mogelijke antwoorden van deze vraag bestonden uit video, foto, audio en tekst. Bij elk juist aangevinkt keuzevakje (alle antwoorden waren goed) verdiende de respondent een punt.

Deepfakes herkennen

Om de toetsen hoe goed respondenten waren in het herkennen van Deepfakes kregen respondenten portretten te zien van mensen. De neppe portretten zijn afkomstig van thispersondoesnotexist.com (2021) en de echte portretten zijn gevonden op de website whichfaceisreal.com (2021). Vier van deze vragen bestonden uit twee portretten, waarbij er gekozen moest worden of de portretten Deepfakes waren of niet. Bij twee vragen was één van de twee portretten een Deepfake, bij één vraag waren allebei de portretten Deepfakes en bij één vraag was geen portret een Deepfake. Zie als voorbeeld figuur 1. Het linker portret is een Deepfake en het rechter portret echt.

(15)

14 Eén vraag bestond uit twee video’s waarin hetzelfde werd gezegd. Eén video was echter een Deepfake. Het gezicht van de persoon in de video was met kunstmatige intelligentie gegenereerd. Aan de

respondent te bepalen welke.

Uiteindelijk was voor elke vraag wederom een punt te verdienen, met een totaal van 5 punten. Het gemiddelde van de behaalde punten van een respondent werd de score voor het herkennen van Deepfakes.

Daarnaast werd er bij elke vraag ook gevraagd naar hoe zeker de respondent was van zijn of haar

antwoord. Deepfakes kunnen namelijk heel overtuigend zijn, belangrijk is daarom om te testen of iemand veel twijfelt. De antwoorden op deze vraag hadden in eerste opzicht geen invloed op de score voor het herkennen van Deepfakes. Echter kon hiermee wel worden gekeken hoe zeker de respondenten waren van hun antwoord. Later is namelijk deze zekerheidsfactor meegenomen in de berekening van iemands herkenningsscore.

3.4 Procedure

Om dit onderzoek uit te voeren is er een vragenlijst aangemaakt met behulp van Google Forms. Google Forms is gratis software die het mogelijk maakt om online enquêtes af te nemen.

De vragenlijst bestond in totaal uit 24 vragen waarvan achttien meerkeuze, vijf enkel-/meervoudige antwoordvraag, en twee open vragen waren. Gemiddeld duurde het invullen van de vragenlijst twee minuten. De respondenten werd gegarandeerd dat alle antwoorden anoniem waren, en dat er vertrouwelijk om zou worden gegaan met de ingevulde antwoorden.

De vragenlijst is verspreid op meerdere groepen op sociale media. Ook zijn mensen uit eigen kring benaderd om de vragenlijst in te vullen. Binnen een week zijn meer dan 200 respondenten gevonden. Waarna er is overgegaan op de analyse van het onderzoek.

3.5 Analyse

In dit onderzoek wordt aan de hand van meerdere onafhankelijke variabelen geprobeerd een afhankelijke variabele te verklaren. De onafhankelijke variabelen zijn iemands leeftijd, opleidingsniveau, geslacht, informatiegeletterdheid en basiskennis van Deepfakes. De te verklaren afhankelijke variabele is iemands herkenningsvermogen van Deepfakes. De verkregen data uit de vragenlijst is ten eerste verwerkt in SPSS. Daarna is per onderdeel van de vragenlijst gekeken naar hoe er door de respondenten is gescoord. Er wordt beschreven op welke manier de scores tot stand zijn gekomen en wat eventuele opmerkingen hierbij zijn. Daarna is er een hiërarchische meervoudige regressieanalyse is uitgevoerd om te kijken in hoeverre de onafhankelijke variabelen van invloed waren op de afhankelijke variabele. Op basis van het theoretische kader zijn er meerdere modellen getoetst. Per model werden er nieuwe variabelen toegevoegd om een andere hypothese te testen. Om de hoofdvraag te beantwoorden was iemands informatiegeletterdheid de belangrijkste variabele om te toetsen.

(16)

15

4. Resultaten

In deze sectie worden de resultaten van het onderzoek beschreven. In het eerste deel wordt de

beschrijvende statistiek beschreven. Er wordt gekeken naar de algemene gegevens van de respondenten, hun onlinegedrag en hoe er gescoord is op de verschillende onderdelen. In het tweede deel wordt een hiërarchische meervoudige regressieanalyse uitgevoerd om te onderzoeken in hoeverre de

eerdergenoemde variabelen invloed hebben op het herkenningsvermogen van Deepfakes van mensen.

4.1 Algemene gegevens

Uiteindelijk zijn er 213 respondenten die de vragenlijst voor dit onderzoek volledig hebben. Van deze 213 respondenten zijn er 86 (40,4%) man en 127 (59,6%) vrouw. De gemiddelde leeftijd van alle respondenten is 28,5 jaar oud met een bereik van 13 tot 77 jaar. Mensen van alle opleidingsniveaus hebben meegedaan aan het onderzoek, maar zoals te zien is in tabel 1 is het duidelijk dat het grootste deel (59,6%) hoger opgeleid is. Voornamelijk opleidingsniveaus als vwo, hbo en wo zijn oververtegenwoordigd.

4.2 Onlinegedrag

Alle respondenten gebruiken één of meerdere vormen van sociale media met een minimum van 1 en een maximum van 9. De gemiddelde gebruikstijd van sociale media per dag is 2,92 uur met een minimum van 0, een maximum van 10 en een standaardafwijking van 1,81. Het gemiddelde aantal sociale

mediakanalen dat een respondent gebruikt is 5,13 met een standaardafwijking van 1,57. De top drie gebruikte sociale mediakanalen zijn Whatsapp, YouTube en Facebook.

De respondenten vinden zoals te zien is in tabel 2 hun nieuws via verschillende kanalen. Meer dan de helft van de mensen laat zich informeren door een online nieuwsapp of -website (56,8%). Daarna staat sociale media als nieuwsbron op de tweede plek. Op een bijna gedeelde derde plek staan de krant en de televisie als nieuwsbron (9,4% en 9,9%).

Opleidingsniveau Aantal Procentueel

Basisonderwijs 2 0,9

Voorbereidend wetenschappelijk onderwijs (vwo)

13 6,1

Hoger beroepsonderwijs (hbo) 43 20,2

Lager/ voorbereidend beroepsonderwijs (lbo / mbo)

1 0,5

Middelbaar algemeen voortgezet onderwijs (mavo)

1 0,5

Middelbaar beroepsonderwijs (mbo) 12 5,6

Voorbereidend wetenschappelijk onderwijs (vwo)

57 26,8

Wetenschappelijk onderwijs (wo) 84 39,4

Totaal 213 100

(17)

16

Nieuwsbron Aantal Procentueel

Een krant 20 9,4

Familie en vrienden 10 4,7

Online nieuwsapp / -website 121 56,8

Sociale Media 40 18,8

Televisie 21 9,9

Zelf op onderzoek / geen vertrouwen in de media 1 0,5

Total 213 100

Tabel 2. Verdeling van favoriete nieuwsbron

Bij hun activiteit op sociale media is 93% van de respondenten weleens een vorm van nepnieuws tegengekomen. Voornamelijk op Facebook (34,4%), YouTube (23%) en Instagram (21,1%) zijn de respondenten in aanraking gekomen met nepnieuws. Negen respondenten gaven aan nooit nepnieuws tegen te zijn gekomen en vijf respondenten waren hier niet zeker van.

4.3 Informatiegeletterdheid

Door middel van vier vragen is de informatiegeletterdheid van de respondenten gemeten. De gemiddelde score voor de informatiegeletterdheid is 0,78 met een minimum van 0,25 en een maximum van 1. De standaardafwijking is 0,18. De beschrijvende resultaten per vraag zijn te zien in tabel 3.

Variabele Aantal Gemiddelde Standaardafwijking

Vraag 1 (eerste zoekresultaat) 213 0,95 0,222

Vraag 2 (bevooroordeelde info) 213 0,90 0,305

Vraag 3 (internet zoekresultaat) 213 0,92 0,279

Vraag 4 (betrouwbare info) 213 0,38 0,485

Tabel 3. Beschrijvende resultaten informatiegeletterdheid

Opmerkelijk is dat het gemiddelde van de eerste drie vragen relatief hoog is in vergelijking met de vierde vraag. De vierde vraag luidde als volgt:

“De meest betrouwbare, geverifieerde, beknopte en juiste beschrijving van een onderwerp is meestal te vinden in:”

De mogelijke antwoorden voor deze vraag waren de krant, een onderzoeksartikel, een encyclopedie en een tweetalig woordenboek. Het juiste antwoord, een encyclopedie, zoals beschreven in eerder

onderzoek, werd maar door 38,2% van de respondenten gegeven. Het antwoord ‘onderzoeksartikel’ werd door 49,5% gekozen als juist.

Er is wel te stellen dat de gemiddelde informatiegeletterdheid van de respondenten hoog is. 82,6% scoorde 0,75 punt of hoger voor dit onderdeel.

4.4 Voorkennis Deepfakes

Ook de voorkennis van de respondenten rondom Deepfakes is met vier vragen gemeten. In totaal kon er 1 punt verdiend worden door alle vragen juist te beantwoorden. De gemiddelde score van de respondenten is 0,6 met een minimum van 0,19 en een maximum van 1. De standaardafwijking is 0,16. De beschrijvende resultaten per vraag zijn te zien in tabel 4.

(18)

17

Variabele N Min Max Gemiddelde Standaardafwijking

Vraag 1 213 0,25 1 0,81 0,217

Vraag 2 213 0,25 1 0,73 0,234

Vraag 3 213 0,00 1 0,37 0,483

Vraag 4 213 0,25 1 0,52 0,186

Tabel 4. Beschrijvende resultaten voorkennis Deepfakes

Alle vier de vragen waren meerkeuze, waarbij drie meervoudig en één enkelvoudig.

Bij de derde vraag is de standaardafwijking in vergelijking met de andere vragen hoog, dit is te verklaren met het feit dat dit de meerkeuzevraag was. Er was dus alleen 0 of 1 punt te verdienen.

Omdat in dit onderdeel een aantal opmerkelijke antwoorden zijn gegeven wordt hieronder wordt ingegaan op de resultaten per gestelde vraag.

Ten eerste werd de vraag gesteld: “Welke vormen kan een Deepfake hebben? (meerdere antwoorden

mogelijk)”

De mogelijke antwoorden hiervoor waren video, foto, audio, en tekst. De meest bekende vorm van synthetische media is een Deepfake in de vorm van een video. Dit blijkt ook uit de gegeven antwoorden. 99,1% van de respondenten gaf ‘video’ aan als mogelijke vorm van een Deepfake. Daarna kwamen ‘foto’ met 89,5% en audio met 85%. Opmerkelijk is dat ‘tekst’ door minder dan de helft van de respondenten als mogelijk antwoord werd gekozen (49,5%). Respondenten leggen dus een link tussen video, audio en foto wanneer het gaat om de vraag of deze met kunstmatige intelligentie gecreëerd kunnen worden. Maar zien tekst als iets anders.

Ten tweede was de vraag: “Op welke manier kan je ontdekken of een video van een persoon een Deepfake

is? (meerdere antwoorden mogelijk)”

De mogelijke antwoorden waren ‘goed kijken naar details in de video’, ‘goed kijken of dingen die gezegd worden in de video in strijd zijn met wat je van deze persoon weet’, ‘controleren waar de video vandaan komt’, en ‘controleren door wie de video nog meer wordt gedeeld’. Alle mogelijke antwoorden waren bij deze vraag correct. 92,7% van de respondenten gaf aan dat ‘controleren waar de …’ een goed antwoord was. Dit antwoord was het vaakst gegeven. Opmerkelijk is dat het antwoord ‘controleren door wie…’ maar door 45% van de respondenten was aangevinkt als juist antwoord. Dit werd dus niet vaak gezien als een goede manier om te ontdekken of een video een Deepfake is of niet.

De vraag “Wat is de beste tactiek om misleiding d.m.v Deepfakes te voorkomen wanneer je er een

tegenkomt online?” werd als derde gesteld. Dit was de enige enkelvoudige meerkeuze vraag van dit

onderdeel van het onderzoek. De mogelijke antwoorden waren: ‘deel deze video op social media’, ‘deel deze video op social media waarbij je vermeld dat hij nep is’, ‘vergelijk de video met andere meldingen van Deepfakes’, en ‘doe niks’. Het juiste antwoord was hier ‘vergelijk de video met andere meldingen van Deepfakes’. De gegeven antwoorden waren bij deze vraag flink verdeeld. Geen van de respondenten vond ‘deel deze video op social media’ de beste tactiek. 36,4% koos voor het juiste antwoord; ‘vergelijk de video met andere meldingen van Deepfakes’, 37,3% koos voor ‘doe niks’, en 26,4% vond ‘deel deze video op social media waarbij je vermeld dat hij nep is’ het beste antwoord.

De laatste vraag die gesteld werd was: “Naast Deepfakes bestaan er ook Cheapfakes. Dit zijn manipulaties

van media zonder behulp van kunstmatige intelligentie. Wat zouden voorbeelden van Cheapfakes kunnen zijn? (meerdere antwoorden mogelijk)”. De mogelijke antwoorden bij deze vraag waren: ‘een video

(19)

18 veranderen’, en ‘een Deepfake video met een heel laag budget’. Waarbij alleen ‘een Deepfake video met een heel laag budget’ een onjuist antwoord was.

Opmerkelijk is dat ‘een video vertragen’ maar door 25 procent van de respondenten werd gekozen als juist antwoord. Terwijl de andere twee juiste antwoorden gemiddeld door 84 procent van de

respondenten als juist werd gekozen. Het onjuiste antwoord werd door 84 procent van de respondenten goed beantwoord en niet aangevinkt.

In het algemeen is te stellen dat de respondenten zeker over enige voorkennis van Deepfakes beschikken. Met een gemiddelde score van 0,60 is het duidelijk dat de respondenten zeker over enige kennis van Deepfakes beschikken, maar hier nog niet alles over weten. In het volgende onderdeel wordt gekeken naar hoe goed respondenten zijn in het herkennen van daadwerkelijke Deepfakebeelden.

(20)

19

4.5 Deepfake herkenningsvragen

Als laatste is er getest hoe goed de respondenten waren in het herkennen van Deepfakebeelden. Vier vragen bestonden uit afbeeldingen, en één vraag bestond uit video’s. Telkens werden er twee beelden naast elkaar gezet, aan de respondent de keuze welke hiervan Deepfake waren. De gemiddelde score is 0,3 met een minimum van 0 en een maximum van 0,8. Geen van de respondenten heeft in dit onderdeel dus alle vragen goed beantwoord. De standaardafwijking is 0,2. In tabel 5 zijn de beschrijvende resultaten per vraag te zien.

Variabele N Minimum Maximum Gemiddelde Standaardafwijking

Vraag 1 213 0 1 0,31 0,464

Vraag 2 213 0 1 0,34 0,474

Vraag 3 213 0 1 0,14 0,344

Vraag 4 213 0 1 0,10 0,305

Vraag 5 (video) 213 0 1 0,56 0,498

Tabel 5. Beschrijvende resultaten Deepfake herkenningsvragen

Er is te zien dat er door de respondenten over het algemeen niet een hele hoge score hebben behaald. Wel is de laatste vraag, bestaande uit video’s, beter beantwoord.

In figuur 3 is er per vraag te zien welk antwoord er is gegeven. Vraag 1, 2 en 3 zijn redelijk gelijk verdeeld. De gegeven antwoorden lijken hier bijna willekeurig verdeeld. Bij vraag 4 en vraag 5 valt wel iets op. Bij vraag 4 heeft 68% van de respondenten hetzelfde foute antwoord gegeven. Er is zeker te stellen het voor de respondenten moeilijk was om Deepfakebeelden te herkennen. Bij vraag 5 heeft wel meer dan de helft van de respondenten juist het goede antwoord gegeven. Dit was de enige vraag die bestond uit een video.

Figuur 3.

Vraag 1 Vraag 2 Vraag 3

Vraag 4 Vraag 5

Beide beelden zijn echt

Beide beelden zijn nep

Beeld 1 is echt, beeld 2 is nep

Beeld 2 is echt, beeld 1 is nep Juiste antwoord

(21)

20 In het volgende onderdeel wordt gekeken of eerdergenoemde factoren van invloed waren op de score die de respondenten in dit onderdeel hebben gehaald.

4.6 Invloed van de variabelen op het herkenningsvermogen

van Deepfakes

In dit onderzoek zijn er drie hypotheses opgesteld die helpen om de uiteindelijke hoofdvraag te kunnen beantwoorden. Door middel van een hiërarchische meervoudige regressieanalyse is getoetst of de hypotheses kunnen worden bevestigd.

4.6.1 Regressieanalyse zonder zekerheidsfactor beantwoording

Om de hypotheses te kunnen toetsen is er gekeken naar in hoeverre de demografische gegevens, het gedrag op sociale media, de informatiegeletterdheid en voorkennis van Deepfakes als afhankelijke variabelen invloed hebben op het herkenningsvermogen van Deepfakes als onafhankelijke variabele. Om de regressieanalyse uit te voeren zijn er eerst drie hypotheses opgesteld.

Hypothese 1: gedrag op sociale media versus herkenningsvermogen Deepfakes

H10: Er bestaat geen verband tussen het herkenningsvermogen van Deepfakes op basis van iemands

gedrag op sociale media.

H1a: Er bestaat wel verband tussen het herkenningsvermogen van Deepfakes op basis van iemands gedrag

op sociale media.

Hypothese 2: informatiegeletterdheid versus herkenningsvermogen Deepfakes

H20: Er bestaat geen verband tussen het herkenningsvermogen van Deepfakes op basis van iemands

informatiegeletterdheid.

H2a: Er bestaat wel verband tussen het herkenningsvermogen van Deepfakes op basis van iemands

informatiegeletterdheid.

Hypothese 3: voorkennis Deepfakes versus herkenningsvermogen Deepfakes

H30: Er bestaat geen verband tussen het herkenningsvermogen van Deepfakes op basis van iemands

voorkennis van Deepfakes.

H3a: Er bestaat wel verband tussen het herkenningsvermogen van Deepfakes op basis van iemands

voorkennis van Deepfakes.

In tabel 6 staan de resultaten van de regressiecoëfficiënten tussen de verschillende variabelen met tussen haakjes de bijbehorende standaardafwijking. De onderste rij bevat de Total Adjusted R2 met tussen

haakjes de p-waarde van het regressiemodel. De modellen kunnen als significant beschouwd worden wanneer de p-waarde kleiner is dan 0,05.

(22)

21

Onafhankelijke variabele Model 1 Model 2 Model 3

Geslacht -,013 (,028) -,009 (,028) -,011 (,028)

Leeftijd 4,511E-5 (,028) -,001 (,001) -,001 (,001)

Opleiding ,009 (,007) ,007 (,007) ,008 (,007)

Aantal sociale mediakanalen -,015 (,011) -,014 (,012)

Aantal uur sociale media per dag -,001 (,009) -,001 (,009)

Voornaamste nieuwsbron -,005 (,011) -,005 (,012)

Ooit nepnieuws tegengekomen ,007 (,012) ,008 (,012)

Informatiegeletterdheid ,009 (,078)

Voorkennis Deepfakes ,070 (,084)

Total Adjusted R2 (P) -,004 (,534) -,012 (,717) -,018 (,815)

Tabel 6. Lineaire Regressieanalyse voor voorspellen van Deepfake herkenningsvermogen

In totaal zijn er drie modellen gebruikt om de hypotheses te kunnen toetsen. Model 1, bestaande uit de demografische gegevens van de respondenten, laat zien dat de variabelen niet significant zijn om het Deepfake herkenningsvermogen te voorspellen. De regressie coëfficiënten tonen ook aan dat er bijna geen regressie is tussen de variabelen.

In model 2 werd gekeken of onlinegedrag samen met de demografische gegevens van de respondenten invloed had op het Deepfake herkenningsvermogen. Hier werd ook de eerste hypothese getoetst. Hier blijkt uit de regressie coëfficiënt dat er bijna geen verband is gevonden tussen de variabelen. Daarnaast zijn de resultaten uit dit model ook niet significant.

Model 3 toetst of de informatiegeletterdheid en voorkennis van Deepfakes invloed hebben op het Deepfake herkenningsvermogen. Hypothese 2 en 3 worden hier getoetst. Net als bij de twee voorgaande modellen is ook hier geen significant verband gevonden tussen de variabelen.

Uit de resultaten van de hiërarchische meervoudige regressieanalyse blijkt dat er amper verband is gevonden tussen de variabelen en dat het verband dat gevonden is niet significant is. Zowel H10, H20 en

H30 worden niet verworpen en H1a, H2a en H3a worden niet aangenomen. Er kan niet met zekerheid

gezegd worden iemands gedrag op sociale media, informatiegeletterdheid en voorkennis van Deepfakes invloed hebben op iemands vermogen tot het herkennen van Deepfakes beelden.

Een verklaring voor de lage regressie tussen de variabelen is mogelijk de zeer gelimiteerde score die voor respondenten te behalen was voor het herkennen van Deepfakes. Er is met 5 vragen onderzocht hoe goed iemand is in het identificeren van Deepfakebeelden. De mogelijke scores op een schaal van 0 tot 1 zijn daaropvolgend 0; 0,2; 0,4; 0,6; 0,8; en 1. Het gemiddelde van deze scores was 0,3. De respondenten werden tijdens het onderzoek ook gevraagd naar hoe zeker ze waren over hun antwoord bij de

herkenningsvragen. In het volgende kopje zijn de resultaten beschreven wanneer deze zekerheidsfactor is meegenomen.

Alvorens de tweede regressieanalyse is uitgevoerd, is er gekeken naar de homoscedasticiteit van de score voor het Deepfake herkenningsvermogen.

(23)

22

4.6.2 Meervoudige regressieanalyse met zekerheidsfactor

beantwoording

Om de zekerheidsfactor te verwerken in de resultaten is op de volgende manier gewerkt. Iemand kon bij een herkenningsvraag 0 of 1 punt verdienen. Daarna werd er gevraagd in hoeverre iemand zeker was over zijn antwoord. Dat antwoord was een schaal van 1 tot 5, waarin 1 het minst zeker en 5 het zekerst was. Er is gekozen voor het geven van strafpunten bij juiste antwoorden naarmate iemand minder zeker is van zijn antwoord. Zo was een goed antwoord zonder dat mensen hier heel zeker van waren toch nog iets waard. Per punt waarin een respondent minder zeker was dan 5 is er een straf op gelegd van 0,1 punt. In tabel 7 is een voorbeeld gegeven van de mogelijke scores.

Herkenningsscore Zekerheidsfactor Uiteindelijke score

1 1 0,6 2 0,7 3 0,8 4 0,9 5 1 0 N.v.t. 0

Tabel 7. Mogelijke scores met zekerheidsfactor

Met deze scoringsmogelijkheden is weer eenzelfde hiërarchische meervoudige regressieanalyse gedaan met dezelfde opbouw van modellen. De hypotheses H1 en H2 en H3 zijn hetzelfde gebleven.

4.6.2.1 Homoscedasticiteit

Uit de eerste hiërarchische meervoudige regressieanalyse blijkt dat er amper regressie bestaat tussen de variabelen en dat de gevonden regressie niet significant is. Voor de meeweging van de zekerheidsfactor is er ook gekeken naar de homoscedasticiteit. Uit het hiervoor gemaakte spreidingsdiagram blijkt dat de aardig in een wolk liggen. Er kan geconcludeerd worden dat er geen sprake is van heteroscedasticiteit. Er is dus voldaan aan de aanname van homoscedasticiteit.

In tabel 8 zijn wederom de regressiecoëfficiënten tussen de verschillende variabelen weergegeven. Het ontwerp voor de tabel is hetzelfde gebleven. Met in de onderste rij weer de Total Adjusted R2 en de

(24)

23 daarbij behorende waarde. De modellen kunnen als significant beschouwd worden wanneer de p-waarde kleiner is dan 0,05.

Variabele Model 1 Model 2 Model 3

Geslacht -,21 (,063) -,019 (,022) -,019 (,022)

Leeftijd ,000 (,022) -,001 (,001) -,001 (,001)

Opleiding ,004 (,005) ,003 (,005) ,004 (,005)

Aantal sociale mediakanalen -,010 (,009) -,010 (,009)

Aantal uur sociale media per dag ,000 (,007) -,001 (,007)

Voornaamste nieuwsbron -,006 (,009) -,006 (,009)

Ooit nepnieuws tegengekomen ,007 (,010) ,008 (,010)

Informatiegeletterdheid -,001 (,061)

Voorkennis deepfakes -,045 (,066)

Total Adjusted R (P) -,004 (,554) -,013 (,750) -0,021 (,859)

Tabel 8. Lineaire Regressieanalyse voor voorspellen van Deepfake herkenningsvermogen

Model 1 laat zien dat de waardes van de regressie tussen de variabelen laag is, ook wanneer de

zekerheidsfactor is meegenomen. Daarnaast is het model ook niet significant. De demografische gegevens van iemand hebben dus geen significante invloed op iemands Deepfake herkenningsvermogen.

Model 2 neemt wederom ook het onlinegedrag mee in de meervoudige regressieanalyse en toetst de eerste hypothese. Net als eerder is ook hier weer bijna geen verband gevonden tussen de variabelen. De resultaten zijn ook niet significant.

Model 3 toetst net als in het vorige model of de informatiegeletterdheid en voorkennis van Deepfakes invloed hebben op het Deepfake herkenningsvermogen. Hypothese 2 en 3 worden hier opnieuw getoetst. Ook hier is geen significant verband gevonden tussen de variabelen.

We kunnen stellen dat zowel H10, H20 en H30 wederom niet worden verworpen en H1a, H2a en H30 niet

worden aangenomen. Ook met de verwerking van de zekerheidsfactor in de resultaten over het

herkenningsvermogen van Deepfakes kan er niet met zekerheid gezegd worden dat de iemands gedrag op sociale media, informatiegeletterdheid en voorkennis van Deepfakes invloed hebben op het

(25)

24

5. Conclusie

Het doel van dit onderzoek was om te onderzoeken welke factoren invloed hebben op het vermogen van mensen om Deepfake afbeeldingen te herkennen. Er is gezocht naar een antwoord op de vraag “In

hoeverre hebben iemands informatiegeletterdheid en online gedrag invloed op het vermogen tot het herkennen van Deepfakebeelden?”. Hiervoor is een kwantitatief onderzoek uitgevoerd onder 213

respondenten.

Om een goed antwoord te kunnen geven op de onderzoeksvraag bestond de vragenlijst uit verschillende onderdelen. Het onlinegedrag, de informatiegeletterdheid en de voorkennis van Deepfakes van de respondenten is ten eerste getoetst. Uit de resultaten blijkt dat de gemiddelde tijd die mensen besteden op sociale media flink uiteenloopt. Veel mensen gebruiken sociale media, maar het verschilt waar ze hun informatie vandaan halen. De informatiegeletterdheid van de respondenten is redelijk hoog. De

respondenten zijn dus vrij bekwaam in hoe er wordt omgegaan met informatie. Er is wel te zien dat de voorkennis van Deepfakes bij de respondenten flink verschilt. Er is te concluderen dat mensen een redelijk hoge informatiegeletterdheid hebben, maar dat nog lang niet iedereen goed bekend is met een onderwerp als Deepfakes.

Ten tweede is in de vragenlijst getoetst hoe goed de respondenten waren in het herkennen van

Deepfakebeelden. Wat blijkt is dat er over het algemeen laag gescoord is op dit onderdeel. De lage scores van de respondenten lijken wel willekeurig te zijn. Er valt te concluderen dat mensen niet goed zijn in het herkennen van Deepfakebeelden. De gemiddelde score was laag, en geen van de respondenten heeft hier de maximale score bereikt.

Ten derde is in dit onderzoek gekeken naar in hoeverre de resultaten uit het eerste deel van de vragenlijst invloed uitoefenden op het tweede deel. Uit de resultaten van de hiërarchische meervoudige

regressieanalyse blijkt dat er geen significante verschillen zijn gevonden tussen iemands online gedrag, informatiegeletterdheid en voorkennis van Deepfakes in vergelijking met iemands Deepfake

herkenningsvermogen. Er kan niet met zekerheid worden gezegd dat iemands gedrag op sociale media, informatiegeletterdheid of voorkennis van Deepfakes invloed heeft op iemands Deepfake

herkenningsvermogen. De regressie die gevonden is, is dan ook minimaal en weinig verklarend. Eerder in de beschrijvende statistiek is dan ook beschreven dat de gegeven antwoorden bij de Deepfake

herkenningsvragen al willekeurig leken. Een mogelijkheid is dat dit inderdaad zo is.

Concluderend valt te stellen dat het lastig is om op de hoofdvraag van dit onderzoek antwoord te kunnen geven. Uit de resultaten blijkt dat er bijna geen verband is gevonden en dat het gevonden resultaat niet significant is. Te stellen is dat het niet zeker is dat iemands informatiegeletterdheid en online gedrag een positieve of negatieve invloed hebben op het vermogen tot het herkennen van Deepfakebeelden. Wel is gebleken dat de algemene informatiegeletterdheid van mensen redelijk hoog is, maar de voorkennis over Deepfakes nog niet. Ook is gebleken dat over het algemeen mensen niet goed zijn in het herkennen van Deepfakebeelden. Een verklaring hiervoor is in dit onderzoek niet gevonden.

(26)

25

6. Discussie

Dit onderzoek heeft geen significante resultaten gevonden die kunnen aantonen welke factoren van invloed zijn op het Deepfake herkenningsvermogen van mensen. Wel zijn er interessante resultaten uit de verschillende analyses gekomen. Verder onderzoek is nodig om deze resultaten beter te onderzoeken, zo kan er in de toekomst een verklaring worden gezocht voor waarom mensen zo laag scoren bij het

herkennen van Deepfakebeelden. Een aantal beperkingen die tijdens het onderzoek zijn gebleken kunnen mogelijk de oorzaak van zijn van het niet vinden van significante resultaten. In toekomstig onderzoek zal het een goed zijn om hier rekening mee te houden.

Het feit dat de gemiddelde informatiegeletterdheid van de respondenten hoog is, is goed nieuws. Voornamelijk in een steeds meer digitale samenleving is het van belang dat mensen goed om kunnen gaan met informatie. De hypothese was dat informatiegeletterdheid positief van invloed zou zijn op het herkenningsvermogen van Deepfakes. In dit onderzoek zijn geen aanwijzingen gevonden hiervoor. Het is mogelijk dat de gelimiteerde score die kon worden verkregen voor de verschillende onderwerpen in de enquête hier de oorzaak van is. Op deze manier werden kleine verschillen die respondenten mogelijk hadden in hun informatiegeletterdheid, voorkennis van Deepfakes en Deepfake herkenningsvermogen wellicht niet opgemerkt. Dit kan een reden zijn dat er geen significante voorspellers zijn gevonden. In de enquête werden de respondenten dan ook in een kort aantal vragen getoetst. Dit is gedaan om de enquête toegankelijk te maken voor iedereen. Wanneer in volgend onderzoek uitgebreider de

informatiegeletterdheid van mensen wordt onderzocht, kan er misschien beter verband worden gelegd met het Deepfake herkenningsvermogen.

Gebleken is ook dat de voorkennis rondom Deepfakes tussen de respondenten flink verschilt. Juist met de snelle opkomst van synthetische media en de grote mogelijkheden die er zijn om op deze manier

desinformatie te verspreiden is het van belang dat er een manier wordt gezocht om deze voorkennis te verhogen. Ondanks dat er in dit onderzoek geen significante aanwijzingen zijn gevonden dat het ‘inenten’ van mensen tegen malafide synthetische media werkt, is dat ook niet ontkracht. Door middel van scholing of het uitrollen van voorlichtingscampagnes zou het algemene besef kunnen worden verhoogd. Een aanrader is om te onderzoeken wat de beste manier is om dit te bereiken. Want zo kunnen we mensen bewust maken van de potentiële gevaren van synthetische media.

Het bleek tijdens dit onderzoek lastiger dan gedacht om een representatieve groep respondenten te vinden. Uit de resultaten blijkt dat het grootste deel van de respondenten jong en hoogopgeleid is. Een logische redenatie is dat wanneer iemand hoog opgeleid is, iemands digitale geletterdheid ook hoger is. De informatiegeletterdheid bleek dan ook over het algemeen hoog. Het is lastig om zo goed te

onderzoeken of informatiegeletterdheid daadwerkelijk invloed heeft op het Deepfake

herkenningsvermogen, omdat de groep met een lage informatiegeletterdheid een stuk kleiner is in vergelijking met de groep met een hoge informatiegeletterdheid. Een aanbeveling voor verder onderzoek is om een betere afspiegeling van de samenleving te vinden. De vragenlijst is bij dit onderzoek

voornamelijk online verspreidt. Een verspreiding op offline manier zou een optie kunnen zijn. Zo kan er gerichter naar respondenten gezocht worden. Mensen die namelijk niet veel op sociale media verkeren worden dan bijvoorbeeld eerder gevonden

In dit onderzoek is geen verklaring gevonden voor het lage herkenningsvermogen van Deepfakebeelden. Verder onderzoek naar factoren die van invloed kunnen zijn hierop wordt daarom aangeraden. Met een grotere en meer willekeurige steekproef kan er misschien wel een verklaring worden gevonden. Hieraan is toe te voegen dat de manier waarop gekeken is of mensen Deepfakebeelden konden herkennen wellicht kan worden veranderd. Bij eerder gedaan onderzoek naar de herkenning van nepnieuws was onder

(27)

26 andere de context van het artikel van belang. Bij het gebruik van malafide Deepfakebeelden is dan

waarschijnlijk ook de context van belang, mede omdat gekeken wordt of de mening van mensen over een bepaald onderwerp wordt beïnvloed. Alle beelden waarmee in dit onderzoek getest is waren echter volledig neutraal. Toekomstig onderzoek waarbij Deepfakebeelden worden gekoppeld aan huidige onderwerpen zou iets kunnen uitwijzen.

7. Literatuurlijst

• AIVA - The AI composing emotional soundtrack music. (2020). Geraadpleegd van https://www.aiva.ai/

• Bates, M. (2018). Say What? “Deepfakes” Are Deeply Concerning. Online Searcher (Medford, N.J.), 42(4), 64–.

• Boh Podgornik, B., Dolničar, D., Šorgo, A., & Bartol, T. ž. (2015). Development, testing, and validation of an information literacy test (ILT) for higher education. Journal of the Association for Information Science and Technology, 67(10), 2420–2436. https://doi.org/10.1002/asi.23586 • "Breland, Ali. 2019. ‘The Bizarre and Terrifying Case of the “Deepfake” Video that Helped Bring an • African Nation to the Brink.’ Mother Jones, Politics. March 15. Accessed April 25, 2020. https:// • www.motherjones.com/politics/2019/03/deepfake-gabon-ali-bongo/."

• Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., ... & Agarwal, S. (2020). Language models are few-shot learners. arXiv preprint arXiv:2005.14165.

• Cahlan, S. (2020, 13 februari). How misinformation helped spark an attempted coup in Gabon. Geraadpleegd van

https://www.washingtonpost.com/gdpr-consent/?next_url=https%3a%2f%2fwww.washingtonpost.com%2fpolitics%2f2020%2f02%2f13% 2fhow-sick-president-suspect-video-helped-sparked-an-attempted-coup-gabon%2f

• Center for an Informed Public. (2020). Spot the Deepfake. Geraadpleegd van https://www.spotdeepfakes.org/en-US/quiz

• Creswell & Creswell (2018). Selection of a Research Approach.

• Dietmar, J. (2019, 21 mei). GANs And Deepfakes Could Revolutionize The Fashion Industry. Geraadpleegd van https://www.forbes.com/sites/forbestechcouncil/2019/05/21/gans-and-deepfakes-could-revolutionize-the-fashion-industry/#b000e943d17f

• Dobber, T., Metoui, N., Trilling, D., Helberger, N., & de Vreese, C. (2020). Do (Microtargeted) Deepfakes Have Real Effects on Political Attitudes? The International Journal of Press/Politics, 26(1), 69–91. https://doi.org/10.1177/1940161220944364

• DutchNews. (2021, 6 januari). The Dutch AI startup making online clothes shopping more inclusive. DutchNews.Nl. https://www.dutchnews.nl/features/2021/01/the-dutch-ai-startup-making-online-clothes-shopping-more-inclusive/

• Gabon 24. (2018, 31 december). DISCOURS À LA NATION DU PRÉSIDENT ALI BONGO ONDIMBA. Geraadpleegd van https://www.facebook.com/unsupportedbrowser?v=324528215059254 • Jeffrey Grubb. (2018, 8 mei). Google Duplex: A.I. Assistant Calls Local Businesses To Make

Appointments. Geraadpleegd van https://www.youtube.com/watch?v=D5VN56jQMWM • Jeong, S. H., Cho, H., & Hwang, Y. (2012). Media literacy interventions: A meta-analytic review.

Journal of Communication, 62(3), 454-472.

• Jones-Jang, S. M., Mortensen, T., & Liu, J. (2019). Does Media Literacy Help Identification of Fake News? Information Literacy Helps, but Other Literacies Don’t. American Behavioral Scientist, 000276421986940. https://doi.org/10.1177/0002764219869406

Referenties

GERELATEERDE DOCUMENTEN

We attempt to address this gap by presenting an evaluation framework for assessing the effectiveness of research networks and using it to evaluate two New Partnership for

1 In augustus 2016 heeft het Zorginstituut Nederland partijen in de GGZ medegedeeld een traject Zinnige Zorg GGZ te starten.. Het doel van dit traject, dat het Zorginstituut in

Het mogelijke aanbod van grond is hierdoor te schatten op in het totaal +_ 1700 ha^ waarvan -f 1000 ha in het blok» Van het mogelijke aan- bod in het blok van 1200 ha zou nog geen

zijn. Door toepassing van de in figuur 2 aangegeven wijze van nummering van de grootheden p. wordt de uiteindelijke formule voor de gemiddelde afstand G zo eenvoudig mogelijk. Bij

Nu het huidige belastinggebouw vermogens onvoldoende zwaar belast, wordt introductie van een aanvullende vermogensbelasting voor ver- mogens boven 1 miljoen overwogen.. Beleidsoptie

To continue with the strong association of high price for luxury brands, it is expected that the price perception does not only affect the favorability of luxury brand

The owner of the vital-sign monitoring (VsM) application service has designed an architecture of independent service providers, and translated requirement R1 into a set of assump-

Het behoeft geen betoog dat de Nederlandse woningmarkt wordt gekenmerkt door een grootschalige problematiek. De huidige crises hebben aangetoond dat de instituties