• No results found

Op zijn minst moet bekend zijn hoe de data zijn verwerkt (bijvoorbeeld welk

algoritme gebruikt is), wanneer die zijn verzameld, waarvoor en door wie

Temeer omdat het voldoen aan deze voorwaarde de digitale weerbaarheid faciliteert van burgers die dat willen. WijIV denken dat dit effectiever is dan het blijven voeren van ‘het gesprek over de waarheid’. Hoe realistisch is het voeren van dit gesprek? Hebben burgers wel zin en gelegenheid om het gesprek met je te voeren, om kritische burgers te zijn? Volgens Kahnemanhebben mensen de neiging te kiezen voor het gemak en de korte termijn; men vindt het lastig om na te denken over risico’s of het ongemak op langere termijn15. En die digitale diensten zijn eigenlijk best wel gemakkelijk… De ROB beveelt ook aan om in te zetten op het vergroten van vertrouwen in instituties, te beginnen met het geven van het goede voorbeeld. Daar moet zeker aan gewerkt worden16. Er moet echter meer gebeuren, waaronder het effectief monitoren of de instituties wel borgen in hun werkwijze wat zij hebben toegezegd. Een voorbeeld hiervan zijn de toegezegde checks and balances bij het dilemma veiligheid versus privacy, naar aanleiding van de discussie rond de wetsvoorstellen Computercriminaliteit III en modernisering Wet op de inlichtingen- en veiligheidsdiensten 2017 (Wiv of ‘sleepwet’).

Het rapport ‘Zoeken naar waarheid’ illustreert het misbruik van data (informatie) en het gevaar voor ‘de waarheid’ en onze vrijheid van oordeelsvorming en bewegen, onze (digitale) autonomie. De aanbevelingen lijken ‘hoog over’, terwijl de meer concrete wet- en regelgeving al beperkingen heeft.

Een voorbeeld is de werking van de Algemene Verordening Gegevensbescherming (AVG) of General Data Protection Regulation (GDPR)17. Deze schrijft voor:

“Natuurlijke personen moeten bewust worden gemaakt van de risico's, regels, waarborgen en rechten in verband met de verwerking van persoonsgegevens, alsook van de wijze waarop zij hun rechten met betrekking tot deze verwerking kunnen uitoefenen” (excerpt grond 39-art. 5). Als de toelichting weg wordt gestopt in FAQ’s en Algemene Voorwaarden, wordt mogelijk voldaan aan de regel. Maar als je er bewust naar moet zoeken, is het de vraag of er ook wordt voldaan aan de intentie van de regel, ‘de geest’. Kunnen mensen hun rechten makkelijk vinden en begrijpen?

Verder geeft de AVG zes rechtsgronden voor de verzameling van persoons-gebonden gegevensV. Eén van de rechtsgronden is ‘het algemeen belang’, een ander is ‘toestemming van de persoon’. Door slimme apparaten als sensoren, camera’s en trackers in de openbare ruimte, worden veel data verzameld die niet nodig zijn voor ‘het algemeen belang’. Hoe te zorgen dat dit gebeurt met toestemming van het individu?

Er zijn andere voorbeelden, bijvoorbeeld het gebruik van cookies. Veel bedrijven maken het moeilijk om cookies in te stellen. Het instellen kost veel tijd, los van of je begrijpt wat die cookies doen. Het is daardoor onoverzichtelijk en ongemakkelijk, terwijl de AVG voorschrijft dat dergelijke voorzieningen overzichtelijk en in duidelijke, eenvoudige taal moeten worden aangeboden. Een ander voorbeeld is de PSD2, de nieuwe Europese wet (richtlijn) voor het betalingsverkeer van consumenten en bedrijven. Deze kent ook risico’s voor de autonomie van het individu, ondanks de goede bedoelingen18. Verder zijn niet alle ondernemers even integer bij de borging van de privacy van het individu en de regelgeving die daarvoor geldt, terwijl handhaving lastig is. Al is het maar omdat er te weinig (deskundige) mensen beschikbaar zijn. De moeilijkheid om de autonomie te borgen in de openbare ruimte wordt vergroot doordat slimme apparaten door voortschrijdende technologische ontwikkeling steeds kleiner worden en dus moeilijker te herkennen. Verder opereren digitaliseringsorganisaties in een virtuele wereld waar allerlei grenzen op zijn minst doorzichtig zijn, ook de nationale grenzen. Ook dat bemoeilijkt de handhaving.

Effectieve wet- en regelgeving en de bijbehorende handhaving zijn nodig voor de bescherming en facilitering van ‘het algemeen belang’, waar bijvoorbeeld de veiligheid van identiteit en autonomie onder vallen van individu, groep en organisatie. Wet- en regelgeving is een belangrijk instrument van maatschappij en overheid; een overheid die zoekt naar haar rol in de digitale wereld.

<...> So what can we do to protect and preserve a local imagined community, and mobilise it as a force for good? <...>

1. Create a safe and secure urban environment. If we fail to ensure that everyone feels equally safe and secure, we cannot expect all our citizens to contribute to a strong civic democracy with a shared identity. A city that is strong and resilient.

2. Protect the public space. The city belongs to everyone. Our neighborhoods, squares and streets are public spaces that we must protect so that all citizens are assured of a safe and peaceful life. It is their space. <…>

Uit: speech Burgemeester Amsterdam, NYC: Columbia University d.d. 9 april 2019

Die rol van de overheid moet worden geconcretiseerd, met inbegrip van vragen waar de grens ligt bij het verzamelen en het gebruik van persoonsgebonden data door de overheid voor de openbare orde en veiligheid, bij het beheer van de openbare ruimte en bij haar digitale dienstverlening aan burgers19. Het gaat om vragen als: hoe ver de overheid mag gaan om onze digitale vrijheid te beschermen;

hoe ver ze mag gaan om de openbare orde en de veiligheid te borgen en te handhaven; en hoe ver in de rationalisering van de oordeelsvorming op basis van data20. Antwoorden op die vragen zijn niet altijd éénduidig te geven. Er zitten terugkerende dilemma’s bij, operationeel-tactisch21 en bestuurlijk,bijvoorbeeld het dilemma data verzamelen voor veiligheid versus privacy. Aan het verzamelen van data zitten risico’s voor ieders autonomie. Persoonsgebonden data zijn een bron van kennis over de voorkeuren van een persoon en haar naasten.

Ambtenaar: Met behulp van bigdata-technieken als machine learning kan men de kans op (dus ook het risico op) een bepaalde uitkomst berekenen. Bijvoorbeeld het risico op voortijdig schoolverlaten, of op uithuisplaatsing. De voor veel van mijn collega’s aantrekkelijke gedachte is om een groep te identificeren waarbij sprake is van een verhoogd risico en daar dan beleid op te maken. Daarmee ben je eigenlijk aan het profileren, wat niet mag. Bovendien is de interventie ten aanzien van individuen die uiteindelijk op basis van deze identificatie plaatsvindt door ons als overheid niet goed uit te leggen. Er is geen (democratisch vastgestelde) regel met een vast criterium, maar een lerend algoritme dat zelf steeds een nieuw criterium op basis van steeds weer nieuwe data vaststelt.

Een bijkomend probleem is dat de interventies als zodanig niet voorafgaand aan de uitvoering van het onderzoek en de in dit kader gewenste datalevering worden beschreven, maar integendeel onder het containerbegrip ‘Beleidsonderzoek’ worden gevat. Op deze manier is afwijzing van het dataverzoek op basis van onrechtmatig gebruik onmogelijk. Mag dat?

Uit: Engers-Lobbrecht, R. van; Hooghiemstra, T.; Ligthart, J.; Haans, E.;

Wassing; A.; (2018: 23)

1.2 Data, basis voor verdienmodellen

Persoonsgebonden data zijn geld waard. Op basis van persoonsgebonden data kan een gedetailleerd persoonlijk profiel worden opgebouwd van culturele,

economische, politieke, religieuze, seksuele, sociale voorkeuren en interesses.

Met dit profiel kunnen onze mening, onze keuzes en ons gedrag beïnvloed worden.

Om die reden heeft men de meeste interesse in de data over wat het individu digitaal doet en wil doen en waar zij interesse in toont. Men koopt en verkoopt niet voor niets elke handeling die wordt verricht op het internet22. Men laat bijna geen gelegenheid voorbij gaan om persoonsgebonden data te verzamelen. Deze worden op veel plaatsen verzameld, bijvoorbeeld door slimme apparaten in de openbare ruimte, door zoekmachines en spelletjes op het internet en door apps, ook als de apps niet zijn ingeschakeld. Elke keer als iemand een digitaal platform gebruikt, geeft hij of zij data weg via o.a. zoekopdrachten, foto’s en berichten, soms ongezien. Terwijl anders is voorgeschreven (AVG; excerpt grond 39-art. 5).

Digitale platforms23 als Facebook (ook eigenaar van Whatsapp en Instagram), Google en Yahoo zijn grote handelaren in data.

Onderzoekers van het International Computer Science Institute testten onlangs 24.000 apps die gebruik maken van Google Android. Zeventig procent daarvan volgt permanent de bewegingen van gebruikers en wisselt gegevens uit met andere apps, ontdekten ze.

De wetenschappers stelden Google bijna een half jaar geleden hiervan op de hoogte, maar kregen geen antwoord.

Uit: Thomas, Casper; (2019)

2. De digitale platforms rijk en dominant, riskant voor (digitale) autonomie

We maken het onszelf het liefst gemakkelijk. Hoeveel van ons klikken zonder bewust een keuze te maken op OK wanneer er een melding over cookies verschijnt, en geven zo hun persoonsgebonden data weg? En hoe vaak gebruiken we wifi in een café of op straat, zonder acht te slaan op wie de faciliteit biedt en onder welke voorwaarden, zo nodig inloggend via Facebook? In de Verenigde Staten doet kennelijk ongeveer 76% dat laatste24. Ook kunnen we bijna niet meer zonder platforms als Facebook. Deze hebben inmiddels een grote ‘sociale waarde’:

“Sinds jij van Facebook af bent weet ik niet meer wat je doet”. Als bijvoorbeeld lagere scholen gebruik maken van Facebook om events en ander nieuws over de school en klassen te delen in groepen, moet je daar als ouder van een kind op die school eigenlijk ook op zitten. Als al je collega’s Whatsapp gebruiken om informatie over projecten te delen, moet je daar eigenlijk ook mee werken. Anders mis je te veel, kan je een ‘digital outcast’ worden. De grote sociale waarde creëert een lockin.

Ook zijn we gewend aan zoekmachines, die door het gebruik door velen steeds meer leren. Als je ook gebruik maakt van hun diensten (bijvoorbeeld Gmail van Google), is zo’n lockin al snel aan de orde.

Als al je collega’s Whatsapp