• No results found

Straatverlichting wordt op basis van live data en algoritmen dynamisch bijgesteld om het

gedrag van bezoekers te beïnvloeden

Het living lab in Helmond richt zich op innovatie op het gebied van duurzame energie, hergebruik van water, autodelen en geautomatiseerd parkeren, slimme straatverlichting en meer.

Hier is een kleine wijk met woningen en openbare infrastructuur voorzien van sensoren om energie- en waterverbruik, alsmede het gebruik van gedeelde auto’s, te meten. Daarnaast wordt het gedrag van huishoudens en individuele personen gemeten, bijvoorbeeld de slaaptijd, het gebruik van huishoudelijke apparaten en de tijd die wordt doorgebracht op sociale media. In ruil voor hun deelname ontvangen inwoners een financiële beloning en betalen zij minder huur (Kuyper, 2019).

Andere living labs zijn ingericht om toekomstige intelligente energiesystemen te ontwerpen en te testen, waarbij vooral veel aandacht wordt besteed aan elektrische mobiliteit zoals in het Vehicle 2 Grid-project ('Vehicle2Grid,' 2016).

Centraal in deze living labs staat het idee dat er in de toekomst AI-algoritmen nodig zullen zijn om te kunnen voldoen aan de elektriciteitsbehoefte van een snelgroeiend aantal elektrische voertuigen op de weg. Wanneer de vraag groter is dan het aanbod, moeten datagedreven algoritmen gaan beslissen wie er hoeveel stroom krijgt. Daarbij zou gebruik kunnen worden gemaakt van de status van accu’s en andere informatie over de bestuurder.

Kolom 1 Kolom 2 Kolom 3 ontwikkelen om de veiligheid in de Internationale Zone te vergroten en

de overlast voor werknemers, inwoners en bezoekers te beperken

Data over burgers

Toezicht houden op en beïnvloeden van gedrag van het publiek om criminaliteit en verstoringen van de

openbare orde tegen te gaan Tabel 1 Urban living labs in Nederland

Living Labs spelen een sleutelrol in de experimentele ontwikkeling van data- en algoritmesystemen.

3.3 Ethische aspecten van algoritmische experimenten

Living labs worden beschouwd als alternatief voor een institutionele benadering van smart cities, waar burgers slechts worden gezien als passieve dataleveranciers, wier data is gemaakt om de doelen van stedelijke systemen en organisaties te dienen (Ranchordás, 2019). Men wil dat burgers een actieve rol spelen als

co-innovatoren om ‘producten, services, systemen en technologieën in een levensechte situatie te creëren, er prototypes van te maken, te valideren en te testen’ (Westerlund & Leminen, 2018) (Steen & van Bueren, 2018). Het toenemende gebruik van experimentele technologieën in de openbare ruimte en van data en machinelearning-algoritmen leidt echter tot fundamentele vragen over de bestuurlijke en ethische kant van deze initiatieven.

Schaer (Schaer, 2017) noemt vier belangrijke vraagstukken: 1) Keuzevrijheid: kunnen mensen ervoor kiezen om wel of niet mee te doen aan het experiment?

2) Geïnformeerde deelname: begrijpen mensen de aard van het experiment?

3) Bestuurlijke regie en beheersbaarheid: wie bepaalt hoe data en algoritmen worden gebruikt en wie is verantwoordelijk voor de resultaten en uitkomsten?

4) Geen negatieve gevolgen: zijn de data en algoritmen vrij van vooringenomenheid en discriminatie?

Keuzevrijheid en geïnformeerde deelname: door de snelle instroom van sensoren, data en algoritmen in de stedelijke ruimte beschikken we binnenkort over hetzelfde vermogen om mensen te beïnvloeden (manipuleren) en experimenten in de openbare ruimte uit te voeren dat bedrijven als Facebook al online hebben. In veel gevallen is het voor deze experimenten nodig dat mensen onbewust deelnemen, omdat hun gedrag kan worden beïnvloed door te veel informatie over het experiment. Dat zou de experimentele opzet het experiment tenietdoen. Aan de andere kant zou te weinig informatie verschaffen betekenen dat mensen mogelijk meedoen aan een experiment waaraan ze, als ze volledig geïnformeerd waren, nooit zouden hebben meegedaan. Dit dilemma werd benadrukt in een rapport uit 2007 van de European Expert Group on Science and Governance: ‘Als burgers routinematig en zonder overleg zouden worden onderworpen aan experimenten die niet bij naam worden genoemd, dan zou dat ernstige morele en maatschappelijke vraagstukken opleveren’ (Felt et al., 2007).

Bestuurlijke regie en beheersbaarheid: een tweede vraagstuk heeft te maken met de overmatige invloed van particuliere bedrijven op het ontwerp en gebruik van datagedreven technologieën. Publieke instellingen gebruiken steeds vaker data en AI-technologieën die worden gemaakt, verkocht en beheerd door particuliere bedrijven, wat mogelijk ernstige gevolgen kan hebben voor de burgerlijke vrijheden. Deze overmatige invloed kan vele vormen aannemen (Joh, 2017).

Zo is het mogelijk dat publieke instellingen onder een contract geen informatie aan het publiek mogen geven, zelfs al zijn ze dit wettelijk of beleidsmatig verplicht.

Publieke organisaties kunnen worden gedwongen om een contract te tekenen met bedrijven die min of meer een monopolie hebben op bepaalde technologische gebieden, wat kan leiden tot stijgende kosten of ontwerpkeuzes die niet in het algemeen belang zijn. Dit wordt door (Joh, 2017) omschreven als ‘productontwerp als beleid’. Ten slotte kan een gebrek aan expertise binnen publieke organisaties betekenen dat ze weinig invloed hebben op ontwerpkeuzes of de implicaties van technologische keuzes niet kunnen overzien. Uiteindelijk betekenen deze factoren dat het publiek beperkte informatie krijgt over de technologie die ten grondslag ligt aan belangrijke beslissingen over publieke kwesties en dat de logica en ratio van geautomatiseerde beslissingen zelfs voor de organisatie die van deze technologieën gebruikmaakt ondoorzichtig blijft. Hierdoor wordt de bestaande

‘informationele asymmetrie’ tussen technologiegebruikers en de mensen die de gevolgen van deze geautomatiseerde beslissingen ondervinden, d.w.z. de burgers, nog verder versterkt. (Joh, 2017).

Vooringenomenheid en eerlijkheid: alhoewel machinelearning-technieken zo kunnen worden geoptimaliseerd dat er in een laboratorium fantastische resultaten mee worden behaald, is de juistheid en betrouwbaarheid van machinelearning-toepassingen in de echte wereld vaak ronduit slecht. Recent onderzoek liet de gevaren zien van verborgen vooringenomenheid in AI-systemen. (Campolo, Sanfilippo, Whittaker, & Crawford, 2017). Ook van commerciële systemen is herhaaldelijk aangetoond dat ze onjuist en vooringenomen zijn (Angwin et al., 2016; Lebovits, 2019; Misra, 2018; Richer, 2018). Zo werd ontdekt dat een tool om de neiging tot recidive van veroordeelde criminelen te voorspellen niet beter presteerde dan een willekeurige online poll onder mensen die geen enkele strafrechtelijke achtergrond hadden (Dressel & Farid, 2018). Dit ondanks het feit dat de London Metropolitan Police een aantal interne tests had uitgevoerd om dergelijke problemen te voorkomen. Ondanks dat het bewijs dit tegenspreekt, blijft de London Metropolitan Police volhouden dat deze technologie een

foutpercentage van minder dan 1 op de 1000 heeft. De organisatie heeft de methodologie tot dusver nog niet openbaar willen maken ('London police’s face recognition system gets it wrong 81% of the time,' 2019).

Privacy: data die is verzameld in de openbare ruimte bevat vaak privé-informatie (bijv. seksuele oriëntatie, lidmaatschap van een vakbond of politieke partij, economische en uiterlijke kenmerken) die per ongeluk of met opzet kan worden geëxtraheerd door externe dataconsumenten (bijv. data-annotatoren, partner-organisaties, burgers). Zo kan meer informatie worden geopenbaard dan oorspronkelijk de bedoeling was en kan deze voor een ander doel worden ingezet.

De huidige oplossingen voor automatische privacybescherming, zoals bewerking van de inhoud of het gebruik van edge computing, kunnen de privacy vergroten maar uiteindelijk niet garanderen dat alle privé- en gevoelige informatie is verwijderd. Dit heeft belangrijke gevolgen in het kader van de Algemene Verordening Gegevensbescherming (AVG) (Bourgeois, Kortuem, & Kawsar, 2018).

Daarom zouden living labs vooral baat hebben bij ‘openbaarmaking op basis van begrensde toegang’ (Fan & Jackson, 2015), een model waarin alleen

gekwalificeerde professionals toegang hebben tot informatie. Deze professionals zijn in staat om data effectief te gebruiken en moeten zich houden aan de regelgeving op het gebied van gegevensbescherming.

Zo kan meer informatie worden