• No results found

Etnisch profileren bij predictive policing

5. Etnisch profileren

5.2 Etnisch profileren bij predictive policing

Dat men bij predictive policing gebruikt maakt van algoritmes en machine learning, en dat deze leiden tot een black box resultaat werd reeds uiteengezet in het hoofdstuk rond de werking van predictive policing. Hoe deze kenmerken er voor kunnen zorgen dat etnisch profileren binnen de politie in de hand gewerkt wordt, wordt in dit hoofdstuk uiteengezet.

Etnisch profileren in het kader van predictive policing zal een vorm van institutioneel racisme zijn. Het vindt niet plaats in een één-op-één relatie, maar het vindt zijn oorsprong in het algoritme waarop predictive policing steunt. Bij de ontwikkeling van het algoritme, zal de

336 UNIA, “Maatregelen nemen tegen onrechtmatige etnische profilering door de politie”, 16 december 2018, https://www.unia.be/nl/wetgeving-aanbevelingen/aanbevelingen-van-unia/etnische-profilering- en-onrechtmatige-politionele-selectiviteit., UNIA, “Jaarverslag Conventie Federale Politie – Unia”, maart 2017, 8-10,

https://www.unia.be/files/Documenten/Publicaties_docs/JV_Conventie_2016_Final_310317_NL.pdf., EU-MIDIS, “Data in Focus Report: Police Stops and Minorities”, 4,

https://fra.europa.eu/sites/default/files/fra_uploads/1132-EU-MIDIS-police.pdf.

337 N. VANASSCHE, A. VERHAGE, “Racisme en etnisch profileren door politie: in België?”, Cahiers Politiestudies 2015-2, afl. 35, 5.

338 European Commission against Racism and Intolerance, General Policy Recommendation nr. 11 on combating racism and racial discrimination in policing, 29 juni 2007, 8, https://rm.coe.int/ecri-general- policy-recommendation-no-11-on-combating-racism-and-racia/16808b5adf.

339 A. SOUTHALL, M. GOLD, “Why ‘Stop-and-Frisk’ Inflamed Black and Hispanic Neighborhoods”, New York Times 17 november 2019, https://www.nytimes.com/2019/11/17/nyregion/bloomberg-stop- and-frisk-new-york.html.

340 N. VANASSCHE, A. VERHAGE, “Racisme en etnisch profileren door politie: in België?”, Cahiers Politiestudies 2015-2, afl. 35, 2.

etniciteit van de betrokkene niet als een criterium in aanmerking worden genomen, het gevaar bestaat er echter uit dat dit criterium niet intentioneel binnen zal sluipen in de applicatie341.

Wanneer minderheidsgroepen oververtegenwoordigd zijn in de criminaliteitsstatistieken die het algoritme gebruikt, bestaat de kans dat dit algoritme aan de hand van bijvoorbeeld machine

learning en neurale netwerken en een correlatie ziet tussen een minderheidsgroep en

bepaalde misdrijven. Zij gaat dit beschouwen als een goede indicator om te voorspellen waar in de toekomst misdrijven kunnen worden gepleegd, en zal dit criterium met deze doelstelling gebruiken342. Het algoritme is niet ontwikkeld om etnisch te profileren. Maar wanneer zij data

gevoed krijgt die niet strookt met de realiteit, data waarin minderheidsgroepen oververtegenwoordigd zijn, zal het algoritme dit wel voor waar aannemen en dit als de realiteit beschouwen. In de wereld van het algoritme worden er meer misdrijven gepleegd door minderheidsgroepen dan door de meerderheidsgroep, daarom is de kans groter dat er een misdrijf gepleegd zal worden op een locatie waar veel leden van de minderheidsgroep aanwezig zijn. De politiediensten houden rekening met de resultaten van predictive policing om te bepalen waar zij hun schaarse middelen inzetten. Er zullen meer patrouilles plaatsvinden op locaties waar minderheidsgroepen een grote vertegenwoordiging hebben, en bijgevolg zullen hier ook meer misdrijven geregistreerd worden. Deze misdrijven vertalen zich in data die op zijn beurt opnieuw aan het algoritme gevoed wordt. Hierdoor ontstaat er een self fulfilling

prophecy en een positieve feedback loop. De politiediensten en het algoritme worden

verkeerdelijk gesterkt in hun overtuiging dat er correlatie en causaliteit bestaat tussen etniciteit en misdaad, louter omdat zij meer zullen patrouilleren op locaties waar deze groepen oververtegenwoordigd zijn. Agenten kunnen hierdoor ook verkeerdelijk argumenteren dat zij handelen op basis van objectieve informatie om meer op dergelijke locaties te patrouilleren, in plaats van hun persoonlijke vooroordelen. Zij zullen de resultaten van predictive policing als objectief en neutraal zien, terwijl dit niet zo is. Onderzoek heeft aangewezen dat een dergelijk algoritme zelfs in staat is om deze vooroordelen te versterken, in plaats van ze in te perken343.

Dit kan er bijvoorbeeld toe leiden dat een lid van een minderheidsgroep een grotere kans heeft om het slachtoffer te worden van vooroordelen uitgaande van een agent wanneer deze persoon zich in een hot spot bevindt344.

341 N. VANASSCHE, A. VERHAGE, “Racisme en etnisch profileren door politie: in België?”, Cahiers Politiestudies 2015-2, afl. 35, 4.

342 Y. JANSSENS, S. FORREZ, “Ethnic profiling in België: een verkennende wandeling op braakliggend terrein”, Cahiers Politiestudies 2015-2, afl. 35, 61., R. M. O’DONNELL, “Challenging racist predictive policing algorithms under the equal protection clause”, NYU Law Review, afl. 94, 557- 558.

343 K. LUM, W. ISAAC, “To predict and serve?”, significancemagazine.com, oktober 2016, 15-18., R. M. O’DONNELL, “Challenging racist predictive policing algorithms under the equal protection clause”, NYU Law Review, afl. 94, 557-562.

344 P. J. BRANTINGHAM, M. VALASIK, G. O. MOHLER, “Does predictive policing lead to biased arrests? Results from a randomized controlled trial”, Statistics and Public Policy 2018, afl. 5, 2.

Een onderzoek van BRANTINGHAM, VALASIK en MOHLER naar de vraag of predictive

policing leidt tot vooringenomenheid bij arrestaties besluit dat dit niet het geval was. De auteurs

maken echter enkele belangrijke kanttekeningen. De resultaten zijn zeer afhankelijk van de manier waarop deze technologie geïmplementeerd wordt en van de onderzoeksmethodes. Deze enkele studie volstaat volgens hen niet om te besluiten dat etnisch profileren geen risico is bij predictive policing. Zo werden er in de vorm van predictive policing die zij onderzochten geen persoonsgegevens gebruikt, volgens hen zou dit negatieve gevolgen hebben op het antwoord op hun onderzoeksvraag345. Meer algemeen onderzoek toont echter wel aan dat

surveillancesystemen, algortimes, machine learning en artificiële intelligentie leiden tot het opdelen van mensen in verschillende categorieën, wat vaak resulteert in een discriminerende werking346.