zondag 28 juli 2019

4.2 Big Data in het strafrecht: aanbevelingen en scriptiesuggesties


4.2 Aanbevelingen

De conclusie van mijn onderzoek naar de toepassing van Big Data-analyses voor strafvorderlijke doeleinden, is dat deze toepassing overwegend niet verenigbaar is met het recht op eerbiediging van het privéleven van burgers (art. 8 EVRM). Duidelijke, gedetailleerde regels omtrent de gedragingen van de burger die aanleiding kunnen geven tot de inzet van iColumbo, zouden de onmogelijkheid tot de uitoefening van het recht op eerbiediging van het privéleven kunnen compenseren, ware het niet dat dergelijke regels ontbreken. Het onafhankelijke toezicht op de inzet van data-analysemethoden als iColumbo komt in gevaar door het gebrek aan inzicht in de geautomatiseerde processen die in het strafrecht worden toegepast. 

Buiten twijfel is gesteld dat de opsporingsinstantie gerechtvaardigde doeleinden kan hebben om heimelijk Big Data-analyses ten behoeve van strafrechtelijk onderzoek uit te voeren. Het knelpunt is dat de bevoegdheid om dergelijke analyses uit te voeren, wordt gegrond op een wettelijke bepaling die te algemeen is en niet strekt tot bevoegdheidsverlening voor vergaande, geautomatiseerde analysemethoden. Bij dit alles moet worden bedacht dat het gaat om het onderzoeken van de gegevens van burgers die (nog) niet verdacht worden van een strafbaar feit; het sociale netwerk van een relatie van een persoon die niet verdacht is, kan bijvoorbeeld worden blootgelegd met iColumbo. Bij de bestudering van de nieuwe Wet politiegegevens en het moderniseringsproject van Boek 2 Strafvordering, ben ik een aantal ontwikkelingen tegengekomen die de inzet van strafvorderlijke Big Data-analyses meer in overeenstemming kunnen brengen met de criteria die het EHRM stelt aan het recht op eerbiediging van het privéleven van burgers.

Positief is de ontwikkeling dat de wetgever een gegevensbeschermingseffectbeoordeling of Privacy Impact Assessment op moet nemen in artikel 4c van de nieuwe Wpg. Opsporingsambtenaren moeten standaard de proportionaliteit en subsidiariteit van de in te zetten Big Data-analysemethode beoordelen: het recht op eerbiediging van het privéleven moet worden afgewogen tegen het belang van de handhaving van de openbare orde en veiligheid, waarnaast moet worden beoordeeld of de inzet van het middel de minst ingrijpende manier is om de beveiliging van de samenleving te bereiken.  Hetzelfde kan mijns inziens worden bereikt door een afspiegeling van de proportionaliteitseis en doelbindingseis uit de Wiv 2017 op te nemen in de Wpg. 

Aanbevelenswaardig is wat mij betreft het in ‘harde’ wetten opnemen van een expliciteringseis, zoals voorgesteld door de Commissie-Koops, die inhoudt dat de gegevensverwerker die op grond van geautomatiseerde analyses een vervolgingsbeslissing neemt, moet kunnen motiveren waarom de automatische analyse tot die beslissing heeft geleid. Dat maakt de beslissing achteraf toetsbaar door een onafhankelijke partij. 

Ook audit-logbestanden, opgeslagen voor het controleren van geautomatiseerde besluitvorming, kunnen de effectiviteit van toetsing door een onafhankelijke instantie vergroten. Anders dan in de vorm van een ‘soft law’-aanbeveling die wordt gedaan in de PIA-bijlage, zou deze mogelijkheid in de Wpg kunnen worden opgenomen als een vast criterium voor de automatische verwerking van persoonsgegevens. 

Wel moet één belangrijke kanttekening worden geplaatst bij alle ontwikkelingen. Hoe veelbelovend principes als dataminimalisatie en doelbinding en de verplichting tot het uitvoeren van een PIA door overheidsinstanties ook mogen lijken, alles staat of valt met de kracht van de toezichthoudende autoriteit, in het bijzonder de Autoriteit Persoonsgegevens. De AP zal zich moeten inspannen om de naleving van het PIA/de gegevensbeschermingseffectbeoordeling in de praktijk handen en voeten te geven.

Suggesties voor verder onderzoek/scripties/artikelen
De onderzoeker is niet alleen op zoek naar antwoorden, de onderzoeker blijft zichzelf vragen stellen. Tijdens het schrijven ben ik op veel vragen gekomen die niet binnen het bestek van deze bijdrage besproken konden worden, maar mij die wél interessant lijken voor verder onderzoek. Daarom wil ik hierbij de mogelijkheid gebruiken om suggesties te doen. Onderwerpen die in een scriptie, een onderzoek of een juridisch artikel nader zouden kunnen worden onderzocht, zijn:

1. Inmenging in het recht op eerbiediging van het privéleven door andere burgers (in de Secure Lane), in opdracht van de overheid: een verticale inmenging met een ‘horizontaal randje’?

Dit onderwerp kan op twee manieren worden benaderd. De Commissie-Mevis heeft reeds in 2001 voorgesteld om artikel 126ng in het Wetboek van Strafvordering op te nemen.[1] Dit artikel ziet op de situatie waarin van derden data-analyse gevorderd kan worden. Het rapport van de Commissie-Mevis is een heroverweging waard. Anders is de situatie waarin bijvoorbeeld particuliere beveiligingsbedrijven vrijwillig  deelnemen in Big Data-analyse en predictive policing-methoden die andere burgers betreffen. Een voorbeeld hiervan is de Secure Lane, waarin burgers observaties uitvoeren ten behoeve van data-analyse met ANPR (2.3.3). Onderzocht zou kunnen worden of het betrekken van burgers bij predictive policing-methoden wenselijk is en hoe de eerbiediging van het privéleven van de onderzochte in dergelijke situaties moet worden gewaarborgd. Hoe moet het zorgvuldig opgebouwde EHRM-toetsingskader in dergelijke horizontale situaties worden toegepast?

2. Big Data-analyses in rechtsgebiedoverstijgende situaties: een ‘creepy’ function? Over Systeem Risico Indicatie (SyRI)

SyRI, Systeem Risico Indicatie, is een door algoritmen gestuurd instrument van het ministerie van Sociale Zaken en Werkgelegenheid (SZW) om sociale verzekeringsfraude via bestuursrechtelijke weg op te sporen en te sanctioneren. Het doel van SyRI is te komen tot een profielschets van een burger, op grond waarvan een indicatie moet worden gegeven hoe groot de kans is dat de burger zich schuldig maakt aan sociale verzekeringsfraude. Algoritmen construeren uit onder meer opleidingsgegevens, gegevens over de sociaal-economische positie, informatie over de woonomgeving en strafrechtelijke antecedenten een profiel; met dit profiel wordt het risico op fraude door de burger getaxeerd (versimpelde weergave). Het principe, de inschatting van een risico dat een bepaalde gedraging zich voordoet, is vergelijkbaar met het principe dat ten grondslag ligt aan de inzet van PredPol en CAS. De situatie kan zich voordoen dat uit SyRI strafrechtelijk relevante resultaten voortvloeien of dat ontdekkingen worden gedaan die in een strafprocedure kunnen worden gebruikt en andersom. Hoe moet het bestuursrechtelijke verbod van détournement de pouvoir (dpp) in een dergelijke situatie worden uitgelegd? Bestaan er internationale aanknopingspunten voor het invoeren van een strafrechtelijk verbod van ddp? Wat de mogelijkheid tot rechtsvergelijking betreft: welke verschillen zijn er tussen de rechtswaarborgen voor een burger die verdacht wordt van sociale verzekeringsfraude en de strafrechtelijke verdachte in de zin van artikel 27 Sv en zijn verschillen in de mogelijkheden tot verdediging te rechtvaardigen? Heeft de onschuldpresumptie betekenis voor de rechtsbescherming van burgers die verdacht worden van sociale verzekeringsfraude? 

3. Hoe verhoudt de inzet van predictive policing-methoden en algoritmische besluitvorming binnen het proces van Big Data-analyse zich tot strafrechtelijke waarborgen voor het recht op een eerlijke procesvoering, waaronder de onschuldpresumptie en ‘equality of arms’ (artikel 6 EVRM)? 

Het was mijn bedoeling om deze probleemstelling uit te werken, maar ik heb het advies gekregen om dit onderzoek uit te werken in de huidige opzet, met de nadruk op het recht op eerbiediging van het privéleven van de burger als bedoeld in artikel 8 EVRM en artikel 10 van de Grondwet. Het recht op een eerlijk proces als bedoeld in artikel 6 EVRM is belangwekkend. Het fundamentele rechtsbeginsel van de onschuldpresumptie en het in de jurisprudentie van het EHRM tot de huidige omvang gekomen beginsel van ‘equality of arms’ hebben een complexe verhouding met technologische ontwikkelingen als voorspellende algoritmen. Hoe moeten deze beginselen worden uitgelegd in het licht van predictive policing-methoden en besluitvorming op grond van geautomatiseerde Big Data-analyses? 

Het rechtsbeginsel van de onschuldpresumptie is voor meerdere uitleg vatbaar. Weigend betoogt dat de strafrechtelijke onschuldpresumptie geen feitelijke presumptie is, maar een bewijsrechtelijke constructie om tegenwicht te bieden aan de macht van de staat en de burger te beschermen tegen het risico op een onzorgvuldige bewijsvoering door de vervolgende instanties.[2] In deze lezing past de onschuldpresumptie zoals die in artikel 6 lid 2 EVRM en artikel 48 lid 1 van het EU-Handvest is vervat. De onschuldpresumptie in de lezing van deze artikelen houdt in, dat een ieder tegen wie een strafrechtelijke vervolging is ingesteld, voor onschuldig wordt gehouden totdat zijn schuld in rechte (na het onherroepelijk worden van de veroordeling) is komen vast te staan. Richtlijn (EU) 2016/343 ter versterking van bepaalde vermoedens van onschuld maakt duidelijk dat het een cruciaal aspect van de strafrechtelijke onschuldpresumptie is, dat de bewijslast op de vervolgende instantie rust. Het probabilisme bij de toepassing van PredPol en andere vormen van predictive policing, impliceert dat iedere burger potentieel verdacht is. Een complicerende factor is het naar de achtergrond verdwijnen van het strafvorderlijke ‘verdachtebegrip’ in de zin van artikel 27 van het Wetboek van Strafvordering in het geval van proactieve of anticiperende opsporing. Welbeschouwd mist de onschuldpresumptie van artikel 6 EVRM toepassing, zolang de vervolging nog niet is ingesteld. 

Begrippen die raken aan de onschuldpresumptie binnen het gehele strafproces, van opsporing tot berechting, zijn de ‘confirmation bias’ en ‘belief perseverance’. Rechtspsychologische inzichten zijn onmisbaar voor de uitleg van deze processen. Technische kwesties met gevolgen voor de fundamentele rechten van de burger en de rechtspositie van verdachten die uitwerking verdienen, zijn begrippen als ‘black box’ en ‘garbage out’.  

De ‘black box’, waarmee wordt geduid op het niet inzichtelijk zijn van de toegepaste datasets voor de training van voorspellende algoritmen in Big Data-processen en predictive policing en het verborgen blijven van de resultaten van profilering, kunnen een risico betekenen voor de ‘equality of arms’ als op grond van deze processen de vervolging wordt ingesteld. Een informatieasymmetrie kan optreden ten nadele van de verdachte. Wat is daarbij de waarde van de ‘white box’-aanbeveling in het PIA-model?

Garbage out’ is weliswaar een belangrijk principe in data-analyse, inhoudend dat de data in het Warehouse zo moeten worden ververst dat inaccurate informatie uit het systeem verdwijnt, maar is dat ook gegarandeerd ten aanzien van bijvoorbeeld valse aangiften? Algoritmen die met vervuilde data werken, geven een verkeerde voorstelling van zaken. De confirmation bias en belief perseverance zijn hardnekkige fenomenen die een riskante wisselwerking kunnen vertonen  met het verificatoire karakter van het strafproces. Het belang van een adversaire behandeling van de strafzaak wordt daarmee onderstreept.  

Studenten die geïnteresseerd zijn in deze materie, kunnen wellicht aanknopingspunten vinden in de AERIUS I- en AERIUS II-zaken, de studies van de Europese Commissie (‘Study on the Human Rights Dimension of algorithms’, MSI-NET), het onderzoek van P. Jeffrey Brantingham, ‘Does Predictive Policing lead to biased arrests?’ en het boek van P.J. van Koppen e.a, ‘Reizen met mijn rechter: psychologie van het recht’.


[1] Rapport van de Commissie Strafvorderlijke gegevensvergaring in de Informatiemaatschappij, 2001, p. 68.
[2] T. Weigend, ‘There is only one presumption of innocence’, Netherlands Journal of Legal Philosophy 2013/42-3, p. 193, 195-197.