4.2 Aanbevelingen
De conclusie van mijn onderzoek naar de toepassing van Big Data-analyses voor strafvorderlijke doeleinden, is dat deze toepassing overwegend niet verenigbaar is met het recht op eerbiediging van het privéleven van burgers (art. 8 EVRM). Duidelijke, gedetailleerde regels omtrent de
gedragingen van de burger die aanleiding kunnen geven tot de inzet van
iColumbo, zouden de onmogelijkheid tot de uitoefening van het recht op
eerbiediging van het privéleven kunnen compenseren, ware het niet dat
dergelijke regels ontbreken. Het onafhankelijke toezicht op de inzet van
data-analysemethoden als iColumbo komt in gevaar door het gebrek aan inzicht in de geautomatiseerde processen die in het strafrecht worden toegepast.
Buiten twijfel is gesteld dat de opsporingsinstantie gerechtvaardigde doeleinden kan hebben om heimelijk Big Data-analyses ten behoeve van strafrechtelijk onderzoek uit te voeren. Het knelpunt is dat de bevoegdheid om dergelijke analyses uit te voeren, wordt gegrond op een wettelijke bepaling die te algemeen is en niet strekt tot bevoegdheidsverlening voor vergaande, geautomatiseerde analysemethoden. Bij dit alles moet worden bedacht dat het gaat om het onderzoeken van de gegevens van burgers die (nog) niet verdacht worden van een strafbaar feit; het sociale netwerk van een relatie van een persoon die niet verdacht is, kan bijvoorbeeld worden blootgelegd met iColumbo. Bij de bestudering van de nieuwe Wet politiegegevens en het moderniseringsproject van Boek 2 Strafvordering, ben ik een aantal ontwikkelingen tegengekomen die de inzet van strafvorderlijke Big Data-analyses meer in overeenstemming kunnen brengen met de criteria die het EHRM stelt aan het recht op eerbiediging van het privéleven van burgers.
Positief is de ontwikkeling dat de wetgever een gegevensbeschermingseffectbeoordeling of Privacy Impact Assessment op moet nemen in artikel 4c van de nieuwe Wpg. Opsporingsambtenaren moeten standaard de proportionaliteit en subsidiariteit van de in te zetten Big Data-analysemethode beoordelen: het recht op eerbiediging van het privéleven moet worden afgewogen tegen het belang van de handhaving van de openbare orde en veiligheid, waarnaast moet worden beoordeeld of de inzet van het middel de minst ingrijpende manier is om de beveiliging van de samenleving te bereiken. Hetzelfde kan mijns inziens worden bereikt door een afspiegeling van de proportionaliteitseis en doelbindingseis uit de Wiv 2017 op te nemen in de Wpg.
Buiten twijfel is gesteld dat de opsporingsinstantie gerechtvaardigde doeleinden kan hebben om heimelijk Big Data-analyses ten behoeve van strafrechtelijk onderzoek uit te voeren. Het knelpunt is dat de bevoegdheid om dergelijke analyses uit te voeren, wordt gegrond op een wettelijke bepaling die te algemeen is en niet strekt tot bevoegdheidsverlening voor vergaande, geautomatiseerde analysemethoden. Bij dit alles moet worden bedacht dat het gaat om het onderzoeken van de gegevens van burgers die (nog) niet verdacht worden van een strafbaar feit; het sociale netwerk van een relatie van een persoon die niet verdacht is, kan bijvoorbeeld worden blootgelegd met iColumbo. Bij de bestudering van de nieuwe Wet politiegegevens en het moderniseringsproject van Boek 2 Strafvordering, ben ik een aantal ontwikkelingen tegengekomen die de inzet van strafvorderlijke Big Data-analyses meer in overeenstemming kunnen brengen met de criteria die het EHRM stelt aan het recht op eerbiediging van het privéleven van burgers.
Positief is de ontwikkeling dat de wetgever een gegevensbeschermingseffectbeoordeling of Privacy Impact Assessment op moet nemen in artikel 4c van de nieuwe Wpg. Opsporingsambtenaren moeten standaard de proportionaliteit en subsidiariteit van de in te zetten Big Data-analysemethode beoordelen: het recht op eerbiediging van het privéleven moet worden afgewogen tegen het belang van de handhaving van de openbare orde en veiligheid, waarnaast moet worden beoordeeld of de inzet van het middel de minst ingrijpende manier is om de beveiliging van de samenleving te bereiken. Hetzelfde kan mijns inziens worden bereikt door een afspiegeling van de proportionaliteitseis en doelbindingseis uit de Wiv 2017 op te nemen in de Wpg.
Aanbevelenswaardig
is wat mij betreft het in ‘harde’ wetten opnemen van een expliciteringseis,
zoals voorgesteld door de Commissie-Koops, die inhoudt dat de gegevensverwerker
die op grond van geautomatiseerde analyses een vervolgingsbeslissing neemt,
moet kunnen motiveren waarom de automatische analyse tot die beslissing heeft
geleid. Dat maakt de beslissing achteraf toetsbaar door een onafhankelijke
partij.
Ook audit-logbestanden, opgeslagen voor het controleren van geautomatiseerde
besluitvorming, kunnen de effectiviteit van toetsing door een onafhankelijke
instantie vergroten. Anders dan in de vorm van een ‘soft law’-aanbeveling
die wordt gedaan in de PIA-bijlage, zou deze mogelijkheid in de Wpg kunnen
worden opgenomen als een vast criterium voor de automatische verwerking van
persoonsgegevens.
Wel moet één belangrijke kanttekening worden geplaatst bij alle ontwikkelingen. Hoe veelbelovend principes als dataminimalisatie en doelbinding en de verplichting tot het uitvoeren van een PIA door overheidsinstanties ook mogen lijken, alles staat of valt met de kracht van de toezichthoudende autoriteit, in het bijzonder de Autoriteit Persoonsgegevens. De AP zal zich moeten inspannen om de naleving van het PIA/de gegevensbeschermingseffectbeoordeling in de praktijk handen en voeten te geven.
Wel moet één belangrijke kanttekening worden geplaatst bij alle ontwikkelingen. Hoe veelbelovend principes als dataminimalisatie en doelbinding en de verplichting tot het uitvoeren van een PIA door overheidsinstanties ook mogen lijken, alles staat of valt met de kracht van de toezichthoudende autoriteit, in het bijzonder de Autoriteit Persoonsgegevens. De AP zal zich moeten inspannen om de naleving van het PIA/de gegevensbeschermingseffectbeoordeling in de praktijk handen en voeten te geven.
Suggesties voor verder onderzoek/scripties/artikelen
De
onderzoeker is niet alleen op zoek naar antwoorden, de onderzoeker blijft
zichzelf vragen stellen. Tijdens het schrijven ben ik op veel vragen gekomen die
niet binnen het bestek van deze bijdrage besproken konden worden, maar mij die wél
interessant lijken voor verder onderzoek. Daarom wil ik hierbij de mogelijkheid
gebruiken om suggesties te doen. Onderwerpen die in een scriptie, een onderzoek of een juridisch artikel nader zouden
kunnen worden onderzocht, zijn:
1.
Inmenging in het recht op eerbiediging van het privéleven door andere burgers (in de Secure Lane),
in opdracht van de overheid: een verticale inmenging met een ‘horizontaal
randje’?
Dit onderwerp kan op twee manieren worden benaderd. De Commissie-Mevis heeft reeds in 2001 voorgesteld om artikel 126ng in het Wetboek van Strafvordering op te nemen.[1] Dit artikel ziet op de situatie waarin van derden data-analyse gevorderd kan worden. Het rapport van de Commissie-Mevis is een heroverweging waard. Anders is de situatie waarin bijvoorbeeld particuliere beveiligingsbedrijven vrijwillig deelnemen in Big Data-analyse en predictive policing-methoden die andere burgers betreffen. Een voorbeeld hiervan is de Secure Lane, waarin burgers observaties uitvoeren ten behoeve van data-analyse met ANPR (2.3.3). Onderzocht zou kunnen worden of het betrekken van burgers bij predictive policing-methoden wenselijk is en hoe de eerbiediging van het privéleven van de onderzochte in dergelijke situaties moet worden gewaarborgd. Hoe moet het zorgvuldig opgebouwde EHRM-toetsingskader in dergelijke horizontale situaties worden toegepast?
2.
Big Data-analyses in rechtsgebiedoverstijgende situaties: een ‘creepy’
function? Over Systeem Risico Indicatie (SyRI)
SyRI,
Systeem Risico Indicatie, is een door algoritmen gestuurd instrument van het
ministerie van Sociale Zaken en Werkgelegenheid (SZW) om sociale
verzekeringsfraude via bestuursrechtelijke weg op te sporen en te sanctioneren.
Het doel van SyRI is te komen tot een profielschets van een burger, op grond
waarvan een indicatie moet worden gegeven hoe groot de kans is dat de burger
zich schuldig maakt aan sociale verzekeringsfraude. Algoritmen construeren uit
onder meer opleidingsgegevens, gegevens over de sociaal-economische positie,
informatie over de woonomgeving en strafrechtelijke antecedenten een profiel;
met dit profiel wordt het risico op fraude door de burger getaxeerd
(versimpelde weergave). Het principe, de inschatting van een risico dat een
bepaalde gedraging zich voordoet, is vergelijkbaar met het principe dat ten
grondslag ligt aan de inzet van PredPol en CAS. De situatie kan zich voordoen
dat uit SyRI strafrechtelijk relevante resultaten voortvloeien of dat
ontdekkingen worden gedaan die in een strafprocedure kunnen worden gebruikt en
andersom. Hoe moet het bestuursrechtelijke verbod van détournement de
pouvoir (dpp) in een dergelijke situatie worden uitgelegd? Bestaan er
internationale aanknopingspunten voor het invoeren van een strafrechtelijk
verbod van ddp? Wat de mogelijkheid tot rechtsvergelijking betreft: welke
verschillen zijn er tussen de rechtswaarborgen voor een burger die verdacht
wordt van sociale verzekeringsfraude en de strafrechtelijke verdachte in de zin
van artikel 27 Sv en zijn verschillen in de mogelijkheden tot verdediging te rechtvaardigen?
Heeft de onschuldpresumptie betekenis voor de rechtsbescherming van burgers die
verdacht worden van sociale verzekeringsfraude?
3.
Hoe verhoudt de inzet van predictive policing-methoden en algoritmische
besluitvorming binnen het proces van Big Data-analyse zich tot strafrechtelijke
waarborgen voor het recht op een eerlijke procesvoering, waaronder de
onschuldpresumptie en ‘equality of arms’ (artikel 6 EVRM)?
Het
was mijn bedoeling om deze probleemstelling uit te werken, maar ik heb het
advies gekregen om dit onderzoek uit te werken in de huidige opzet, met de
nadruk op het recht op eerbiediging van het privéleven van de burger als
bedoeld in artikel 8 EVRM en artikel 10 van de Grondwet. Het recht op een
eerlijk proces als bedoeld in artikel 6 EVRM is belangwekkend. Het
fundamentele rechtsbeginsel van de onschuldpresumptie en het in de
jurisprudentie van het EHRM tot de huidige omvang gekomen beginsel van ‘equality
of arms’ hebben een complexe verhouding met technologische ontwikkelingen
als voorspellende algoritmen. Hoe moeten deze beginselen worden uitgelegd in
het licht van predictive policing-methoden en besluitvorming op grond
van geautomatiseerde Big Data-analyses?
Het
rechtsbeginsel van de onschuldpresumptie is voor meerdere uitleg vatbaar.
Weigend betoogt dat de strafrechtelijke onschuldpresumptie geen feitelijke
presumptie is, maar een bewijsrechtelijke constructie om tegenwicht te bieden
aan de macht van de staat en de burger te beschermen tegen het risico op een onzorgvuldige
bewijsvoering door de vervolgende instanties.[2] In deze lezing past de
onschuldpresumptie zoals die in artikel 6 lid 2 EVRM en artikel 48 lid 1 van
het EU-Handvest is vervat. De onschuldpresumptie in de lezing van deze
artikelen houdt in, dat een ieder tegen wie een strafrechtelijke vervolging is
ingesteld, voor onschuldig wordt gehouden totdat zijn schuld in rechte (na het
onherroepelijk worden van de veroordeling) is komen vast te staan. Richtlijn
(EU) 2016/343 ter versterking van bepaalde vermoedens van onschuld maakt
duidelijk dat het een cruciaal aspect van de strafrechtelijke
onschuldpresumptie is, dat de bewijslast op de vervolgende instantie rust. Het
probabilisme bij de toepassing van PredPol en andere vormen van predictive
policing, impliceert dat iedere burger potentieel verdacht is. Een complicerende
factor is het naar de achtergrond verdwijnen van het strafvorderlijke
‘verdachtebegrip’ in de zin van artikel 27 van het Wetboek van Strafvordering
in het geval van proactieve of anticiperende opsporing. Welbeschouwd mist de
onschuldpresumptie van artikel 6 EVRM toepassing, zolang de vervolging nog niet
is ingesteld.
Begrippen
die raken aan de onschuldpresumptie binnen het gehele strafproces, van
opsporing tot berechting, zijn de ‘confirmation bias’ en ‘belief
perseverance’. Rechtspsychologische inzichten zijn onmisbaar voor de uitleg
van deze processen. Technische kwesties met gevolgen voor de fundamentele
rechten van de burger en de rechtspositie van verdachten die uitwerking
verdienen, zijn begrippen als ‘black box’ en ‘garbage out’.
De
‘black box’, waarmee wordt geduid op het niet inzichtelijk zijn van de toegepaste datasets voor de training van voorspellende algoritmen in Big Data-processen en predictive
policing en het verborgen blijven van de resultaten van profilering, kunnen een risico betekenen voor de ‘equality of arms’ als op
grond van deze processen de vervolging wordt ingesteld. Een
informatieasymmetrie kan optreden ten nadele van de verdachte. Wat is daarbij
de waarde van de ‘white box’-aanbeveling in het PIA-model?
‘Garbage
out’ is weliswaar een belangrijk principe in data-analyse, inhoudend dat de
data in het Warehouse zo moeten worden ververst dat inaccurate
informatie uit het systeem verdwijnt, maar is dat ook gegarandeerd ten aanzien
van bijvoorbeeld valse aangiften? Algoritmen die met vervuilde data werken,
geven een verkeerde voorstelling van zaken. De confirmation bias en belief
perseverance zijn hardnekkige fenomenen die een riskante wisselwerking
kunnen vertonen met het verificatoire
karakter van het strafproces. Het belang van een adversaire behandeling van de
strafzaak wordt daarmee onderstreept.
Studenten
die geïnteresseerd zijn in deze materie, kunnen wellicht aanknopingspunten
vinden in de AERIUS I- en AERIUS II-zaken, de studies van de
Europese Commissie (‘Study on the Human Rights Dimension of algorithms’,
MSI-NET), het onderzoek van P. Jeffrey Brantingham, ‘Does Predictive Policing
lead to biased arrests?’ en het boek van P.J. van Koppen e.a, ‘Reizen met mijn
rechter: psychologie van het recht’.
[1] Rapport van de
Commissie Strafvorderlijke gegevensvergaring in de Informatiemaatschappij,
2001, p. 68.
[2] T. Weigend, ‘There is only one
presumption of innocence’, Netherlands Journal of Legal Philosophy
2013/42-3, p. 193, 195-197.