zaterdag 30 november 2019

Het Privacy Impact Assessment (PIA) in geval van geheime dataveillance, risicotaxatie en profilering

Instrumenten voor geheime dataveillance, -analyse, profilering en risicotaxatie en de plicht om een PIA uit te voeren
De verwerkingsverantwoordelijke (organisatie) die privacygevoelige gegevens verwerkt, is verplicht om een Privacy Impact Assessment (PIA), ook wel 'gegevensbeschermingseffectbeoordeling' of 'Data Protection Impact Assessment' (DPIA) uit te voeren.

In vorige berichten heb ik het 'black box'-karakter van geheime methoden voor dataveillance en -analyse besproken, alsmede de toepassing van voorspellende algoritmen met een 'black box'-karakter, waaronder het Systeem Risico Taxatie (SyRI). Ik heb daarbij aangegeven dat de verwerkingsverantwoordelijke op grond van de Algemene Verordening Gegevensbescherming (AVG) transparant dient te zijn en dat de verwerkingsverantwoordelijke verplicht is tot het verschaffen van informatie en inzage aan de betrokken burger, ondanks het heimelijke karakter van de gegevensverzameling en -verwerking. Onder uitzonderlijke omstandigheden, bijvoorbeeld wanneer door menselijk toedoen een ramp dreigt te worden veroorzaakt, mag de verwerkingsverantwoordelijke de informatie- en inzagerechten, alsmede het recht op rectificatie, beperken (art. 23 AVG). Het 'black box'-karakter van instrumenten die heimelijk worden ingezet om burgers te onderwerpen aan dataveillance en -analyse kan echter niet worden tegengeworpen aan de plicht van verwerkende instanties om een Privacy Impact Assessment (PIA) uit te voeren.

Het verplichte PIA bij geheime dataveillance, profilering, samenwerking met private bedrijven en de verwerking van biometrische gegevens
De beperkingen op de transparantieverplichtingen van verwerkingsverantwoordelijken en de beperkingen van het recht van de burger op informatie en inzage gelden niet ten aanzien van het PIA. Een verwerkingsverantwoordelijke die geheime methoden voor Big Data-analyse/profilering/risicotaxatie toepast, is verplicht om het Privacy Impact Assessment (PIA) uit te voeren. Dit is bepaald in art. 35 AVG en wordt nog eens onderstreept door het Besluit Verplichte Gegevensbeschermingseffectbeoordeling van 27 november 2019 (Staatscourant nr. 64418). De verplichte uitvoering van het DPIA geldt onder meer voor:

- Grootschalige verwerkingen van persoonsgegevens en stelselmatige monitoring waarbij persoonsgegevens worden verzameld zonder de betrokkene daarover vooraf in te lichten, bijvoorbeeld heimelijk onderzoek door particuliere bureaus/Data Labs en onderzoek in het kader van fraudebestrijding (waaronder SyRI);
- Grootschalige verwerkingen van gegevens en monitoring in het kader van fraudebestrijding door sociale diensten;
-  Samenwerkingsverbanden waarin gemeenten en/of andere overheidsorganen met andere publieke of private partijen bijzondere persoonsgegevens of gegevens van gevoelige aard met elkaar uitwisselen;
- Grootschalige verwerking en monitoring van locatiegegevens, herleidbaar tot natuurlijke personen, bijvoorbeeld door ANPR-mobiel, of verwerking van gegevens van personen in het openbaar vervoer;
- Biometrische gegevens, waaronder vingerafdrukken, toetsaanslaganalyses, irisscans, gezichtsprofielen en stemopnamen (de verwerking van biometrische gegevens is enkel toegestaan wanneer de verwerking van biometrische gegevens noodzakelijk is voor beveiligingsdoeleinden);
- Profilering: de systematische beoordeling van persoonlijke aspecten van natuurlijke personen, gebaseerd op geautomatiseerde verwerking (profilering is geautomatiseerde verwerking).

Inhoud van het PIA: concrete verplichtingen van de verwerkingsverantwoordelijke
De verwerkingsverantwoordelijke dient vóór de verwerking van persoonsgegevens een beoordeling uit te voeren van het effect van de beoogde verwerkingsactiviteit op de bescherming van persoonsgegevens (art. 35 lid 1 AVG). De beoordeling bevat ten minste een systematische beschrijving van de beoogde verwerkingen en verwerkingsdoeleinden, waaronder de belangen van de verwerkingsverantwoordelijke; ook dient de verwerkingsverantwoordelijke een beoordeling te geven van de noodzaak en evenredigheid van de verwerkingen met betrekking tot de doeleinden (proportionaliteit en subsidiariteit); voorts dient de beoordeling te omschrijven welke maatregelen zijn getroffen en aan te tonen hoe aan de waarborging van de bescherming van de persoonsgegevens en de rechten en gerechtvaardigde belangen van de betrokken burgers is voldaan (art. 35 lid 7 AVG).

woensdag 27 november 2019

Legal prognosis: SyRI most likely violates the ECtHR criteria, but this system will be deemed lawful by the lower court

Already in 2014, I sent a message to the national newspapers about SyRI (System Risk Indication), considering the risks of and objections to systems for mass surveillance such as SyRI. It was too progressive to place critical notes on the use of SyRI in 2014: several media did not find the subject sufficiently urgent.

I also sensed this lack of interest within the Public Law section. Oddly, the Department gave me permission to investigate the compatibility of SyRI with the legal principles of the prohibition of détournement de pouvoir, the presumption of innocence and the principle of equality of arms. In addition to these administrative and criminal notions and most importantly, I would investigate the compatibility of SyRI with the right to respect for private life. The Research Supervisor stated that SyRI as a 'small law' was not interesting and significant enough. The interests affected by the deployment of SyRI were judged with a sense of disdain. I strongly disagree with the dismissal of the deployment of SyRI as if this phenomenon were socially insignificant!

SyRI has now become a topic of discussion and its social influence is being recognized. On October 29, 2019, the Court of The Hague examined the matter at the first session of the substantive proceedings in the SyRI case. I expect that the court will consider the deployment of SyRI to be lawful. Should the SyRI case be brought before the Court of Human Rights (ECHR), the ECHR is expected to issue a quite different judgment.

The legal basis of SyRI

SyRI is provided by the SUWI Act upon the amendment of the SUWI (Work and Income Implementation Structure) Act. Chapter 5a of the SUWI Decree contains the provisions on the use of SyRI by government agencies. Article 5a.1 of the SUWI Decree gives the impression that the systematic collection and processing of data is only within the framework of administrative action by government bodies and only within the exhaustive summary of data as referred to in Article 5a.1 paragraph 3 under aq of the Decree SUWI occurs; however, the citizen's details are provided in full by all government agencies on the basis of Articles 64 and 65 of the SUWI Act. Large-scale and systematic analysis and processing of data is therefore facilitated by the linking of registers of government bodies. The aim of SyRI is to promote the integral cooperation of government bodies in combating social security and tax fraud (Article 65, paragraph 2 in conjunction with 64, paragraph 1 of the SUWI Act).

The data subject is not informed of the processing of his data in SyRI (Article 5a.5, paragraphs 1 and 4 of the SUWI Decree). With 'consent of the persons' to the request for systematic surveillance and processing (Article 5a.1 paragraph 4 sub a SUWI Decree) is therefore not meant the consent of the data subject, but the consent of persons who supervise compliance with other regulations from the Minister of Social Affairs and Employment (Article 64, paragraph 1 of the SUWI Act).

Black box: hidden predictive algorithms
A risk profile is drawn with the use of SyRI. SyRI assesses the risk of social security fraud and tax fraud on the basis of, among other aspects, data on education, housing data, environmental factors, study debt, other debt charges and data on reintegration. The composition of the risk factors is shrouded (Article 5a.1, paragraph 7, SUWI Decree). The SUWI Decree contains the requirements of proportionality and subsidiarity (Article 5a.1 paragraph 4 SUWI Decree). The predictive algorithms behind SyRI are applied regardless of a concrete suspicion of fraud.

The deployment of SyRI cannot be controlled by the citizen, because the government applies the 'black box method'. The 'black box' refers to the hidden input of predictive algorithms in Big Data processes. I have drawn attention to the objections to the black box in my investigation into the use of Big Data analyzes for criminal purposes.

Data subjects cannot effectively check whether a governmental body meets the requirements of proportionality and subsidiarity with regard to large-scale data surveillance and processing of personal data. The purpose limitation requirement, the principle of data minimization and the possibility of requiring rectification, laid down in the General Data Protection Regulation (AVG), will thereby be devoid of significance. Also, the proportionality and subsidiarity provisions of Article 5a.1 paragraph 4 of the SUWI Decree will be devoid of significance, since citizens cannot find out whether they are being investigated or not. 

The prognosis: the court finds that the application of SyRI is lawful ....
My expectation is that The Hague District Court, which dealt with the first session in the SyRI case on 29 October 2019 and will issue a judgment on the substantive proceedings on 29 January 2020, will consider the application of SyRI to be lawful. That judgment can be based on the formal requirement of a legal basis for the systematic collection and processing of data in the SUWI Act.

The right to respect for privacy, enshrined in Article 10 of the Constitution, is generally soon met with if government bodies base their activities on the provisions of a formal law.

.... the ECtHR will issue a jugdment stating that the deployment of SyRI constitutes a breach of Article 8 of the ECHR
The European Court of Human Rights (ECHR) will judge the admissibility of SyRI differently. The use of SyRI does not meet the requirements set by the ECtHR for the compatibility of this method of data surveillance with the right to respect for private life (Article 8 ECHR). The extensive case law of the ECtHR on systematic data surveillance leaves no doubt about this. SyRI fails on the criterion of the foreseeability of the use of the authority of the government body. There are no legal safeguards to compensate for the violation of Article 8 of the ECHR through the deployment of SyRI. The law should lay down clear and detailed rules for the application of SyRI, so that the person concerned knows under what circumstances and under what conditions the government is authorized to deploy SyRI (ECHR 21 June 2011, 30194/09 (Shimovolos v. Russia), paragraph 68).

The nature and maximum duration of the deployment of SyRI must be specified in the law, as well as the procedures followed by government bodies to investigate, use and store personal data in SyRI (ECHR 29 June 2006, 54934/00 (Weber and Saravia v. Germany), paragraph 95). The law must also state the means that can be brought by the citizen against SyRI (ECHR 28 June 2007 (Ekimdzhiev v. Bulgaria), pp. 71-77).

Due to the 'black box' character of SyRI, implying the subjection to research and the operation of predictive algorithms remain hidden for citizens, it is unclear to the citizen under what circumstances and conditions a governmental body is authorized to deploy SyRI. The SUWI Act and the SUWI Decree do not set clear, detailed rules for the deployment of SyRI. The mere fact of exercising the right to receive benefits under the Unemployment Insurance Act, WIA or Participation Act is not a specific condition for being subject to SyRI.

Moreover, the law and the Decree do not provide any, nor do they mention legal remedies that can be used by the citizen against the application of SyRI. If the SUWI law did mention the legal remedies that could be used, the 'black box' would still not allow the citizen to effectively exercise his right to an effective legal remedy, for citizens will not be informed on being subject to SyRI.

As far as I am concerned, the following issues need further investigation:
- to what extent results of criminal analysis, including those based on Hansken, iColumbo and the Refinery, can be linked within the framework of 'integral cooperation between government bodies'. Although the starting point is not to process judicial data in the SyRI projects, the SUWI Act and the SUWI Decree do not exclude the processing of such data;
- whether the legal retention period of two years (Article 65, paragraphs 5-7 of the SUWI Act) can be exceeded by reopening a SyRI investigation before the expiry of the deadline or adding new data to the risk assessment.

Conclusion
Due to the lack of clear, detailed rules that inform the citizen about the conditions and circumstances for applying SyRI and the lack of legal safeguards to compensate for the infringement of Article 8 ECHR, the ECtHR is expected to judge the deployment of SyRI by the government unlawful. Before the ECtHR processes a petition, national remedies must be exhausted. It can therefore take years before the case brings it to the ECtHR. In the meantime, the government most likely will have introduced a new appraisal tool driven by predictive algorithms, to avoid the SyRI controversy, or a legislative change to meet the minimum requirements for proportional and subsidiary application of SyRI will be adopted. 


Mercedes Bouter LL.M.

dinsdag 26 november 2019

How useful are A.I., Machine Learning and predictive algorithms for risk assessment and the automated decision making process?

Algorithms at the base of bias-driven results in profiling, automated decisions and risk assessments
Algorithms are the molecules of all forms of Artificial Intelligence (A.I). An algorithm can be described as a formula, a finite series that converts input data (for example, generated by commands in search engines, mouse clicks and visiting web pages) into "output", a certain result. To enable profiling of certain categories of people or phenomena, algorithms must be trained with data sets. The training of algorithms, Supervised Machine Learning, is still a human affair. The value assigned to the dataset by the researcher or client influences the outcome of the data process. 


Like the input of the data set, the outcome depends on prejudices. If the usual method of profiling is continued, a bias in the data sets and therefore in the profile or risk assessment is inevitable. Bias-driven profiling increases the risk of false positives, which is further enhanced by training with outdated (personal) data. Moreover, a weakness is attached to the application of algorithms in the data analysis process: algorithms are unable to describe causality, the relationship between cause and effect. Algorithms are only used to expose correlations between phenomena. That makes predictive algorithms unsuitable for testing expectations. 

I will now elaborate on the weaknesses of the Data Analysis process and Supervised and Unsupervised Machine Learning. I will explain why their weaknesses make these instruments unsuitable as methods for profiling and risk assessment (for example in the context of social security/social insurance fraud). Moreover, I will conclude as to why the outcome of the automated decision making process will be biased since algorithms are inherently biased.

(Big) Data analysis: 'garbage out' is necessary to prevent algorithms from being trained incorrectly
An analytical instrument must be used to separate random or unstructured data from relevant data. The amount of data must not only be reduced, but also refined to arrive at a more specific result. For this purpose use can be made of a so-called "Warehouse", a digital collection of data from various sources. To prevent predictive algorithms from being trained with outdated data and to reduce the risk of false positives, the data must be refreshed and limited in size, ie: "garbage out". Using this reference point, correlations between data can be discovered. Nothing is known about the duration of storing personal data in a Warehouse; on the basis of the aforementioned, it will probably be for an indefinite period of time, except for a regular refreshment. Data controllers should be cautious during this early phase of the data analysis process: if inaccurate data is stored and applied, the person under investigation is incorrectly designated as a 'suspect' or 'potential fraudster'.

Data mining, Supervised Machine Learning and Artificial Intelligence

An important step in discovering correlations between datasets is "Knowledge Discovery of Databases", or "data mining." Statistical Analysis System (SAS) defines data mining as "the process of searching for anomalies, patterns and correlations, in order to predict a certain outcome." The predecessor of data mining is "machine learning", a technique that involves training algorithms based on statistical data. Formulas are entered to develop algorithms, training sets of data are given as "input" and the result is provided as "output". Algorithms are instructed to make the connection between input and output and to evaluate themselves. The result of this feedback is used to identify patterns. This form of "supervised machine learning" is ideally suited to classify data: algorithms categorize data on the basis of pre-provided, labeled data sets and learn to "label" data, or assign a certain characteristic. If a picture of a blackjack is given as input and a similar picture with the title "blackjack" is provided as the output, the algorithms learn to classify pictures of blackjacks.

Unsupervised Machine Learning, unsuitable for profiling

Another form of Machine learning, "Unsupervised Machine Learning", lacks the example of labeled data sets. Algorithms generate patterns between unstructured data. Unsupervised Machine Learning is used to cluster unstructured data, in order to categorize these data without using certain labels. The algorithms, for example, assign all kinds of pictures of blackjacks to one location, but do not know what these weapons are called. This makes Unsupervised Machine Learning unsuitable for the process of profiling, in which not only relationships have to be generated, but also names and classifications (for example "fraud!") will have to be linked to a certain result, the outcome of the profiling process.


A subform of Machine Learning is Deep Learning, the discovery of complex patterns in large amounts of data through a layered neural structure. The distinguishing feature of deep learning is the need for substantial "computational power" to perform a complex task; one neural layer can consist of up to four hundred processors. Machine Learning and Deep Learning Fall can be regarded subsets of Artificial Intelligence (A.I), but note that A.I. is not synonymous with either Machine Learning or Deep Learning. Artificial Intelligence studies the ability of computers to perform complex tasks autonomously and to solve problems.
 
Conclusion: algorithms are trained by human prejudice and therefore judgmental by design
Profiling in the current form is characterized by 'supervised machine learning', the training of algorithms with pre-entered data sets. These data sets, therefore algorithms, express human judgments by design. Algorithms used for profiling are not intelligent in the sense that they can discover patterns themselves. A weakness in profiling is that (predictive) algorithms are not used to test hypotheses, but only to present correlations between data and phenomena. Investigating the causality of an event remains a human matter. 'Mining' large amounts of data is also not a suitable method for testing hypotheses. 
No significance may be attached to the results of profiling and data mining until further human intervention or intervention has been carried out by an appropriate method. "False positives" should be trained out of programs that use predictive algorithms. Since the data sets that train predictive algorithms are biased, the automated decision making process will be biased. Inherently, the outcome of the automated decision making process or risk assessment will be biased. 

Mercedes Bouter LL.M.

vrijdag 22 november 2019

Het 'black box'-karakter van geheime dataveillance & Big Data-analyse en uw rechten (deel IV)

Deel III: wettelijke grondslag voor de rechtmatigheid van de verwerking van uw persoonsgegevens, doelbinding, proportionaliteit en subsidiariteit (noodzaak en dataminimalisatie) 

Overzicht
1. Beperkingen op de transprantie- en informatieplichten in uitzonderlijke gevallen;
2. De uitzonderingsgronden in art. 41 Uitvoeringswet AVG (UAVG);
3. Behoefte aan rechtsvorming ten aanzien van art. 23 AVG;
3.1 Bureaucratie staat in de weg aan rechtsvorming en effectieve rechtsbescherming;
4. Specifieke gedragsregels van de Autoriteit Persoonsgegevens inzake de naleving van de AVG


1. Beperkingen op de transparantie- en informatieplichten in uitzonderlijke gevallen
In uitzonderlijke gevallen kunnen beperkingen worden aangebracht op de transparantie- en informatieverplichtingen van de verwerkingsverantwoordelijke, alsmede in uw recht van inzage, rectificatie en beperking van de verwerking van uw persoonsgegevens. De wezenlijke inhoud van de grondrechten van burgers mag door die beperking niet worden aangetast (art. 23 lid 1 AVG). 

De beperking moet een noodzakelijke en evenredige maatregel zijn ter waarborging van onder meer de nationale veiligheid, landsverdediging en openbare veiligheid (art. 23 lid 1 a-j AVG). Hoe de beperkingsgronden van art. 23 lid 1 AVG moeten worden ingevuld, is te vinden in punt 73 van de preambule. Onder de ‘bescherming van de openbare veiligheid’ moet voornamelijk worden verstaan de ‘bescherming van het menselijk leven’ en de ‘voorkoming van door de mens veroorzaakte rampen’. 

Maatregelen ter compensatie van de beperking van de transparantie- en informatieverplichtingen zijn opgenomen in art. 23 lid 2 AVG. Ten minste moeten de volgende maatregelen worden getroffen:
- de verwerkingsverantwoordelijke moet specifiek de doeleinden en categorieën van de verwerking aangeven;
- de categorieën van persoonsgegevens moeten worden omschreven;
- de verwerkingsverantwoordelijke en de categorieën van verwerkingsverantwoordelijken moeten worden gespecificeerd;
- de opslagperiodes moeten worden gespecificeerd;
- het recht van de betrokkene om van de beperking op de hoogte te worden gesteld, moet worden gewaarborgd.


2. De uitzonderingsgronden in art. 41 Uitvoeringswet AVG (UAVG)
De Nederlandse Uitvoeringswet Algemene Verordening Gegevensbescherming (UAVG) gaat verder dan de beperkingen die op grond van de AVG kunnen worden gemaakt op de transparantie- en informatieverplichtingen. In art. 41 UAVG is namelijk bepaald dat de verwerkingsverantwoordelijke de rechten en plichten van art. 12 tot en met 21 en art. 34 AVG buiten toepassing kan laten, voor zover deze uitsluiting van het recht noodzakelijk en evenredig is ter waarborging van onder meer de nationale veiligheid, de openbare veiligheid en andere doelstellingen van algemeen belang (art. 41 lid 1 onder a-j UAVG). 
Het risico bestaat dat de verwerkingsverantwoordelijke de rechten en plichten van de AVG ten onrechte terzijde stelt met een beroep op ‘andere doelstellingen van algemeen belang’. Het is dan ook de vraag, of de uitsluiting van de transparantie- en informatieplichten in art. 41 lid 1 UAVG verenigbaar is met het doel en de strekking van de AVG. 

3. Behoefte aan rechtsvorming ten aanzien van art. 23 AVG
Ten aanzien van de uitleg van de beperkingsgronden van art. 23 AVG bestaat mijns inziens behoefte aan rechtsvorming. Raadpleging van de preambule van de AVG en Guideline WP260 rev.01 (11 april 2018, p. 33) verschaft niet voldoende duidelijkheid. Hoe moet bijvoorbeeld worden beoordeeld, of een beperking van de transparantieplicht een noodzakelijke en evenredige maatregel is ter waarborging van één van de belangen van art. 23 lid 1 AVG? Wat kan precies worden verstaan onder ‘andere belangrijke doelstellingen van algemeen belang, met name een belangrijk economisch of financieel belang’? Is het gerechtvaardigd dat een verwerkingsverantwoordelijke informatie achterhoudt voor de betrokkene om een niet-specifiek geduid financieel belang te waarborgen? Juist in het geval van de inzet van een instrument voor dataveillance/Big Data-analyse/profilering met een ‘black box’-karakter is dringend behoefte aan duidelijkheid over de toelaatbaarheid van beperkingen op grond van art. 23 AVG. 


3.1 Bureaucratie staat in de weg aan rechtsvorming en effectieve rechtsbescherming
Hoe kan rechtsvorming en bovenal effectieve rechtsbescherming worden bereikt? Bureaucratie is een rampzalig obstakel voor de burger. Het normenkader voor de bescherming van de rechten van de burger is weliswaar in de AVG opgenomen, maar de formele hindernissen staan in de weg aan de rechtsbescherming en rechtsvorming:

A. Rechtsvorming kan worden bereikt door een zaak bij het EHRM aan te brengen. Het probleem is dat eerst de nationale procedure dient te zijn uitgeput. In de praktijk zal het EHRM zich na gemiddeld 10 jaar over een kwestie buigen. Dat duurt te lang voor de burger die zich in zijn/haar belangen geschaad ziet;

B. Burgers kunnen zich in een gerechtelijke procedure laten vertegenwoordigen door een belangenbehartiger of individueel een procedure aanspannen, maar voor de beantwoording van een rechtsvraag zijn civiele procedures te omslachtig. Bovendien kunnen betrokkenen hun verdedigingsrechten door het 'black box'-karakter van heimelijke dataveillance/analyse/profilering niet uitoefenen. Mocht een betrokkene namelijk niet aan heimelijke dataveillance zijn onderworpen en bij gebrek aan duidelijkheid toch een proces aanspannen, dan moet de vordering worden afgewezen wegens gebrek aan procesbelang;


C. Het Europees Comité voor Gegevensbescherming/European Data Protection Board hoort zich bezig te houden met het uitvaardigen van adviezen en leidraden voor de invulling van de AVG. De overwegingen van het EDPB geven aan hoe lidstaten om moeten gaan met de rechten en plichten in de AVG. 

In mijn te optimistische verwachting dat het EDPB wellicht geïnteresseerd zou zijn in kwesties die direct de belangen en rechten van alle burgers raken, heb ik een rechtsvraag over de uitleg van de beperkingsgronden van art. 23 AVG voorgelegd aan het EDPB. Het EDPB heeft aangegeven aan geen antwoord te willen geven over de uitleg van art. 23 AVG en wijst mij weer terug naar Guideline WP29, waar ik zoals eerder gezegd niets aan heb ten aanzien van de uitleg van art. 23 AVG. Organisaties pretenderen zich in te zetten voor hun vakgebied, maar er is werkelijk bijna niemand te vinden die met enthousiasme in een belangrijke kwestie duikt. 'Dat is niet onze taak'. Als onderzoeker ben ik gewend om op onwelwillendheid te stuiten, maar ik blijf het gebrek aan interesse en daadkracht een ergernis vinden. Het gebrek aan daadkracht zorgt ervoor dat burgers in alle sectoren tegen een muur lopen;

D. Een laatste optie is om een rechtsvraag aan de Autoriteit Persoonsgegevens voor te leggen. Ik had mijn rechtsvraag aan het EDPB voorgelegd, omdat het EDPB een overkoepelende organisatie is en in tegenstelling tot een nationale toezichtsautoriteit, supranationale en meer geüniformeerde aanwijzingen kan geven over de invulling van de AVG. Dat neemt niet weg dat de AP (hiervoor het Cbp) gedragsregels kan uitvaardigen, die verwerkingsverantwoordelijken in acht hebben te nemen bij de verzameling, opslag en verwerking van persoonsgegevens.

4. Specifieke gedragsregels van de Autoriteit Persoonsgegevens inzake de naleving van de AVG
De stelling, dat de gedragsregels die door het College Bescherming Persoonsgegevens zijn uitgevaardigd vóór de inwerkingtreding van de AVG, niet langer gelding hebben, gaat niet op. De AVG waarborgt gelijke rechten en stelt gelijke verplichtingen die ook onder vigeur van de Wet bescherming persoonsgegevens golden, met dien verstande dat de AVG strikter is dan de Wbp. De volgende gedragsregels moeten door de verwerkingsverantwoordelijke worden nageleefd:


- Bestandsvergelijking gaat buiten de betrokkene om. Bij bestandsvergelijking voor het opmaken van risicoprofielen is de verwerkingsverantwoordelijke gehouden om zich naar de eisen van proportionaliteit en subsidiariteit te richten. Bestandsvergelijking in het kader van profilering moet een redelijk middel zijn in verhouding tot het te bereiken doel. De bestandvergelijking in het kader van profilering mag slechts worden aangewend, indien het doel niet op een andere, voor de persoonlijke levenssfeer van de betrokkene minder belastende wijze kan worden bereikt';
- De verwerkingsverantwoordelijke maakt met bestandsvergelijking een inbreuk op de persoonlijke levenssfeer van de betrokkene. De verwerkingsverantwoordelijke moet aannemelijk maken dat deze inbreuk gerechtvaardigd is. Aan de bestandsvergelijking die niet wettelijk is geregeld, moet een concrete verdenking van de betrokkene van fraude ten grondslag liggen;
- Zodra van een andere partij gegevens worden verkregen van de betrokkene, dient de betrokkene hierover te worden ingelicht;
- Persoonsgegevens die in de bestanden van de sociale diensten zijn opgenomen, mogen alleen worden verstrekt indien voor deze verstrekking een wettelijke grondslag bestaat. Het uitvoeren van een privacytoets (Privacy Impact Assessment) kan niet worden aangewend om de persoonsgegevens alsnog rechtmatig te verstrekken. Dezelfde beperkingen gelden voor intergemeentelijke afdelingen;
- Zijn in een fraudeonderzoek heimelijke waarnemingen verricht, dan dient de betrokkene hierover altijd te worden ingelicht. Een beperking van de informatieverplichtingen van de verwerkingsverantwoordelijke mag niet achteraf aan de betrokkene worden tegengeworpen;
- Het koppelen van bestanden is géén wettelijke verplichting, maar een mogelijkheid om de publiekrechtelijke taak uit te oefenen. De betrokkene dient over bestandskoppeling betreffende zijn persoonsgegevens altijd te worden ingelicht. De informatieverplichting achteraf is specifieker, omdat door de koppeling nieuwe persoonsgegevens zijn ontstaan;
- Bestandskoppeling houdt in dat persoonsgegevens worden gebruikt voor een ander doel dan waarvoor deze zijn verkregen. Bestandskoppeling moet verenigbaar zijn met het doelbindingsprincipe. Het gebruik van persoonsgegevens voor een ander doel is rechtmatig, indien bestandskoppeling noodzakelijk is voor de uitvoering van de publieke taak, armoedebestrijding.




woensdag 20 november 2019

Het 'black box'-karakter van geheime dataveillance & Big Data-analyse en uw rechten (deel III)

Deel II: uw recht om niet te worden onderworpen aan profilering, het recht van verzet en passende maatregelen ter compensatie van de inbreuk op uw recht om niet geprofileerd te worden

Overzicht
1. De wettelijke grondslag voor de rechtmatigheid van de verwerking van uw persoonsgegevens;
2. Doelbinding;
3. Proportionaliteit en subsidiariteit (noodzaak en dataminimalisatie)

1. De wettelijke grondslag voor de rechtmatigheid van de verwerking van uw persoonsgegevens
De verwerking van uw persoonsgegevens in het kader van dataveillance, data-analyse of profilering is slechts rechtmatig, indien de verwerking noodzakelijk is voor de vervulling van een taak van algemeen belang of van een taak in het kader van de uitoefening van het openbaar gezag dat aan de verwerkingsverantwoordelijke is opgedragen (art. 6 lid 1 onder e AVG). De wettelijke grondslag moet specifiek zijn. Een beroep op de ‘publieke taak’ is onvoldoende specifiek voor de rechtmatigheid van de gegevensverwerking in het kader van data-analyse en profilering. De wettelijke grondslag voor gegevensverwerking kan niet gelijkgesteld worden met de wettelijke grondslag voor het uitvoeren van de publieke taak (Kamerstukken II 2017/18, 34 851, nr. 4, p. 34). 

Met de ‘wettelijke verplichting’ op grond van de Participatiewet is géén specifieke grondslag voor de rechtmatigheid van de gegevensverwerking gegeven. Het uitvoeren van een wettelijke verplichting moet redelijkerwijs niet goed mogelijk zijn zonder verwerking van de persoonsgegevens. Met andere woorden: de eisen van proportionaliteit en subsidiariteit brengen mee, dat de wettelijke grondslag voor de uitvoering van de publieke taak slechts als grondslag voor de gegevensverwerking kan gelden, indien de gegevensverwerking noodzakelijk is (lees: een voorwaarde) voor de uitvoering van de 'publieke taak'. Die noodzaak wordt onderschreven in het Model GEB Rijksdienst (Privacy Impact Assessment), zie onderdeel B,  'Beoordeling rechtmatigheid gegevensverwerkingen', p. 15.

De AVG moet worden uitgelegd overeenkomstig het recht op eerbiediging van het privéleven van de burger als bedoeld in art. 8 EVRM. De verwerking van persoonsgegevens raakt direct aan het recht op eerbiediging van de persoonlijke levenssfeer (EHRM 25 februari 1997, 22009/93 (Z./Finland), r.o. 117); EHRM 16 februari 2000, 27798/95 (Amann/Zwitserland), r.o. 65). Gegevensverwerking brengt een inmenging in het recht van art. 8 EVRM teweeg (EHRM 6 september 1978, 5029 /71 (Klass/Duitsland), r.o. 41; EHRM 2 augustus 1984, 8691/79 (Malone/Verenigd Koninkrijk)).

De relatie tussen de AVG en het EVRM brengt mee dat de wettelijke grondslag voor gegevensverwerking moet voldoen aan de voorzienbaarheidseis van het EHRM (EHRM 26 april 1979, 6538/74 (The Sunday Times/Verenigd Koninkrijk), r.o. 47-48). De ‘voorzienbaarheid’ houdt in dat de wetgeving dusdanig duidelijk moet zijn, dat betrokkene kan begrijpen onder welke omstandigheden en voorwaarden het overheidsoptreden inmenging kan maken op zijn privéleven (EHRM 2 augustus 1984, 8691/79 (Malone/Verenigd Koninkrijk), r.o. 67; EHRM 24 april 1990, 11105/84 (Huvig/Frankrijk), r.o. 29; EHRM 4 december 2008, 30562/04 en 30566/04 (S. en Marper/Verenigd Koninkrijk), r.o. 95; EHRM 18 mei 2010, 26839/05 (Kennedy/Verenigd Koninkrijk), r.o. 151; EHRM 29 juni 2006, 54934/00 (Weber en Saravia/Duitsland), r.o. 93; EHRM 28 juni 2007, 62540/00 (Association for European Integration and Human Rights en Ekimdzhiev/Bulgarije), r.o. 75). 

2. Doelbinding
Persoonsgegevens moeten voor welbepaalde, uitdrukkelijk omschreven en gerechtvaardigde doeleinden worden verzameld en mogen niet op een met die doeleinden onverenigbare wijze worden verwerkt (art. 5 lid 1 onder b AVG). Het zonder vooraf bepaalde doeleinden ‘minen’ van persoonsgegevens, het ongericht verzamelen en analyseren van data om aanwijzingen te verkrijgen dat sprake is van een verhoogde kans op fraude, is niet verenigbaar met het doelbindingsprincipe (
E.M.L. Moerel & J.E.J. Prins, Privacy voor de homo digitalis, in: Homo digitalis, Handelingen Nederlandse Juristen Vereniging 2016/146-1, p. 19).  

De WRR merkt op dat het secundaire gebruik van data inherent is aan Big Data en op gespannen voet staat met het doelbindingscriterium (WRR, Big Data in een vrije en veilige samenleving, Den Haag/Amsterdam 2016, p. 90-93 en 108). Door de koppeling van databases van verschillende overheidsinstanties en hergebruik van opgeslagen data neemt de druk op de doelbinding toe (WRR, Big Data in een vrije en veilige samenleving, Den Haag/Amsterdam 2016, p. 107). De kans op verkrijging van niet-voorziene data is groot bij de inzet van voorspellende algoritmen, omdat de menselijke interventie beperkt is gedurende de processen van datamining en data-analyse.

3. Proportionaliteit en subsidiariteit (noodzaak en dataminimalisatie)
Het doelbindingsprincipe is onderdeel van de proportionaliteits- en subsidiariteitseis. Het beginsel van dataminimalisatie (art. 5 lid 1 onder c AVG) houdt in dat de verzameling en verwerking van persoonsgegevens blijft beperkt tot wat noodzakelijk is voor het bereiken van specifiek bepaalde, uitdrukkelijk omschreven doeleinden. Gegevens dienen zo selectief mogelijk te worden verzameld en verwerkt én alleen voor zover noodzakelijk. De verwerking dient noodzakelijk te zijn voor de vervulling van een van de voorwaarden in art. 6 lid 1 AVG. 

De door het EHRM ontwikkelde proportionaliteitseis houdt in, dat de inmenging in de persoonlijke levenssfeer strikt genomen noodzakelijk moet zijn vanwege een dringende maatschappelijke behoefte (‘pressing social need’) en dat die inmenging door dataverzameling en -verwerking proportioneel is om de gerechtvaardigde doeleinden te bereiken (EHRM 2 september 2010, 35623 (Uzun/Duitsland), r.o. 78; EHRM 26 maart 1978, 9248/81 (Leander/Zweden), r.o. 58). De inbreuk op de eerbiediging van de persoonlijke levenssfeer moet evenredig zijn in verhouding tot het doeleinde van de gegevensverwerking/profilering/datamining. Wanneer het om geheime surveillance gaat, is de discretionaire bevoegdheid van de nationale overheid ten aanzien van de invulling van de noodzakelijkheid beperkt (EHRM 12 januari 2016, 37138/14 (Szabó en Vissy/Hongarije), r.o. 54).

De ‘fair balance’-test van het EHRM in S. en Marper/Verenigd Koninkrijk bevat meerdere belangrijke vingerwijzingen voor het beoordelen van de proportionaliteit van de inmenging in het privéleven van de burger. De aard en ernst van de overtreding of misdrijf waarvan de betrokkene wordt verdacht, de duur van de bewaring van de persoonsgegevens, de mogelijkheden voor de betrokkene om zijn persoonsgegevens te laten verwijderen en de mogelijkheid tot onafhankelijk toezicht op de opslag van de persoonsgegevens zijn factoren die concreet worden gewogen in de proportionaliteitsbeoordeling door het EHRM. 

Of een instrument met een ‘black box’-karakter de proportionaliteitstoets van het EHRM zal doorstaan, is afhankelijk van de volgende vragen:
- Is er een dringende maatschappelijke behoefte waarvoor de dataveillance/profilering wordt toegepast?
- Van welke overtreding wordt de burger verdacht en hoe ernstig is deze overtreding?
- Heeft de burger de mogelijkheid om zijn persoonsgegevens te laten verwijderen?
- Kan de burger effectief zijn recht op het inschakelen van onafhankelijk toezicht uitoefenen? 

De subsidiariteitseis houdt in, dat alleen de minst ingrijpende methode mag worden ingezet om met de inbreuk op de rechten van de burger proportionele doeleinden te bereiken (EHRM 4 december 2015, 47143/06 (Zakharov/Rusland), r.o. 232). De verwerkingsverantwoordelijke die stelt dat het gekozen instrument voor dataveillance/analyse/profilering adequater is dan andere instrumenten, voldoet niet aan de subsidiariteitseis. Concreet moet worden getoetst of het doel waarvoor de persoonsgegevens worden verwerkt, in redelijkheid niet op een andere, voor de burger minder nadelige wijze kan worden bereikt (Advies SyRI, Autoriteit Persoonsgegevens 18 februari 2014, p. 4). 

In deel IV bespreek ik de toelaatbaarheid van beperkingen op de transparantie- en informatieplichten in uitzonderlijke gevallen, de uitzonderingsgronden in art. 41 Uitvoeringswet AVG, de behoefte aan rechtsvorming ten aanzien van art. 23 AVG en de specifieke gedragsregels die door de Autoriteit Persoonsgegevens zijn uitgevaardigd

maandag 18 november 2019

Het 'black box'-karakter van geheime dataveillance & Big Data analyse en uw rechten (deel II)

Deel I: transparantie, uw concrete informatierechten en uw recht van inzage, rectificatie, wissing en beperking van gegevensverwerking 

Overzicht
1. Uw recht om niet te worden onderworpen aan geautomatiseerde verwerking en profilering;
2. Het recht om zich te verzetten tegen profilering, ongeacht geautomatiseerde besluitvorming;
3. 'Passende maatregelen' (appropriate safeguards) ter compensatie van de inbreuk op uw recht om niet geprofileerd te worden (art. 22 AVG)

1. Uw recht om niet te worden onderworpen aan geautomatiseerde verwerking en profilering
U hebt het recht niet te worden onderworpen aan een uitsluitend op geautomatiseerde verwerking, waaronder profilering, gebaseerd besluit waaraan voor u rechtsgevolgen zijn verbonden of dat u in aanmerkelijke mate treft (art. 22 AVG). 

De risicoprofielen die in SyRI worden opgemaakt vallen onder het bereik van art. 22 AVG. De verwerkingsverantwoordelijke kan slechts een gerechtvaardigd beroep doen op de uitzonderingen van art. 22 lid 2 AVG, indien de betrokkene toestemming heeft verleend of de betrokkene en de verwerkingsverantwoordelijke zulks zijn overeengekomen.

Een uitzondering is buiten die gevallen slechts mogelijk, indien een Unierechtelijke of lidstaatrechtelijke bepaling die op de verwerkingsverantwoordelijke van toepassing is, voorziet in passende maatregelen ter bescherming van de rechten en gerechtvaardigde belangen van de betrokkene die door de profilering wordt getroffen. De verwerkingsverantwoordelijke is slechts gerechtigd om te profileren, indien daarvoor een specifieke wettelijke bevoegdheidsregeling wordt verleend én concrete maatregelen ter bescherming van de rechten van de geprofileerde in de van toepassing zijnde regeling zijn opgenomen. Het Europees Comité heeft aangegeven welke maatregelen minimaal moeten worden getroffen door de verwerkingsverantwoordelijke.
 
2. Het recht om zich te verzetten tegen profilering, ongeacht geautomatiseerde besluitvorming
Het recht van betrokkene om geïnformeerd te worden op grond van art. 13 of 14 AVG in samenhang met art. 5 lid 1 AVG moet aldus worden uitgelegd, dat de betrokkene door de verwerkingsverantwoordelijke moet worden geïnformeerd over het feit dat hij/zij aan profilering wordt onderworpen én dat de betrokkene het recht heeft om zich te verzetten tegen profilering, ongeacht of geautomatiseerde besluitvorming op basis van profilering plaatsvindt (punt 60 van de preambule van de AVG; Guidelines on automated Individual decision-making and Profiling for the purposes of Regulation 2016/679, 6 feb. 2018, WP251rev.01, p. 17). 

Het recht van inzage (art. 15 AVG) houdt in dat de verwerkingsverantwoordelijke inzicht verschaft in de gegevens die als input zijn gebruikt om een profiel van de betrokkene op te maken; tevens dient de betrokkene toegang te hebben tot informatie over de hem betreffende profilering en de details van de categorisering waarin de betrokkene is ingedeeld. Uitzonderingen op deze concrete verplichtingen worden gemaakt voor zover het de handelsgeheimen en intellectuele eigendomsrechten van de verwerker betreft (Guidelines on automated Individual decision-making and Profiling for the purposes of Regulation 2016/679, 6 feb. 2018, WP251rev.01, p. 17).
  
3. 'Passende maatregelen' (appropriate safeguards) ter compensatie van de inbreuk op uw recht om niet geprofileerd te worden (art. 22 AVG) 
Het Europees Comité voor gegevensbescherming, European Data Protection Board, wijst op de gevaren die profilering met zich brengt. Fouten en/of bias in verzamelde en gedeelde data, alsmede fouten en bias in geautomatiseerde (besluitvormings)processen en instrumenten voor profilering resulteren in incorrecte classificaties en beoordelingen gebaseerd op inadequate projecties. De rechten en belangen van betrokkenen worden rechtstreeks getroffen. Het EDPB onderstreept de noodzaak tot transparantie. De betrokkene die aan geautomatiseerde besluitvorming of profilering is onderworpen, kan een beslissing slechts in twijfel trekken, als de verwerkingsverantwoordelijke inzichtelijk heeft gemaakt hoe de beslissing tot stand is gekomen en op welke basis de beslissing is gebaseerd. 

De verwerkingsverantwoordelijke is verplicht om de betrokkene specifieke informatie te verschaffen en te garanderen dat de betrokkene de besluitvorming in het kader van profilering aan kan vechten (punt 71 van de preambule AVG; Guidelines on automated Individual decision-making and Profiling for the purposes of Regulation 2016/679, 6 feb. 2018, WP251rev.01, p. 27). De verwerkingsverantwoordelijke is verplicht om de betrokkene: 

- te informeren over de activiteit waarvoor de data van de betrokkene worden verzameld en verwerkt;
- inzicht te verschaffen in de achterliggende logica van het instrument;
- uitleg te geven over de invloed op de belangen van en mogelijke gevolgen voor de betrokkene.

Het verschaffen van inzicht in de achterliggende instrument voor data-analyse, geautomatiseerde besluitvorming en profilering moet 'betekenisvol' zijn. Om te voorkomen dat de verwerker met onbegrijpelijke statistieken of berekeningen aan komt zetten om aan de plicht tot het verschaffen van inzicht in de logica te voldoen, heeft het EDPB aangegeven dat 'betekenisvolle informatie' over de toegepaste logica (algoritmen) onder meer betrekking heeft op:

- gegevens betreffende in het verleden geconstateerde fraude en betalingsachterstanden;
- de wijze van 'credit scoring': welke waarde wordt toegekend aan bepaalde gegevens, ofwel: in welke mate gegevens tot een bepaalde risicoscore leiden;
- officiële, publiekelijk bekende gegevens, zoals gegevens over insolventie en openbare gegevens over fraude;
- de garantie van de verwerkingsverantwoordelijke dat regelmatig wordt gecontroleerd en bewaakt dat de data-analyse en profilering eerlijk, adequaat en vrij van bias is.
(Guidelines on automated Individual decision-making and Profiling for the purposes of Regulation 2016/679, 6 feb. 2018, WP251rev.01, p. 24-26). 

In het volgende bericht, deel III, ga ik in op de wettelijke grondslag voor de rechtmatigheid van de verwerking van uw persoonsgegevens, de doelbindingseis en de eisen van proportionaliteit en subsidiariteit (noodzaak en dataminimalisatie)


zondag 17 november 2019

Het 'black box'-karakter van geheime dataveillance & Big Data-analyse en uw rechten (deel I)

Het recht van de burger op informatie, inzage, rectificatie, wissing en verwerkingsbeperking, ongeacht het 'black box'-karakter van data-analyse en profilering
Voorstanders van geheime dataveillance voeren aan dat ongerichte dataveillance gerechtvaardigd is ten behoeve van de opsporing van fraude en delicten. De insteek van de discussie zou anders moeten zijn. Stel, u komt in de WIA na een arbeidsongeval en na afloop van de WIA ontvangt u een uitkering krachtens de Participatiewet. U hebt uw persoonsgegevens af moeten staan. Het overheidsorgaan laat uw gegevens verzamelen en verwerken zonder u daarvan op de hoogte te brengen. Volgens het overheidsorgaan is er een toereikende rechtsgrond voor de verzameling en verwerking van uw gegevens, omdat u een uitkering krachtens de Participatiewet ontvangt. Ontegenzeglijk hebt u uw gegevens niet afgestaan met de intentie dat instrumenten voor datamining en data-analyse zich een weg door uw persoonsgegevens banen. Als ik de pech heb dat ik een uitkering aan zou moeten vragen, dan geef ik mijn persoonlijke data niet af met het doel om deze over te leveren aan een inlichtingenbureau of een privaat bedrijfje in Big Data-analyse. Zamyatin heeft het goed ingezien: zoals hij in 1920 in zijn dystopische novel ‘Мы’ (‘Wij’) voorspelde, kan iedere seconde van het leven van de mens met behulp van kunstmatige intelligentie aan massasurveillance worden onderworpen.  
 
De discussie over de inzet van instrumenten zoals SyRI, Hansken, iColumbo, het systeem Alert en door privaatrechtelijke bedrijfjes ontwikkelde instrumenten voor data-analyse en datamining, zou betrekking moeten hebben op de effectiviteit waarmee iedere burger zijn of haar recht op eerbiediging van de persoonlijke levenssfeer kan uitoefenen. De discussie zou wat mij betreft dan ook niet uitsluitend op (discriminerende) algoritmen gericht  moeten zijn. Toegepaste voorspellende algoritmen zijn niet zo intelligent dat zij uit zichzelf onderscheid aan kunnen brengen. Dit technische gegeven maakt dat het voor de betrokkene dan ook niet interessant is om de 'black box'-problematiek te bestrijden door inzicht in de voorspellende algoritmen te eisen. Zou een overheidsorgaan aan die eis tegemoetkomen, dan krijgt de betrokkene waarschijnlijk een onbegrijpelijke statistiek te zien die hem niet meer inzicht verschaft over hoe de verwerkingsverantwoordelijke met zijn persoonsgegevens is omgegaan. Het resultaat zou daarmee alsnog niet voldoen aan de eis van transparantie bij de verstrekking van informatie aan de betrokkene als bedoeld in de Algemene Verordening Gegevensbescherming (art. 12 AVG).

In een vorig bericht, 'Datamining, Machine Learning en voorspellende algoritmen: hoe geschikt zijn deze methoden voor risicotaxatie?', constateerde ik dat algoritmen worden getraind met datasets die menselijke waardeoordelen van de opdrachtgever uitdrukken. Waar inzicht in de algoritmen van instrumenten als SyRI voor de betrokkene weinig zinvol zal zijn, wordt mijns inziens beter aangesloten bij de eisen van transparantie, informatie, toegang en inzage (artt. 12-15 AVG) door inzicht in de datasets en audit-logbestanden, alsmede in de uitvoering van het verplichte Privacy Impact Assessment (PIA) te verschaffen. Ik kom hier nog op terug. In het onderstaande bericht ga ik in op uw concrete informatierechten, uw recht van inzage, rectificatie en wissing, onverschillig het 'black box'-karakter van de verwerking van uw persoonsgegevens. 

Overzicht
Minimale vereisten voor dataverzameling, - verwerking en -analyse op grond van de AVG:
1. Transparantie;
2. Uw concrete informatierechten;
3. Uw recht van inzage, rectificatie, wissing en beperking van gegevensverwerking

Minimale vereisten voor dataverzameling, -verwerking en -analyse op grond van de AVG
1. Transparantie
Persoonsgegevens behoren op transparante wijze te worden verwerkt (art. 5 lid 1 sub a AVG). De verwerker dient de betrokkene in verband met de verwerking van persoonsgegevens op transparante, begrijpelijke en gemakkelijk toegankelijke wijze informatie te verschaffen (art. 12 AVG). Zoals ik heb opgemerkt, neemt het heimelijke karakter van op ‘black box’-principes gebaseerde systemen voor dataveillance en -analyse (waaronder SyRI en het voormalige Systeem Alert) niet weg dat de betrokkene zijn informatierecht effectief moet kunnen uitoefenen. Indien de persoonsgegevens bij de betrokkene zijn verzameld, is art. 13 AVG op de informatieplicht van toepassing; zijn de persoonsgegevens niet van de betrokkene verkregen, dan gelden dezelfde voorwaarden o.g.v. art.14 AVG. 

2. Uw concrete informatierechten
De verwerkingsverantwoordelijke dient de identiteit en contactgegevens van zichzelf en/of de vertegenwoordiger van de verwerkingsverantwoordelijke te verstrekken (art. 14 lid 1 onder a AVG). Dit betekent dat het overheidsorgaan als verwerkingsverantwoordelijke en de verwerker (een privaat bedrijf in data-analyse of het Inlichtingenbureau in Utrecht) de identiteit en contactgegevens behoren op te geven aan de betrokkene. 

De verwerkingsdoeleinden waarvoor de persoonsgegevens zijn bestemd en de rechtsgrond voor de verwerking dienen te worden verstrekt, evenals de categorieën van persoonsgegevens die zijn verzameld en verwerkt (art. 14 lid 1 onder c-d AVG). De persoon of instantie die de persoonsgegevens van de verwerker ontvangt, dient te worden vermeld (art. 14 lid 1 onder e AVG). De betrokkene moet worden geïnformeerd over de periode van de opslag van persoonsgegevens (art. 14 lid 2 onder a AVG). Roept de verwerkingsverantwoordelijke gerechtvaardigde belangen in als grond voor de rechtmatigheid van de verwerking (art. 6 lid 1 onder f AVG), dan moet over deze ‘gerechtvaardigde belangen’ informatie worden verstrekt (art. 14 lid 2 onder b AVG). 

De betrokkene heeft het recht op inzage en rectificatie van de persoonsgegevens. Ook kan de betrokkene om beperking van de verwerking van zijn persoonsgegevens verzoeken en bezwaar maken tegen de verwerking en overdracht van zijn persoonsgegevens (art. 14 lid 2 onder c AVG). Tegen de verwerking van persoonsgegevens moet een klacht kunnen worden ingediend bij de toezichthoudende autoriteit, de Autoriteit Persoonsgegevens (art. 14 lid 2 onder e AVG). De verwerkingsverantwoordelijke moet aangeven uit welke bronnen de persoonsgegevens afkomstig zijn, ook als het openbare bronnen betreft (art. 14 lid 2 onder f AVG). 

Relevant ten aanzien van systemen zoals SyRI is dat de betrokkene het recht heeft om geïnformeerd te worden over hem betreffende profilering. De verwerker is verplicht om informatie te verschaffen over het belang en de verwachte gevolgen van de profilering voor de betrokkene (art. 14 lid 2 onder g AVG). Is de verwerkingsverantwoordelijke voornemens om persoonsgegevens verder te verwerken voor een ander doel waarvoor de gegevens zijn verkregen, dan dient de betrokkene van nog vóór die verdere verwerking te worden geïnformeerd over het nieuwe doeleinde (art. 14 lid 4 AVG). 

3. Uw recht van inzage, rectificatie, wissing en beperking van gegevensverwerking
De hiervoor besproken transparantie- en informatieverplichtingen van de verwerkingsverantwoordelijke dienen de uitoefening van uw recht van inzage, wissing en beperking van de verwerking van uw persoonsgegevens mogelijk te maken. De betrokkene dient van de verwerkingsverantwoordelijke uitsluitsel te krijgen over de verwerking. Het recht van inzage houdt in, dat u geïnformeerd moet worden over de doeleinden van de verwerking, de betrokken categorieën van persoonsgegevens, de ontvangers aan wie uw gegevens zijn of zullen worden verstrekt en de periode van de opslag van uw gegevens (art. 15 lid 1 onder a-d AVG).

In het geval van profilering of geautomatiseerde besluitvorming, dient u te worden geïnformeerd over het belang en de gevolgen van de verwerking (art. 15 lid 1 onder h AVG). U hebt het recht om te verzoeken om rectificatie, wissing of beperking van de verwerking van uw gegevens en om bezwaar te maken (art. 15 lid 1 onder e AVG). U dient te worden geïnformeerd over de mogelijkheid om de Autoriteit Persoonsgegevens in te schakelen (art. 15 lid 1 onder f AVG). De verwerkingsverantwoordelijke moet aangeven uit welke bronnen de persoonsgegevens afkomstig zijn (art. 15 lid 1 onder g AVG). 

U hebt het recht om van de verwerkingsverantwoordelijke onverwijld rectificatie van onjuiste gegevens te verkrijgen; tevens dient de verwerkingsverantwoordelijke ervoor te zorgen dat uw persoonsgegevens volledig zijn. Indien u aanvulling verstrekt, moet de verwerkingsverantwoordelijke deze verwerken (art. 16 AVG). Voorts hebt u het recht om gegevenswissing in het kader van uw recht op vergetelheid te verzoeken bij de verwerkingsverantwoordelijke (art. 17 AVG).

U dient van de verwerkingsverantwoordelijke beperking van de verwerking van uw persoonsgegevens te verkrijgen, indien u de juistheid van uw gegevens betwist en de verwerkingsverantwoordelijke in staat wordt gesteld om de juistheid van uw gegevens te controleren, de verwerking onrechtmatig is, de verwerkte gegevens niet meer nodig zijn voor de verwerkingsdoeleinden of indien u op grond van art. 21 AVG bezwaar hebt gemaakt tegen de verwerking van uw gegevens (art. 18 lid 1 onder a-d AVG). 

In het volgende bericht, deel II, ga ik in op uw recht om niet geprofileerd te worden.



maandag 11 november 2019

Datamining, Machine Learning en voorspellende algoritmen: hoe geschikt zijn deze methoden voor risicotaxatie?

(Big) Data-analyse: 'garbage out' is noodzakelijk om te voorkomen dat algoritmen verkeerd worden getraind
Om willekeurige of ongestructureerde data van relevante data te schiften, moet een analytisch instrument worden ingezet. De hoeveelheid data moet niet alleen worden verkleind, maar ook worden verfijnd om tot een specifieker resultaat te komen. Daarvoor kan gebruik worden gemaakt van een zogenaamd ‘Warehouse’, een digitale verzameling data afkomstig uit diverse bronnen. Om te voorkomen dat voorspellende algoritmen worden getraind met verouderde data en om het risico op inaccurate voorspellingen (vals-positieven) te verkleinen, dienen de data te worden ververst en in omvang te worden beperkt, ofwel: garbage out.[1] Met een dergelijk ‘digitaal warenhuis’ als referentiepunt kunnen correlaties tussen data worden ontdekt. Over de duur van het bewaren van persoonsgegevens in een Warehouse is niets bekend; op grond van het voormelde zal het waarschijnlijk gaan om een onbepaalde duur, behoudens de verversing. Het luistert in deze vroege fase van het proces van data-analyse nauw: als inaccurate gegevens worden bewaard en toegepast, wordt de onderzochte persoon onterecht als 'verdachte' of 'mogelijke fraudeur' aangemerkt.

Datamining, Supervised Machine Learning en Kunstmatige Intelligentie
Een belangrijke stap in het ontdekken van correlaties tussen datasets is ‘Knowledge Discovery of Databases’, of ‘datamining’.[2] Statistical Analysis System (SAS) omschrijft datamining als ‘het proces waarbij naar anomalieën, patronen en correlaties wordt gezocht, om een bepaalde uitkomst te kunnen voorspellen’.[3] De voorloper van datamining is ‘machine learning', een techniek die inhoudt dat algoritmen op basis van statistische gegevens worden getraind.[4] Formules worden ingegeven om algoritmen te ontwikkelen, trainingsets van data worden als ‘input’ gegeven en het resultaat ervan wordt als ‘output’ verstrekt. Algoritmen krijgen de opdracht om het verband tussen input en output te leggen en zichzelf te evalueren. De uitkomst van deze feedback wordt gebruikt om patronen te herkennen.[5] Deze vorm, ‘supervised machine learning’ is bij uitstek geschikt om data te classificeren: algoritmen categoriseren data naar het voorbeeld van vooraf verstrekte, gelabelde datasets en leren om data te ‘labelen’, ofwel een bepaalde eigenschap toe te kennen.[6] Als een plaatje van een ploertendoder als input en een vergelijkbaar plaatje met de titel ‘ploertendoder’ als output wordt verstrekt, leren de algoritmen om plaatjes van ploertendoders te classificeren. 

Profilering en voorspellende algoritmen en het risico op bias-gedreven valse resultaten
Algoritmen zijn de moleculen van alle vormen van kunstmatige intelligentie. Een algoritme kan worden omschreven als een formule, een eindige reeks die ingegeven data (bijvoorbeeld door opdrachten in zoekmachines, muisklikken en het bezoeken van webpagina’s gegenereerd) omzet in ‘output’, een bepaald resultaat. Om profilering van bepaalde categorieën van personen of verschijnselen en van bepaalde groepen van personen mogelijk te maken, dienen algoritmen te worden getraind met datasets. Het trainen van algoritmen, supervised machine learning, is vooralsnog een menselijke aangelegenheid. De waarde die door de onderzoeker of opdrachtgever wordt toegekend aan de dataset, beïnvloedt de uitkomst van het onderzoek. De uitkomst is, evenals de invoer van de dataset, afhankelijk van vooroordelen. Bij voortzetting van de gebruikelijke wijze van profilering is een bias in de datasets en daarmee in de profielschets of risicotaxatie onvermijdelijk. Bias-gedreven profilering vergroot het risico op valse positieven, dat nog eens wordt versterkt door te trainen met verouderde (persoons)gegevens. Bovendien is een zwakte inherent aan de toepassing van algoritmen in het data-analyseproces: algoritmen zeggen niets over causaliteit, het verband tussen oorzaak en gevolg. Algoritmen worden slechts toegepast om correlaties tussen verschijnselen bloot te leggen. Dat maakt voorspellende algoritmen niet geschikt om verwachtingen te toetsen.

Unsupervised Machine Learning, ongeschikt voor profilering
Bij een andere vorm van machine learning, ‘unsupervised machine learning’, ontbreekt het voorbeeld van gelabelde datasets. Algoritmen leggen patronen tussen ongestructureerde data. Unsupervised machine learning wordt gebruikt om ongestructureerde data te clusteren, in te delen naar overeenkomsten zonder een bepaald label te gebruiken.[7] De algoritmen plaatsen bijvoorbeeld allerlei plaatjes van ploertendoders in één omgeving, maar weten niet hoe deze wapens heten. Dat maakt unsupervised machine learning ongeschikt voor profilering, waarbij niet alleen relaties moeten worden gegenereerd, maar ook namen en classificaties (bijvoorbeeld ‘fraud!’) zullen moeten worden verbonden aan het resultaat. 

Een subvorm van machine learning is deep learning, het via een gelaagde neurale structuur ontdekken van complexe patronen in grote hoeveelheden data.[8] Het onderscheidende aan deep learning is de behoefte aan forse ‘computational power’ voor het uitvoeren van een complexe taak; één neurale laag kan uit wel vierhonderd processoren bestaan.[9]  Machine learning en deep learning vallen onder het onderzoeksgebied van de Kunstmatige Intelligentie (K.I.), met dien verstande dat K.I. geen synoniem is voor machine learning. Kunstmatige Intelligentie bestudeert het vermogen van computers om autonoom complexe taken uit te voeren en probleemoplossend te werk te gaan.[10] 

Zijn algoritmen wel geschikt om risico's te taxeren? Correlatie, geen causaliteit
Algoritmen liggen ten grondslag aan de automatisering van processen, waaronder datamining. Kenmerkend van door Big Data gedreven algoritmen is dat géén hypotheses worden ingegeven. Het doel is niet om een bepaalde verwachting te toetsen, maar om correlaties tussen verschijnselen te ontdekken.[11] Dat maakt dat de causaliteit van een gebeurtenis in de fase van de datamining buiten beschouwing blijft.

Conclusie
Profilering in de huidige verschijningsvorm wordt gekenmerkt door 'supervised machine learning', het trainen van algoritmen met vooraf ingegeven datasets. Deze datasets dragen, afhankelijk van de intentie van de opdrachtgever, in de regel menselijke waardeoordelen. Algoritmen die worden ingezet voor profilering zijn in die zin niet intelligent, dat zij zelf patronen kunnen ontdekken. Een zwakte aan profilering is dat (voorspellende) algoritmen niet worden ingezet om hypotheses te toetsen, maar slechts om correlaties te weergeven. Het onderzoeken van de causaliteit van een gebeurtenis blijft een menselijke aangelegenheid. Het 'minen' van grote hoeveelheden data is evenmin een geschikte methode om hypotheses te toetsen. Aan de resultaten van profilering en datamining mag geen betekenis worden toegekend voordat nadere menselijke interventie of interventie door een geschikte methode heeft plaatsgevonden. 'Vals-positieven' moeten uit programma's die werken op voorspellende algoritmen worden getraind. Bovendien kunnen de datasets waarmee voorspellende algoritmen worden getraind, bias bevatten. Daarmee is de bias in de profielschets of risicotaxatie onvermijdelijk. 


[1] B. Mali, C. Bronkhorst-Giesen en M. den Hengst, Predictive Policing: lessen voor de toekomst. Een evaluatie van de landelijke pilot (2017), p. 91-92; ‘Machine Learning in Information Security: Where the Hype Ends’, Cisco White Paper 2018, p. 3.
[3] https://www.sas.com/nl_nl/insights/analytics/data-mining.html (geraadpleegd op 20 mei 2019).
[4] Vgl. https://cs.stanford.edu/memoriam/professor-arthur-samuel.
[5] Vgl. https://www.sas.com/nl_nl/insights/analytics/machine-learning.html (laatstelijk geraadpleegd op 20 mei 2019).
[6] Cisco Innovation Labs: How machine learning finds network trouble faster than anyone, via https://www.cisco.com/c/m/en_us/network-intelligence/service-provider/digital-transformation/get-to-know-machine-learning.html (laatstelijk geraadpleegd op 26 mei 2019).
[7] ‘Machine Learning in Information Security: Where the hype ends’, Cisco Whitepaper 2018, via https://www.cisco.com/c/dam/en/us/products/collateral/security/white-paper-c11-741159.pdf (geraadpleegd op 24 mei 2019).
[8] Vgl. https://machinelearningmastery.com/what-is-deep-learning/ (laatstelijk geraadpleegd op 26 mei 2019).
[9] Expanding deep learning, via https://www.umass.edu/research-report/expanding-deep-learning (geraadpleegd op 26 mei 2019).
[10] Definitie ontleend aan de informatie van de Universiteit van Massachusetts, faculteit Kunstmatige Intelligentie, via https://www.cics.umass.edu/research/area/artificial-intelligence (laatstelijk geraadpleegd op 26 mei 2019).
[11] T. Calders & B.H.M. Custers, ‘What is data mining and how does it work?’, in: B.H.M.
Custers e.a. (red.), Discrimination and privacy in the information society, Heidelberg:
Springer 2013, p. 27-28; G.H. Evers, ‘In de schaduw van de rechtsstaat: profilering en nudging door de overheid’, Computerrecht 2016/84-3, p. 167.