Inzetten van persoonsgegevens bij onderzoek

Wat zijn de kanttekening bij het gebruik van persoonsgegevens bij wetenschappelijk onderzoek als je de data al in bezit hebt. Hoe is dat in de wet geregeld.

EDWIN EN HELEEN_5
 
(Intro met abstracte beelden met daaronder een korte begintune.)

(In beeld verschijnt de tekst: 
microlearnings
Ethiek)

(Twee mensen staan tegenover elkaar in een verder lege kantoorruimte en starten het gesprek: 
de heer Edwin de Nies begint, mevrouw Heleen Janssen reageert.)


(In beeld verschijnt de tekst:
Edwin de Nies
enterprise architect, RIVM)

EDWIN DE NIES: Wij zijn, althans, dat moet nog beginnen... We zijn net begonnen met een programma bij het RIVM: Databenutting voor de vragen van morgen. Daar gaan we alles doen om onze datahuishouding zodanig op orde te brengen en in te richten, dat we onder andere door middel van AI,
machine learning en dat soort technologieën nog veel meer inzichten kunnen krijgen in de gegevens die we al hebben. Dat gaat over vier sporen en een van die vier sporen is met name kaders, richtlijnen en de ethische vraagstukken, want daar zijn toch maar heel weinig goede antwoorden op. Hoe ga je dit nou zodanig inrichten dat je ervoor zorgt dat dat wat je inricht ook ethisch te verantwoorden is?

(In beeld verschijnt de tekst:
dr. mr. Heleen Janssen
onderzoeker, Instituut voor Informatierecht, Universiteit van Amsterdam)

HELEEN JANSSEN: En welke ethische vragen spelen daar nu al?

EDWIN: Nou ja, mag je zomaar data van mensen gebruiken? Ik bedoel, wettelijk gezien is het antwoord, volgens mij, geloof ik, enerzijds vrij simpel, want AVG, als ik geen toestemming heb gegeven, of als niet in de wet is vastgelegd, dat ik die gegevens daarvoor mag gebruiken, dan mag dat niet. Maar als ik het goed begrepen heb, ik ben natuurlijk geen jurist, maar schijnt bijvoorbeeld dat de wet voor wetenschappelijk onderzoek daarin nou weer net allerlei uitzonderingen maakt.

HELEEN: Ja.

EDWIN: Als mensen bij ons meedoen aan een onderzoek, als ik het goed begrepen heb en zij draaien al een aantal jaar mee in dat onderzoek, dan kunnen zij niet met de AVG in de hand roepen: Ik wil dat al mijn gegevens verwijderd worden. Want dat zou kunnen betekenen dat ik weet niet hoeveel jaren onderzoeksresultaten ter... hoe heet dat, in twijfel getrokken zouden kunnen worden.

HELEEN: Ja.

EDWIN: Of zo. Dus dat zijn wel vragen waar je dan mee zit. We hebben een heleboel en de meeste mensen hebben daar ja tegen gezegd, maar wat nu als? 

HELEEN: Nou, hier komt allereerst om de hoek kijken: Volgens mij is het RIVM hier werkzaam als Rijksoverheid. Dat betekent dat verwerkingen gebaseerd moeten zijn op een wet. En toestemming komt helemaal niet im Frage als een verwerking is gebaseerd op wetgeving. Toestemming is alleen maar relevant als een bedrijf naar jou toe komt om te vragen of het bedrijf jouw persoonsgegevens mag verwerken, gezondheidsgegevens. Maar voor het RIVM is dat, als het goed is, ergens vastgelegd in een wet.

EDWIN: Nou, volgens mij, voor een aantal van de onderzoeken die wij doen, is daar geen aparte wetgeving voor.

HELEEN: Nee, maar goed...

EDWIN: Als je gaat kijken naar het PIENTER-onderzoek, maar ook VITAL, waar we aan meedoen als onderzoeksinstituut internationaal gezien, waarin we kijken: 'Welk effect hebben vaccinatieschema en
vaccinatiedoses en misschien het type vaccin op latere leeftijd met betrekking tot de vitaliteit en hoe kunnen we daar misschien in variëren waardoor we mensen kunnen helpen om langer vitaal te blijven?', daar is geen wet voor. Dat is een onderzoeksvraag en die is gesteld en daar gaan wij antwoord op geven.

HELEEN: In principe... Ik begrijp de vragen wel. Op het moment dat je dus AI gaat inzetten, kan die AI ook dingen met data gaan doen waarvan je nu nog niet precies kunt voorspellen... Dat is ook de zin van de zaak.

EDWIN: Dat is het idee erachter.

HELEEN: Je wilt een voorspelling, patronen detecteren en kijken wat je daaruit kunt leren. Dus in die zin is AI ontzettend goed te verantwoorden, omdat je het inzet ten behoeve van verbetering van de levenskwaliteit van mensen, betere medische toepassingen. En ik denk dat vanuit ethisch oogpunt, 
doen wat goed is, doen wat juist is, uitstekend te verantwoorden is. Maar de vraag is: Kunnen daar niet allerlei randeffecten bij optreden waar we niet heel erg blij van worden? Dan kom je bijvoorbeeld terecht bij de vraag: moet ik die heel uitgebreide datasets wel gebruiken? En ik begrijp dat het bij AI juist enorm gewenst is, hoe meer data, hoe beter. Bij geautomatiseerde besluitvorming liggen die
vraagstukken over het algemeen weer anders, want dan heb je een voorgeprogrammeerd pad wat je gaat lopen, dus dan heb je een getraind systeem. Wanneer jij heel veel data van mensen gaat
gebruiken, dan moet je eerst goed nadenken: Hoe verantwoord ik dat dan? En hoe sla ik die data op? Wie kan erbij? Dan krijg je dus die hele randvoorwaardenset van de AVG die dan een rol gaat spelen.
Maar dat er onzekerheid over is, dat is op zich al wel ook voor juristen goed om over na te denken om daar ook adequaat op te kunnen antwoorden op het moment dat er vragen over rijzen binnen jullie organisatie of welke organisatie dan ook. Maar je moet altijd heel erg in die context kijken van: Waar gebruik ik deze data voor? Waar is het goed voor, met welk doel en welke middelen? En gebruik ik niet te veel data? Gebruik ik er meer dan noodzakelijk? Dat moet je niet doen, maar bij AI ligt dat wel wat anders. Maar tegelijkertijd moet je ook wel goed kunnen uitleggen waar het dan voor bedoeld is. Ja.

(Outro met abstracte beelden en korte eindtune.)

(In beeld verschijnt de tekst:
microlearnings
Ethiek)

(Het laatste beeld bevat het logo van de Rijksoverheid met daaronder de tekst:
Deze microlearning is tot stand gekomen door een samenwerking tussen de Leer- en Ontwikkelcampus (LOC) van UBR, de directie CIO Rijk van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BKZ) en de Rijksacademie voor Digitalisering en Informatisering Overheid (RADIO))