Ethiek in de praktijk. Afl. 8 - Techniek die ethiek ondersteunt

Artificial Intelligence kan ethisch verantwoord worden ingezet. Techniek kan daarbij ondersteunen. Over het hoe en wanneer praten Rob Elsinga, national technology officer bij Microsoft en Leen Roosendaal, directeur bij het Centraal Bureau voor Statistiek, twee grootverwerkers van data. Privacy preserving en andere methodologieën komen langs, met Robin Rotman als host.

Ethiek in de praktijk. Afl. 8 - Techniek die ethiek ondersteunt

'Hoe kan technologie helpen AI ethisch toe te passen?
Welkom bij 'Ethiek in de praktijk'. Ik ben Robin Rotman
en in deze podcastserie praat ik met experts en ervaringsdeskundigen
over data-ethiek in de dagelijkse praktijk.
Dit is een podcast van het Centrum Infor- matiebeveiliging en Privacybescherming.
'Ik denk dat het belangrijkste is dat mensen dit onderwerp
in hun genen hebben zitten en gaan nadenken:
wat wil ik nu met deze data doen
en wat zou ik er zelf van vinden als ik in deze dataset zou zitten?'
Ik zit hier tegenover twee grootheden.
Rob Elsinga, national technology officer bij Microsoft in Nederland
en Leen Roosendaal, sectordirecteur bij het Centraal Bureau voor de Statistiek.
Rob, eerst jij even: Microsoft, national technology officer? Wat doe jij allemaal?
ELSINGA: Ik hou me vooral bezig met nieuwe technologie
en de impact op de samenleving. Dat is heel breed.
Dat kan zijn quantum computing, onze duurzaamheidsstrategie in Nederland,
maar ik ben daarnaast ook, en daarom zit ik hier,
verantwoordelijk voor de ethical AI community binnen onze organisatie.
ROTMAN: Dat is een heet onderwerp, want daar gaat het om.
En Leen, wat doe jij bij het CBS?
ROOSENDAAL: Ik ben onder andere verantwoordelijk voor het ontwikkelen
van nieuwe technieken om data makkelijker en flexibeler te combineren.
ROTMAN: Twee mannen, nieuwe technologieën, innovaties en data,
dat is waar we het over hebben. Toen ik hierover na ging denken,
dacht ik: technologie die AI helpt om ethisch te werken.
Dan denk ik gelijk van: dan gaan we toch gewoon een AI ontwikkelen
die als een soort politieagent andere algoritmes in de gaten gaat houden.
Daar hebben we het over, toch?
ELSINGA: Het is zeker een AI die AI controleert.
En dat gaat in veel fasen
van het ontwikkelen van een oplossing van AI.
Dat gaat over: hoe ga ik om met de data?
Is die data wel betrouwbaar?
Hoe communiceer ik wat ik gebouwd heb?
Want uiteindelijk wil ik dat mensen daar begrip voor hebben.
Hoe voorkom ik dat de privacy van mensen in die data geschonden wordt?
Hoe zorg ik dat het veilig blijft?
En uiteindelijk wordt artificial intelligence zo complex
dat we technologie denk ik nodig hebben om ons daarbij te ondersteunen.
Waarbij het wel goed is om na te gaan:
hoe kunnen we wat AI kan, compenseren met de mens
en hoe kunnen we de mens helpen met AI.
ROTMAN: We hebben het over hoe mens en technologie samenwerken
ook een andere aflevering. Het is superinteressant, hè.
Hoe verhouden we ons tot elkaar? Mooie vraagstukken.
En Leen, als ik aan het CBS denk, denk ik: jullie zijn data.
Zonder data geen CBS, geen statistieken. Welke rol speelt ethiek
en nadenken over 'hoe doen we het juiste' in de organisatie?
ROOSENDAAL: Dat is voor het CBS ontzettend belangrijk.
Wij produceren veel statistieken,
ook onderzoeken voor de overheid waarop ze beleid baseren.
Dus als wij niet ethisch om zouden gaan
met het maken van statistieken en het doen van onderzoek
dan lopen we risico dat we bepaalde bevolkingsgroepen discrimineren.
ROTMAN: Dus je moet altijd alert zijn dat je in je methodes, proces
en technologie die je inzet, dat er geen discriminatie optreedt,
of misschien de privacy waar jij het net over had.
Wat zijn de doelen of de waardes waarvan jullie zeggen:
Daar hebben we het over, als we het hebben over technologie
die andere technologie helpt om ethisch te werken.
Wat zijn dan de waardes en doelen? Waar hebben we het over?
ELSINGA: Eén ervan is wat mij betreft ook transparantie
en transparantie wil eigenlijk zeggen dat je kunt uitleggen
aan de mensen die gebruikmaken van die AI of daar onderdeel van zijn:
waar is het voor bedoeld? Hoe is het opgezet?
Van welke data wordt er gebruikgemaakt?
Om op die manier ook het vertrouwen in een dergelijk systeem te waarborgen.
ROTMAN. Dus transparantie, privacy, dat spreekt natuurlijk voor zich.
We willen allemaal de privacy.
Nog meer dingen: de discriminatie, de bias in de systemen,
die moeten we eruit werken.
Leen, heb jij nog belangrijke dingen waarvan je zegt 'daar gaat het hier over'?
ROOSENDAAL: Het gaat over meerdere dingen.
Het gaat voor een deel over datatoegang.
Hoe zorg je ervoor dat mensen alleen maar toegang hebben tot de juiste data?
Dus dataminimalisatie. Daar helpen bepaalde technieken bij:
Secure multi-party computation bijvoorbeeld is zo'n techniek
die het mogelijk maakt om data
die bij verschillende bronhouders staat te combineren,
waarbij de onderzoekers geen toegang tot die data zelf hebben,
maar die zien alleen de uitkomsten daarvan.
Dat is de technische oplossing.
Verder kan je binnen een organisatie ook wel iets van tegenmacht organiseren.
Dus zorg dat je iemand hebt die toezicht houdt binnen de organisatie.
Binnen het CBS hebben we bijvoorbeeld een ethische commissie.
Zodra er een onderzoek plaatsvindt waarvan we denken:
daar moeten we dieper naar kijken, kan je bij die ethische commissie...
ROTMAN: Jij gaat al gelijk richting de oplossingen denken.
Ik zit nog steeds te denken: Wat zijn nou eigenlijk de waardes die we verdedigen?
Wat is eigenlijk ethiek? Wat zijn de doelen die we nastreven?
We gaan straks in concrete oplossingen denken:
handreikingen voor mensen die luisteren, mensen die bij de overheid werken,
mensen bij commerciële organisaties: hoe kan je die data-ethiek...
Maar we hebben al een paar dingen genoemd: privacy en doelbinding
is een ding. Gebruiken we de data waarvoor we zeggen dat we 't gebruiken.
Transparantie is een ding. Zien jullie nog een speciale rol
voor de overheid als het gaat over data- ethiek en de doelen die we nastreven?
Ik vind de overheid altijd interessant. Die is aan de ene kant regelgever.
Die besluit hoe met z'n allen met data om mogen en moeten gaan.
En tegelijkertijd is het iemand die met data en AI werkt
en dat gaat lang niet altijd goed. Dat is ook nog zoiets.
Hoe zien jullie dat? De rol van de overheid hier?
ROOSENDAAL: Ik denk dat de overheid hier best een rol kan spelen.
Met name binnen overheidsorganisaties zie je dat AI best vaak gebruikt wordt.
Bijvoorbeeld door een algoritmeregister te maken,
zie je wel dat je transparant bent als organisatie
welke algoritmes je waarvoor gebruikt.
En dat zie je nu op vrijwillige basis gebeuren.
Je zou daar best verplichtend in kunnen worden.
ROTMAN: En jij? ELSINGA: Ik denk dat de overheid...
Wat we in z'n algemeenheid zien, is dat technologie
en ontwikkeling van technologie veel harder gaat dan regelgeving.
En ik denk juist dat het goed is om regelgeving
in te voeren en te zorgen dat we dit op een verantwoorde manier doen.
Daar is op dit moment de EU al heel druk mee bezig,
ook de Nederlandse overheid is daarmee bezig,
om te kijken welke regelgeving daarvoor nodig is.
En om een idee te geven:
politiediensten maakten graag gebruik van onze technologie
die we ontwikkeld hadden voor facial recognition, bijvoorbeeld voor bodycams.
We hebben uiteindelijk als Microsoft zelf gezegd:
'We halen dat terug, we gaan dat niet meer aan politiediensten leveren.'
Er was nog geen regelgeving, maar we hebben als industrie zelf gezegd:
'We willen daar voorzichtig mee zijn, want wij zijn zelf van mening
dat de datasets die gebruikt worden om mensen te kunnen herkennen
nog niet vrij zijn van bias van vooroordelen.'
ROTMAN: Dus jullie hebben zelf besloten:
'wacht, de technologie loopt duidelijk voor op de regelgeving,
op het debat wat misschien nog gevoerd moet worden in de samenleving.
Wat willen we er eigenlijk mee? Wij zetten hier even een streep in het zand
en we wachten even af hoe dit zich gaat ontwikkelen.' Is dat...
ELSINGA: Sterker nog, we werken zelfs actief mee
in het tot stand komen van deze regelgeving.
Omdat er vaak meerdere facetten aan zijn.
Maar we vinden 't belangrijk als organisatie
dat we die regelgeving zo snel mogelijk oppakken.
ROTMAN: Een voorbeeld van ethisch handelen.
Leen, ik begreep dat jullie werken of onderzoeken,
ik krijg het m'n waffel bijna niet uit,
om privacy preserving technology toe te passen.
Help me even. Privacy preserving technology, wat is dat?
ROOSENDAAL: Een verzamelnaam voor meerdere soorten technieken.
Wat ik net zei: secure multi-party computation
is een van de privacy preserving-technieken.
ROTMAN: Dit is er één van, maar wat is privacy preserving technology?
Wat doet die technologie?
ROOSENDAAL: Het doel van die technieken is om data
minder privacygevoelig te combineren of beschikbaar te stellen.
Dat kan door pseudonimisering van data,
maar ook door vergaande technieken als encrypten van data, dat soort technieken.
ROTMAN: En jullie onderzoeken dit. Een boel van dit soort technologie bestaat al.
Encrypting bestaat al.
En wat onderzoeken jullie dan binnen het CBS? Wat is dan jullie onderzoek?
ROOSENDAAL: Het is vooral: hoe kan je data
met data die bij andere partijen staat, combineren?
Natuurlijk, pseudonimisering gebruiken we al jarenlang bij het CBS.
Als je kijkt in de zorgwereld bijvoorbeeld,
zie je dat er best veel innovaties zijn
waarvan men wil kijken of die innovaties wel daadwerkelijk leiden
tot minder zorggebruik bijvoorbeeld. Dan wil je heel graag data combineren
die bij ziektekostenverzekeraars en ziekenhuizen staan.
Voor achtergrondgegevens wil je graag CBS-data hebben
en als je die data niet naar een locatie wil verplaatsen
om daar onderzoek te doen, dan zal je dat met dit soort technieken moeten doen.
En dan zie je dat er allemaal wet en regelgeving is,
waardoor dat nog niet zo eenvoudig is om toegang te geven tot die microdata.
En dan helpt secure multi-party computation
om dat onderzoek wel te kunnen uitvoeren.
Dan heeft de onderzoeker geen toegang tot microdata,
maar wordt alleen de data in tabelvorm zichtbaar.
ROTMAN: Voilà, want voor je het weet wordt al die data
van al die patiënten, voor al die mensen zoals ik gecombineerd,
bij mekaar gebracht, dat belandt ergens.
Je hebt niet meer zoveel controle en jullie zorgen ervoor,
jullie doen steeds meer onderzoek om te kijken: wacht eventjes,
'het gaat nog altijd om mensen en we willen de privacy waarborgen
zonder dat het de resultaten van ons rapport, onze aanbevelingen,
dat dat ten koste gaat van die resultaten. Klopt dat, kortweg?
ROTMAN: Jij hebt ook een interessante casus meegenomen, Rob.
Dat gaat over kinderporno.
Hoe gaan we ethisch om met die data in de bestrijding van kinderporno?
Kun je dat uitleggen? ELSINGA: Dat sluit aan
op het voorbeeld wat Leen noemt. Alleen daar ga je nog een stap verder in.
En dan zeg je: we gaan de data encrypten
en we gaan vervolgens de data,
dus in dit geval de technologie die wij ontwikkeld hebben,
maakt het mogelijk om data te encrypten.
In dit geval een database van bekende foto's van kindermisbruik.
Dat zijn verschrikkelijke beelden, dus die heb je liever encrypted.
En tegelijkertijd wordt er bijvoorbeeld bij hostingbedrijven,
bij telecombedrijven die websites hosten,
materiaal gevonden wat mogelijk kinderporno is.
En wat opsporingsdiensten graag willen, is die data met elkaar combineren.
Kijken of dat bekende data is, of die eventueel met elkaar gelinkt kan worden.
Wat je dus nu kan doen, is die foto's die je gevonden hebt bij de hoster encrypten,
je hebt een encrypted database
en uiteindelijk ga je op basis van de fingerprint
van die data met elkaar vergelijken
en op die manier hoef je geen actuele foto's met elkaar te vergelijken,
maar kun je op basis van een fingerprint...
ROTMAN: Dus je wil onderzoeken of het überhaupt strafbare feiten zijn.
Je wil onderzoeken waar het vandaan komt, wie eventueel de daders zijn,
maar je wil niet als onderzoeker constant geconfronteerd worden met dat materiaal.
Je wil ook uit respect voor de betrokkenen,
voor die kinderen en hun familie,
je wil niet dat daar constant allemaal mensen naar kijken
en jullie ontwikkelen dan technologie,
dat de technologie daarnaar kijkt en dat dat nog steeds goed gebeurt
en dat het zuiver gebeurt.
Gaaf hè, Leen?
-Zeker.
ROTMAN: Dus dit zijn voorbeelden waarbij technologie helpt
om AI ethisch te laten werken, zal ik maar zeggen.
Nu zit je te luisteren en denk je: dit wil ik ook.
Ik wil ook zuiver en ethisch werken.
Ik ben een ambtenaar bij een overheid of ik werk bij een organisatie
of bij een overheidsgelieerde organisatie.
Wat kunnen we allemaal doen?
Rob, AI is een black box. We weten vaak niet wat er gebeurt
en jij wil die black boxen openbreken. Transparantie.
ELSINGA: Klopt. Wij willen door middel van technologische ondersteuning
van het proces van het ontwikkelen van oplossingen van het toetsen van de data,
heb ik wel objectieve data, zijn alle groepen relevant zijn vertegenwoordigd?
Maar ook in het communiceren daarvan naar de gebruikers
en vervolgens de transparantie bieden.
Dat hele proces, van die black box willen we een glass box maken.
ROTMAN: Dat is een mooie metafoor.
En die sluit erg goed aan bij het algoritmeregister wat je doet.
Dus bij een algoritmeregister maak je eigenlijk,
ga je uitleggen aan de gebruikers, en dat kan bij wijze van spreken iemand zijn
die z'n auto parkeert en gefilmd wordt
met een slimme camera die het nummerbord herkent,
om uit te leggen: waar is het voor bedoeld?
Met welke data, op basis van welke data doen we dit?
Hoe communiceren we het? Hoelang bewaren we jouw data?
Waar wordt het absoluut niet voor gebruikt? Dus dat is openheid
over je algoritme en daar willen we nog verder in gaan.
Dat hele complexe machinelearning of deep learning-methodes die je gebruikt
dat die uiteindelijk vanuit de technolo- gie zorgen voor een stukje transparantie.
En belangrijk daarbij is de communicatie met de gebruiker.
Heel vaak denken mensen: dan moeten we alles wat we weten communiceren,
maar het is juist de kunst om het minimale,
waardoor er vertrouwen komt in het proces,
om dat te gaan communiceren.
Dat is een belangrijk onderdeel van die glass box.
Hoe kunnen we het communiceren? Maar vooral: hoe kunnen we het essentieel?
Want niemand gaat 40 pagina's doorlezen
om te snappen wat er gebeurt met z'n kentekengegevens.
ROTMAN: Openen die zwarte doos en op een transparante,
open en eenvoudige manier communi- ceren wat er in die doos gebeurt
om dat ding dus transparant te maken. Leen, als jij nadenkt over oplossingen.
Je bent dus een organisatie en je wil hiermee aan de gang
en jij werkt bij het CBS, data is jullie core business.
Wat zou jouw tip zijn aan mensen?
'Dit is wat je kan doen. Deze soort tech, moet je echt even naar kijken,
want het maakt het leven een stuk beter, ethisch verantwoorder.'
ROOSENDAAL: Ik vind het moeilijk om daar advies over te geven.
Iedere organisatie is anders.
Iedereen gebruikt zijn data voor een ander doel,
op een andere manier met verschillende methodes.
Dus het belangrijkste is dat mensen dit onderwerp in hun genen hebben zit
en gaan nadenken: wat wil ik nu met deze data doen?
'Wat zou ik er zelf van vinden als ik in deze dataset zou zitten?'
En verdiep je daarna natuurlijk in de technieken die er zijn,
maar die technieken zijn nooit helemaal voldoende om alle risico's af te dekken
en de secure multi-party computation die ik net noemde
is een mooi voorbeeld van hoe je data kan combineren,
maar garandeert bijvoorbeeld niet
dat in die uiteindelijke dataset die je wel beschikbaar stelt aan de onderzoeker
toch geen onthullende data zitten. Dat is outputbeveiliging.
Nog niet met techniek op dit moment in Nederland op te lossen.
Dus denk na, ga kijken wat voor technieken er allemaal zijn
en pas toe wat voor jouw situatie het best geschikt is.
ROTMAN: Dus jij zegt eigenlijk:
'Het gaat me niet eens zozeer om de technologieën,
want die komen en gaan misschien.
Het gaat er meer om op het moment dat je iets wil doen,
wees je ervan bewust dat je dat er ethische kwesties zijn
en denk er constant over na.'
Maar zou je dat kunnen ondervangen door iemand in je organisatie aan te wijzen
die dit de hele tijd aanhangig maakt? Een soort ethische officer of zo?
ROOSENDAAL: Wij hebben binnen het CBS een chief methodology officer.
Die is verantwoordelijk voor de methodologie.
Ik noemde net al de ethische commissie,
maar je kan ook een CDO verantwoordelijk maken
voor dit soort vraagstukken, maar beleg inderdaad in de organisatie
iemand die zich verantwoordelijk voelt en waar je terecht kan voor vragen.
En op het moment dat dat grijze gebieden zijn,
is het goed om met elkaar daarover in gesprek te gaan.
ROTMAN: Iemand die dat gesprek enta- meert, hebben we eerder over gepraat.
Hoe krijg je dit ethisch besef in je organisatie?
Hoe organiseer je dit? Hoe creëer je een ruimte om daarover te praten?
Wat is de rol van de manager en leiding- gevende en je eigen rol als medewerker?
Als je denkt: we moeten opletten. Hebben we ook een aflevering over gemaakt.
Hoe kan je dit ook als overheid afdwingen?
Dat je de juiste technologieën inzet
om AI ethisch verantwoord te laten werken, door misschien regelgeving.
Er komt een AI Act aan uit Brussel. De Kamer gaat daar nog wat van vinden.
Dat komt op ons af.
Denk jij, Rob van Microsoft, dat dat een goed idee is?
ELSINGA: Ik denk niet dat je de manier, dus de technologie, moet afdwingen.
Ik denk wel dat je goed moet nadenken: wat vinden we oké?
Ik noem maar wat, in China wordt social scoring gebruikt.
Op het moment dat jij te vaak door een rood stoplicht loopt,
krijg je een negatieve score.
ROTMAN: In de AI Act staat dat we dat niet willen.
ELSINGA: Precies. En dan is er een categorie
en dat is waar mensenrechten in het geding komen.
Dus de kans op een baan, op financiering, op gezondheidszorg,
dat soort zaken, dat je daar misschien in beperkt wordt.
Dat zijn de hoogrisicofactoren. Daarvan gaat de EU al zeggen:
'dan verwachten we dat je van tevoren gaat nadenken: welke data gebruik je?
Hoe ziet je het eruit? Hoe waarborg ik
dat dit een veilig systeem is waardoor mensen niet tussen wal en schip vallen?'
Ik denk dat de technologie die je daarbij kunt gebruiken ondersteunend is,
maar niet dat je de technologie moet voorschrijven.
En die zal zich ook continu blijven ontwikkelen.
ROTMAN: Mee eens, Leen? Dat de overheid meer zegt:
'wij gaan de kaders stellen, wij zeggen waar het aan moet voldoen.'
Privacy, doelbinding,
al die thema's die we aan het begin van deze aflevering hebben benoemd.
Ermee eens of kan de overheid wat dringender zijn wat jou betreft?
ROOSENDAAL: Ik denk inderdaad...
Tuurlijk, de overheid kan bepaalde richtlijnen geven
op het moment dat ze zich gaan begeven op het gebied van methodologie.
Welke methodologie moet je gebruiken en welke mag je niet meer gebruiken?
Dan gaat de wetgeving wat mij betreft wel wat te ver.
Daar zal toch zo'n organisatie zelf verantwoordelijk voor moeten zijn
en kunnen verantwoorden aan de buitenwereld.
Maar om dat in wetgeving vast te leggen, lijkt me niet verstandig.
ROTMAN: Als ik jullie zo hoor,
Rob Elsinga van Microsoft en Leen Roozendaal van het CBS:
jullie nemen die verantwoordelijkheid
en ik hoop dat de luisteraar die dit heeft gehoord
een beetje inspiratie heeft opgedaan: het is leuk,
maar het is ook zinvol om hier goed over na te denken.
Dus dank jullie wel voor jullie inzichten hierover.
Wil je meer informatie over ethiek, data-ethiek?
Ga dan naar cip-overheid.nl/uitgelicht of je favoriete podcastapp.
Tot de volgende keer.