Podcast #2: ‘Gezichtsherkenning en privacy’ met Pim Haselager

Na de podcast ‘Algoritmen en sociale cohesie’ is nu ook ‘Gezichtsherkenning en privacy’ te beluisteren. In deze tweede podcast in de serie ‘Het digitale dilemma’ neemt Pim Haselager je mee in de wereld van gezichtsherkenning. Wat zijn de ontwikkelingen op dit gebied en wat betekent dit voor onze privacy? Want die staat op het spel….

Het digitale dilemma
Beeld: ©EZK

Pim Haselager is universitair hoofddocent Kunstmatige Intelligentie aan de Radboud Universiteit en onderzoeker bij het Donders Instituut. In deze podcast spreekt hij met Robin Rotman over slimme camera’s en gezichtsherkenning. En vooral over wat dit betekent voor onze privacy, want volgens Pim Haselager staat die op het spel.

‘Overal hangen camera’s die gezichten registreren. Dit maakt dat jij nooit meer ergens kunt bewegen zonder dat iemand weet waar jij bent. Maar óók hoe jij je voelt en zelfs wat je van plan bent.’

Dit klinkt als een doemscenario, maar is voor de toekomst zeker niet uitgesloten.

Met deze podcast leer je wat er op dit moment allemaal al kan en welke ontwikkelingen ons te wachten staan. En waarom het belangrijk is om verantwoord om te gaan met de techniek en om menselijke controle in te bouwen. Want ondanks het nut van de techniek, moeten we voorkomen dat we op een later moment denken ‘hadden we daar maar beter over nagedacht’.

De digitaliseringsepidemie 2: Gezichtsherkenning en privacy

Het digitale dilemma #2
HASELAGER: Privacy wordt iets voor de rijken. Je gaat betalen voor privacy.
ROTMAN: Welkom bij 'Het digitale dilemma'. Ik ben Robin Rotman
en ik praat met deskundigen over de ethische vraagstukken
rond digitalisering. Dit is een podcastserie
van de ministeries van EZK en LNV in samenwerking met RADIO.
HASELAGER: Er is geen camera die denkt: kom, ik ga gezichten duiden.
Die functie bepalen wij.
De vraag is: Zijn wij in staat, voldoende onderlegd,
om die verstandige beslissingen daarover te nemen?
ROTMAN: Vandaag mag ik praten met Pim Haselager over slimme camera's
gezichtsherkenning en over de vraag wat dat betekent voor onze privacy.
Want die staat op het spel, hè Pim?
-Ja, dat denk ik wel, ja.
Jij bent universitair hoofddocent Kunstige Intelligentie aan de Radboud Universiteit
en onderzoeker aan het Donders Instituut.
-Ja, dat klopt helemaal.
Ik maak veel podcasts over tech en over wetenschap en over privacy.
en over gezichtsherkenning. Dit thema komt vaak voorbij.
Ik hoor mensen steeds vaker zeggen: Die gezichtsherkenningscamera's
die moeten we gewoon verbieden.
HASELAGER: Daar is ook veel voor te zeggen.
Kijk, ze hebben natuurlijk ook hun nut, maar de snelheid waarmee de techniek
eigenlijk steeds meer mogelijk maakt over het detecteren van gezichten
het identificeren en duiden van gezichten
niet alleen in termen van wat mensen voelen, maar ook in wat ze eventueel
zouden kunnen of van plan zijn. De prestaties daarin wisselen nogal.
Maar het is een onderzoeksgebied dat enorm in ontwikkeling is.
En het is nu eenmaal niet zo goed voorspelbaar waar het eindigt.
ROTMAN: Iedereen voelt die potentie ook, hè?
Oké, dus dit doembeeld is natuurlijk het beeld wat men schetst van:
Overal hangen camera's.
Al die camera's doen aan gezichtsherkenning.
En dus kan je nooit meer ergens jezelf begeven
zonder dat het geregistreerd wordt en dat iemand ergens
weet waar jij, wanneer jij, daar bent.
HASELAGER: Ja, misschien zelfs hoe je je voelt. Of wat je van plan bent.
ROTMAN: Zelfs hoe je je voelt?
-Nou ja, daar wordt ook aan gewerkt.
'Affective computing', dus het duiden van gelaatsuitdrukkingen
in termen van onderliggende emoties, daar wordt onderzoek naar gedaan.
Ik zal niet zeggen dat dat morgen toepasbaar is, maar je weet niet
hoe snel die ontwikkelingen gaan.
ROTMAN: Oké, wacht, dus ik zit hier met een maker aan tafel
een ontwerper en een creatieveling
een wetenschapper die studenten vertelt over kunstmatige intelligentie
die misschien systemen bouwt, die dit mogelijk maakt
en je zegt ook: Moeten we niet willen.
HASELAGER: Dat is ook weer wat zwart-wit gezegd.
Ik bedoel, je moet... Volgens mij gaat het altijd om verantwoord gebruik.
Dat betekent dat er voldoende menselijke controle is
op de toepassing van die technologie. We zijn er zelf bij.
We zetten het zelf in. Die dingen werken niet vanuit zichzelf.
Snap je? Er is geen camera die denkt: Kom, ik ga gezichten duiden.
Die functie bepalen wij.
De vraag is: Zijn wij in staat, voldoende onderlegd
om die verstandige beslissingen daarover te nemen?
Of ontberen wij kennis?
Of zijn we te gehaast omdat we bang zijn om de boot te missen?
Er zijn natuurlijk allerlei factoren die leiden tot het gebruik van technologie
waarvan je achteraf zegt: hadden we daar maar beter over nagedacht.
Mijn taak is het om met maatschappelijke partners
en met m'n collega's bij de AI-afdeling waar we nu zitten
daar verstandig over na te denken, liefst zo vroeg mogelijk, van tevoren
niet na afloop als het er al is.
ROTMAN: Dus ook met je studenten?
-Ja, ik geef cursussen ethiek over AI.
Maatschappelijk verantwoord gebruik van AI. En het zijn de whizzkids van nu.
De komende generatie dat zijn zij.
Ze moeten er ook verantwoord mee leren omgaan. Ik citeer altijd Spiderman.
'With great power comes great responsibility.' Dan zeg ik:
Ja, jullie hebben de grote power nu.
ROTMAN: Oké, dan wil ik 'm even pellen.
Je hebt dus kunstmatige intelligentie, slimme camera's en gezichtsherkenning.
Dat werkt allemaal een beetje samen. In het doembeeld wat we schetsen
zijn al die camera's allemaal slim en die kunnen je gezicht herkennen.
Ik hoor jou net zeggen dat ze je emoties kunnen lezen
en voorspellingen doen over je gedrag.
Laten we eerst eens even kijken: Waar staan we nu? Wat kunnen we nú?
HASELAGER: Wat nu relatief simpel is en een tijd geleden nog best lastig:
Waar in het plaatje zitten de gezichten?
-ROTMAN: Dus die camera op straat...
HASELAGER: Is dat een lantaarnpaal, een verkeersbord of een gezicht?
Dat klinkt stom als je het voor mensen zo formuleert, maar voor techniek
is dat een onderscheiding die je moet leren maken. Waar zijn de gezichten?
En dan: Wat is hun kijkrichting? Kijken ze je aan? Kijken ze weg?
Zit je in z'n achterhoofd, zie je een halve neus? Dat soort dingen.
Dat is tegenwoordig allemaal wel zo'n beetje gedaan.
En dan vervolgens het identificeren van gezichten.
Dus: Is dit het gezicht van Jan Jansen? Dat kan tegenwoordig ook vrij makkelijk.
De gemiddelde smartphone heeft dat al op z'n app zitten.
ROTMAN: Ja, dat kennen we nog van Facebook, hè? Gedoe erover.
Als jij zeg maar een foto op Facebook post van ons samen
dan vroeg Facebook: Is dit Robin Rotman?
Dan kon je 'm taggen. Daar is een hoop gedoe over geweest.
HASELAGER: Maar Apple heeft dat ook gedaan.
ROTMAN: Het is nu een functie die je aan en uit kunt zetten.
Maar dat is gewoon al...
HASELAGER: Maar goed, dus technisch heb je aan de ene kant:
Hoe kunnen we dat? Een gezicht kijkt nooit exact hetzelfde.
De ene dag is m'n baard langer, dan ben ik naar de kapper geweest enz.
Dus technisch zijn er uitdagingen. Lichtval, enz. Schaduwwerking.
Gezichten zien er nooit hetzelfde uit.
Tweede ding: hoe kom je aan het bronmateriaal ofwel de 'enrollment'
van de plaatjes waar je het gezicht op matcht? Voor een identificatie
heb je twee dingen nodig. Een plaatje waarvan je zegt: dat is Jan Jansen
en dan een ander plaatje, een camerabeeld die op straat loopt
en dan zeg je: dat mapt op elkaar.
Dus de opname die je maakt met de camera moet gemapt worden
op het plaatje in je databestand. Anders kun je niet identificeren.
ROTMAN: Maar dat kunnen we ook?
-Dat kunnen we zo langzamerhand ook.
ROTMAN: Dus even praktisch meteen.
Je hebt op een vliegveld slimme camera's met gezichtsherkenning.
Je hebt een database met potentiële terroristen.
Die camera's filmen ons allemaal.
En het maakt niet uit of ik lach of ik huil of wat dan ook...
Maar als ik in die database zit en ik loop voorbij die camera
dan is er een match, gaat er 'n lampje branden. Dat kan?
HASELAGER: Ja, dat kan. Dat is niet 100%, want je hebt natuurlijk
gemiste herkenningen en de herkenningen die niet kloppen.
Valse positieven en valse negatieven.
Dus die heb je, maar dat wordt wel steeds beter.
En zeker ook voor als mensen niet willen meewerken
wat je normaliter niet doet
de meeste mensen weten niet eens dat er een camera hangt
dus dan kijken ze zoals ze normaal zouden doen.
Dat noem je niet-meewerkend
dus niet zoals je met een pasfoto recht voor de camera gaat zitten.
ROTMAN: Weet je wat ik laatst las?
Dat er onderzoekers bezig zijn om gezichtsherkenningssoftware
goed te laten werken bij mensen met een mondkapje op.
En daar worden ook al goede resultaten bereikt.
HASELAGER: Met een half gezicht kun je ook een hoop.
En 'n kaaklijn die een beetje zichtbaar...
-ROTMAN: Dat las ik van de week.
Ik dacht: o, tuurlijk, dat moet wel blijven werken als mondkapjes verplicht zijn.
HASELAGER: De bivakmuts gaat 'm ook niet meer worden op den duur.
Nou, een bivakmuts, alleen je ogen... maar ja, het kan.
We weten niet precies waar het eindigt, de mogelijkheden.
Bij heel veel van de dingen die we nu bespreken, is het een technologie
waar ontzettend veel ontwikkeling in is.
Sommige dingen, de basale feiten, zijn wel redelijk te doen.
Maar hoe nauwkeurig dat precies gaat worden en wanneer dat precies
praktisch toepasbaar gaat worden, ja, dat is nog een beetje afwachten.
ROTMAN: Toch even die stand van de technologie. Dit kunnen we al.
Dit wordt al gebruikt. In Amerika lopen de politieagenten
met camera's op hun borst. En dan loopt er iemand voorbij
en dan krijgt hij op z'n oortje een signaal: die man die nu voorbijloopt
dat is Pim Haselager, die heeft openstaande boetes.
Tik 'm even op z'n schouder. Dat gebeurt gewoon. Oké, dat is dat.
Andere stappen die je net noemde, ze kunnen je emoties herkennen.
HASELAGER: Ja, het is mogelijk om te zien uit spiercontracties op je gezicht
of je aan het glimlachen bent, een beetje geknepen ogen hebt.
Of die lach echt of gefaket is, daar wordt ook onderzoek naar gedaan.
Daar heb ik wat papers over gelezen een paar jaar terug.
Dus het duiden van gelaatsuitdrukkingen net zoals wij dat doen...
Ik kan zeggen, hij glimlacht, zoals je nu zit te doen.
Maar ook, hij voelt zich blij, dat is alweer een stap verder, hè?
ROTMAN: Hij vóelt zich blij.
HASELAGER: Soms glimlach je uit beleefdheid, en ben je niet blij.
En soms glimlach je omdat je het grappig vindt.
Dat zijn allemaal zaken waar steeds meer onderzoek naar gedaan wordt.
Een glimlach herkennen dat is nog relatief eenvoudig
gegeven de stand van zaken.
De achterliggende gemoedstoestand duiden, dat is toch een ander verhaal.
ROTMAN: Is het ironie of niet? En wat zou een toepassing kunnen zijn?
Dat je op een crowd een camera zet
en dat de politie potentiële relschoppers eruit haalt?
HASELAGER: Agressiedetectie voordat het te laat is.
ROTMAN: Hier voelt ie al tricky, hè? Dit wil ik misschien niet.
HASELAGER: Heel veel dingen niet. Misschien wil ik ook niet dat mensen
mij iets grappig zien vinden. Er wordt iets gezegd en dat amuseert mij.
In bepaalde onderhandelingen...
Denk even aan politici of zakenmensen die aan tafel zitten.
En dan kun je met die camerabeelden, als je dat in realtime kan doen
heel veel waardevolle informatie over iemands gemoedstoestand achterhalen.
ROTMAN: Geeft 't opties tot manipulatie?
-Ja, wel een voorsprong.
Het geeft de rechter, in de zaak van een rechtszaak
of advocaten misschien wel weer
hulp om potentiële boeven te ondervragen?
Dat is misschien wel goed, dat zou ik helemaal niet zo erg vinden.
HASELAGER: Ja, ik vind het prima dat jij allerlei dingen misschien leuker
of minder leuk vindt.
-ROTMAN: Ik zit een beetje te zoeken:
Wat willen we nou eigenlijk?
HASELAGER: Maar ik denk in principe dat eigenlijk bij al dit soort technieken
er een aantal vragen komen met betrekking tot privacy.
Weten mensen het? Is dit een maatschappij die je wilt?
Wil je bijvoorbeeld de publieke ruimtes zodanig problematiseren
dat eigenlijk elke burger primair als een bedreiging wordt gezien
die gemonitord moet worden?
Of dat je de publieke ruimte ziet als een ontmoetingsplaats
waarin mensen met elkaar kunnen interacteren in vrijheid?
Dat zijn twee fundamentele andere kijkwijzes, volgens mij...
ROTMAN: Zeker weten.
-HASELAGER: ...op de straat.
En ik ben opgegroeid met een straat waarin je elkaar tegenkwam.
Het plein, daar werd gespeeld en gepraat en er was markt.
ROTMAN: Het touwtje uit de brievenbus.
HASELAGER En nu is het een beheersplek geworden.
En dat is een verschuiving waar je denk ik over na moet denken.
Niet over individuele voorbeelden van:
In sommige gevallen kan het nuttig zijn. Dat kan bijna altijd.
ROTMAN: Maar is dat niet het niveau waarop we hierover moeten nadenken?
In principe willen we dus niet constant alle gezichten monitoren
en kijken of er ergens een boef of een kwaadwillende tussen zit.
Dat willen we niet, hè?
Maar als je gericht deze technologie inzet op bepaalde momenten
dan willen we het wél.
HASELAGER: Ja, maar het probleem van deze technologie is
dat het altijd een soort visnet-strategie mogelijk maakt.
Want die camera's zet je altijd aan. En die staan gewoon overal.
ROTMAN: Tenzij je bijvoorbeeld een verdachte moet interviewen.
Dan staat hij alleen op dat moment aan.
HASELAGER: Maar dat zijn dan de discussies. In welke situaties
wil je deze techniek gaan toepassen? En hoe verantwoord je dat dan?
En wie controleert dat dat op rechtmatige wijze gebeurt? Dat is één ding.
Maar in de praktijk zie je natuurlijk juist dat mensen denken:
Als die camera's er eenmaal hangen, kunnen we ze ook wel gebruiken voor...
Je hangt er gewoon software onder die dan de duiding doet.
Dat zijn natuurlijk andere kwesties. Ik zie eigenlijk dát met name gebeuren.
Ik rij regelmatig tussen Nijmegen en Amsterdam, waar ik woon.
Op sommige snelwegen is het aantal camera's dat je ziet, niet meer te tellen.
En wat kunnen die? Ja, dat weet ik dus niet precies.
ROTMAN: Is het makkelijk om die te voorzien van slimme technologie?
HASELAGER: Ja, dat denk ik wel.
-Oké.
ROTMAN: Jij noemde net nog een andere term: voorspellingen doen.
HASELAGER: Eén van de gedachten, het is een soort van vermogens testen
daar wordt nu onderzoek naar gedaan.
Heeft iemand bepaalde capaciteiten, die hij bijv. zegt te hebben
en kun je dat uit gelaatsuitdrukkingen afleiden?
Dat wordt bijv. gebruikt bij job interviews.
Tegenwoordig heb je de AI interviewer waar je eerst doorheen moet
voordat je een sollicitatiegesprek krijgt.
En dan kun je door te kijken naar kijkgedrag proberen correlaties
te vinden met bepaalde aanwezige vermogens. Of niet.
Ik zeg niet dat dat waterdicht is...
ROTMAN: Vaardigheden heb je 't over. Talenten.
HASELAGER: Beroepsgerelateerde vaardigheden, heb je die in huis of niet?
En kun je dat via beelden van gezicht tijdens een interview
correleren met aangetoonde voorbeelden.
En met die correlaties ga je later voorspellen of mensen dat echt hebben.
ROTMAN: Weet je wat ik grappig vind?
Ik las laatst een artikel over cardiologen. Die gebruiken gezichtsherkenning.
Die zien in het gezicht signalen
of jij misschien problemen hebt met je hart of met je aderen.
Allemaal trekken in het gezicht.
En dan denk ik: lijkt me handig als je een patiënt zou worden.
Dat lijkt me hartstikke handig.
Maar als zo'n job interviewer met zo'n camera zit dan denk ik: nee.
HASELAGER: Voor de werkgever is dat erg handig
want van de 500 kandidaten krijg je er dan 20 binnen
die de AI-test hebben doorstaan.
Het zijn niet alleen gelaatsuitdrukkingen, maar ook inhoudelijke vragen.
Maar goed, van die 20 kies je er één en die voldoet.
Maar als je bij de 480 kandidaten zit die door de AI zijn afgewezen
en jij zit toevallig in de groep die stéeds wordt afgewezen
dan heb je een heel groot probleem.
-Dan is het Kafka.
Dan heb je een systeem waarvan je niet weet op welke gronden.
HASELAGER: Wij hebben op de universiteit de discussie
over de 'proctoring software' gehad. Of studenten thuis zitten te cheaten
bij een examen. Of ze valsspelen.
En wij hebben als AI-afdeling dat geweigerd te gebruiken
bij onze studenten bij onze tentamens.
We waren een van de weinigen van de hele campus, tot onze verbazing.
We vonden dat een privacyschending.
ROTMAN: De powers van de technologie zeggen: dit gaan we niet inzetten.
HASELAGER: Soms snap je beter wat de risico's zijn als je er verstand van hebt.
ROTMAN: Mag ik je een paar stellingen voorleggen? 'Er komt een tijdperk
waarin we terugkijken op deze tijd
en dat we met weemoed concluderen: Ach, toen hadden we nog privacy.'
HASELAGER: Dan zijn we al een beetje aan de late kant.
Ik denk dat dat 20 jaar geleden zeker waar was.
Maar er zijn ook discussies over, hè. Dat privacy
een tijdelijk fenomeen is geweest.
ROTMAN: Kijken we straks terug met 't idee: toen hadden we nog privacy?
Wordt privacy een ding uit het verleden of kunnen we die altijd beschermen?
HASELAGER: Privacy wordt iets voor de rijken. Je gaat betalen voor privacy.
ROTMAN: Dat vind ik nogal 'n uitspraak. 'Er is niks mis mee
om gezichtsherkenning in te zetten om hooligans uit stadions te weren.'
Eens of oneens?
HASELAGER: Oneens. Het hangt erg af van je definitie van wat een hooligan is
en hoeveel risico dat met zich meebrengt.
ROTMAN: Gewoon zo'n malloot die vuurwerk op het veld heeft gegooid
en die geweigerd wordt...
-Er zijn altijd gevallen waarin je denkt:
Hadden we nu maar eerder ingegrepen.
ROTMAN: 'Eigenlijk is het al onaanvaardbaar dat Facebook
gezichten kan herkennen zodat we elkaar kunnen taggen op foto's.'
Waar of niet waar?
-Waar. Ik vind dat Facebook sowieso
veel minder rechten zou moeten hebben op informatie over ons.
ROTMAN: Zijn er toepassingen voor gezichtsherkenning
waarvan jij zegt: Ja, moeten we doen? En daar moeten we nog beter in worden.
Ik zit een beetje te zoeken, want je bent kritisch. Je bent streng.
Je hebt een ethisch kompas.
Fijn dat dat soort mensen op zo'n universiteit werken, merk ik.
Maar zijn er toepassingen...
-HASELAGER: Ja, tuurlijk zijn die er.
Gewoon standaard opsporing van mensen die gezocht worden
voor serieuze misdrijven, dan kan dat een enorm wapen zijn.
En in sommige gevallen wil je dat die mensen opgepakt worden
al was het maar ter zelfbescherming en bescherming van de maatschappij.
Maar ik moet eerlijk zeggen, ik denk juist vaak dat de discussie
niet over die voorbeelden moet gaan. Want er is altijd wel een geval
van een moordenaar, een pedofiel, noem het maar op
waarvan je denkt: ja, dit is te erg, hier moet tegen opgetreden worden.
Maar het zijn niet dat soort excessen
die het inzetten van de technologie moeten bepalen. Het gaat om
de globale effecten ervan op de samenleving. Op iedereen.
ROTMAN: Je zou een fundamentelere discussie willen voeren?
HASELAGER: Ik had het net over de problematisering van de openbare ruimte.
Die als een veiligheidsrisico, dat is waar we nu onder druk van deze technologie
omdat het mógelijk wordt, naartoe gaan.
En dat vind ik een verschuiving in onze kijk op een samenleving.
Het plein als ontmoetingsplek of als beheersprobleem, da's nogal 'n verschil.
ROTMAN: Even terug naar die job recruitment.
Als jij regelmatig in die groep zit die afgewezen wordt...
Dan heb je het over die bias. Je bent kennelijk steeds de klos.
HASELAGER: Ja, dat kan gebeuren.
-Wat kunnen we daaraan doen?
Kunnen we het zo inbouwen dat dat niet meer gebeurt?
HASELAGER: Ja. Nou ja, het streven is om AI zo bias-vrij mogelijk te maken.
En dat is op zich heel fijn, dat we ons bewuster zijn geworden van bias
doordat AI-machines als een soort van spiegel laten zien
hoe gebiast wij in het verleden waren.
Die bias zit natuurlijk in door mensen verkregen data.
En die machines leren daarop en die tonen ons dan gewoon
hoeveel bias er eigenlijk in onze historische data zit.
Dus wat dat betreft heeft de bias van AI ons een goede dienst bewezen.
We zijn ons er nu meer bewust van.
-ROTMAN: Dat maakt het zichtbaar.
Kun jij nou niet met een groepje slimme studenten
een algoritme ontwikkelen, een stukje software ontwikkelen
dat elk algoritme die dit soort keuzes maakt, bijvoorbeeld job recruitment
even test... LACHT: Eventjes test: Zit hier een bias in?
HASELAGER: Ja, wordt aan gewerkt.
-O ja?
Ik ben ook bij studentenprojecten betrokken geweest
die bijvoorbeeld met biasdetectie aan de slag gaan.
En dat zijn verschillende aspecten, hè. Eén, de database.
Zit er een bias in de verzamelde data?
Soms zijn bepaalde minderheidsgroepen niet goed vertegenwoordigd
waardoor het algoritme niet leert om die naar waarde te kunnen inschatten.
Maar je wordt dus bijv. afgewezen omdat het algoritme niet zeker genoeg is
maar dat komt dan omdat er te weinig trainingsmateriaal was.
ROTMAN: Het wordt toch pas eerlijk als alles en iedereen in die database zit?
Anders heb je toch altijd ergens...
-HASELAGER: Dat is de keerzijde ervan.
Maar dat is hoe het... Technologie neemt altijd weer iets zelf met zich mee.
Het is een motor die zichzelf aanjaagt.
Je zou op een gegeven moment ook kunnen zeggen: Op sommige domeinen
willen we dit voorlopig nog niet zo doen
totdat zeker is dat die bias eruit gehaald is. Het is een beetje...
Vergelijk het met vliegtuigindustrie.
Dan wil je zeker weten dat het vliegtuig goed kan opstijgen en landen
voordat je het gaat gebruiken. Er is niemand die daarover nadenkt.
Maar bij AI doen we dat niet.
We gebruiken het en we nemen dan het falen maar een beetje voor lief.
ROTMAN: En dan gaan we erover discussiëren.
HASELAGER: Ja, dan plakken we wat pleisters en we gaan door
want er is haast met die technologie.
-ROTMAN: Oké, dus deel één
als je het hebt over dat fundamentelere niveau van die oplossing is één ding
aan de voorkant veel kritischer kijken wat je op de markt brengt.
HASELAGER: Vroeger kritischer kijken en gewoon keurmerken, kwaliteitseisen.
Ik vergelijk altijd, er kan in Europa geen auto de weg op
zonder dat die ik weet niet hoeveel keurmerken, testen en dergelijke
moet ondergaan, keuringen, enz.
Any database goes, op dit moment. Nog steeds.
Ik kan morgen m'n eigen database
ter beschikking stellen aan commerciële partijen die 'm dan gaan gebruiken
en er is niemand die controleert of mijn database voldoende representatief is.
Überhaupt juiste gegevens bevat.
Een kwaliteitskeurmerk voor databases daar wordt wel aan gewerkt, gelukkig.
Er wordt nu over gesproken, dus dat komt er hopelijk snel aan.
Maar het is natuurlijk van de zotte dat we de afgelopen tien jaar
met dit soort technieken hebben gewerkt zónder kwaliteitskeurmerken.
ROTMAN: Maar zou ik ook niet eigenlijk elk jaar een overzichtje moeten krijgen
in welke databases ik allemaal zit? Dat ik zelf ook een beetje regie krijg
over waar belandt mijn informatie?
-HASELAGER: Lijkt me ook essentieel.
Ik krijg toch ook de uitslag te zien van m'n APK-keuring van m'n auto?
Dus mag ik dan ook alstublieft even weten wat er gemeten is aan mij?
Net als met je medische gegevens, toch?
Dus ik denk dat we meer moeten leren...
Het is een beetje het ontmagiseren, als ik 't zo mag zeggen, van AI.
We zijn nu altijd nog onder de indruk, vooral als je er wat minder vanaf weet.
Het is gewoon technologie. Daar stel je bepaalde kwaliteitseisen aan
en een informatieverplichting richting degene over wie de data gaat.
De GDPR of de AVG heeft daar natuurlijk een belangrijke stap in gezet.
ROTMAN: Hij zat in m'n hoofd.
De Autoriteit Persoonsgegevens, die controleert de AVG.
HASELAGER: Zwaar onderbemenst die afdeling.
ROTMAN: Die controleert dat, dat zijn die nieuwe privacywetregels.
Je kan er van alles van vinden. Dat laten we even buiten beschouwing.
Wat ik wél hoor, als je het goed wil doen
moet je daar véel meer mankracht op zetten om dat te checken.
HASELAGER: Precies. En ik begreep, wanneer was dat nou, een tijdje terug
werd er gezegd: dat gaan we voorlopig nog even niet doen.
Dat vind ik dus onbegrijpelijk. Alsof je over vliegtuigen zegt:
Ze moeten wel getest worden, maar we zetten er toch maar even niet
het volledige personeel voor in. Nee! Veiligheid allereerst.
ROTMAN: Dus we gaan de Autoriteit Persoonsgegevens belangrijker maken.
En die gaan óók... die gaan nog een aparte tak oprichten
voor gezichtsherkenning en privacy, en daar gaan ze mee bezig.
Ze hebben zich uitgesproken vorig jaar tegenover die supermarktbaas
die een camera, en dat mag niet...
-HASELAGER: Ook terecht!
ROTMAN: Is het nou niet mogelijk, en hier ben ik misschien weer naïef
om die camera's, die er kennelijk zijn om al die gezichten te registreren
want als je de boeven eruit wil halen moet je iedereen registreren...
Kan je niet gewoon alle informatie meteen weggooien
als er niet direct een match is?
HASELAGER: Natuurlijk kan er van alles weggegooid worden.
De vraag is alleen of dat gebeurt, hoe dat gebeurt, wie dat controleert.
Denk weer even aan de winkelier, gooit die het echt weg?
Kijk, op een gegeven moment moet je ook weer even denken:
Hebben we nu wel echt camera's nodig voor allerlei vragen?
Of kan het ook met minder zware middelen? Dus bijvoorbeeld
als 't gaat om verdachte gedragingen
kom je met dieptecamera's of hittecamera's ook al een heel eind.
Heb je niet echt videocamera's voor nodig. Die vangen echt álles.
Dus het hangt soms ook gewoon af van het soort camera's
die je ophangt in een bepaalde plek
of daar veiligheids- of privacyrisico's aan verbonden zijn of niet.
Daar moet veel beter over nagedacht worden.
ROTMAN: Ja. Oké, nog even kort.
Onlangs is de Wet gegevensverwerking samenwerkingsverbanden aangenomen
in de Tweede Kamer. Dat gaat over de manier waarop de overheid intern
informatie uitwisselt en databases aan elkaar koppelt.
Is dat een goede wet of niet?
Is dat een begin van nadenken over wat doen we met die gegevens?
HASELAGER: Ja. Ik ben sowieso blij met elke principiële discussie
over dit soort thema's. Ik ben geen jurist, dus ik hou me verre
van het beoordelen van wetten op z'n juridische merites.
Dan moeten we echt bij m'n buren zijn aan de overkant van dit gebouw.
Maar ik zie dit wel als een blijk van toenemende bewustwording
over dat hier goed over moet worden nagedacht.
We zijn wel steeds heel erg laat.
-ROTMAN: Dank je wel, Pim Haselager.
Luister ook de andere aflevering van 'Het digitale dilemma' terug.
En je hoort het, er zijn wat dilemma's waar we nog wat mee moeten.
Ga hiervoor naar it-academieoverheid.nl. Dank je wel.
HASELAGER: Graag gedaan.

Andere podcasts in deze serie