Podcastserie Ethiek in de praktijk van het CIP

Onze partner, het Centrum Informatiebeveiliging en Privacybescherming (CIP), heeft weer een nieuwe podcastserie opgenomen. Onder de titel Ethiek in de praktijk verschenen in de periode juli - september 6 afleveringen van 20 minuten.

Podcastserie Ethiek in de praktijk
Beeld: ©CIP

Aflevering 1. Als het moet, maar niet mag

In deze eerste aflevering zijn te gast Koen Versmissen (eigenaar Goedzo data-ethiek) en Mark Jansen (Dirkzwager). Als respectievelijk adviseur en advocaat bespreken zij onder meer de cases van Santander. Want wat doe je als iets vanuit ethisch opzicht eigenlijk zou moeten gebeuren, maar van de rechter niet mag? Over dit en andere praktische ethische dilemma’s zijn ze in gesprek met host Robin Rotman.

Ethiek in de praktijk. Afl. 1 Als het moet, maar niet mag

'Wat als je iets moet doen, maar het mag niet?'
Welkom bij 'Ethiek in de praktijk'. Ik ben Robin Rotman
en in deze podcastserie praat ik met experts
en ervaringsdeskundigen over data-ethiek in de dagelijkse praktijk.
Dit is een podcast van het Centrum Infor- matiebeveiliging en Privacybescherming.
'Ik denk dat alles rondom arbeid en sociaal domein mooie voorbeelden zijn,
waar de overheid met veel gedetailleerde regels
en stapeling van regels een genuanceerde uitkomst wil bereiken,
wat soms averechts werkt.'
Te gast vandaag: Koen Versmissen, eigenaar van 'Goed zo data-ethiek'
en Mark Jansen, advocaat bij Dirkzwager, gespecialiseerd in privacy- en IT-recht.
Mark, je bent jurist. Wanneer heb je voor het laatst buiten de lijntjes gekleurd?
JANSEN: Gisteren nog heb ik een kopie van bladmuziek gemaakt. Hoogst illegaal.
ROTMAN: Dat mag niet, maar het moet.
-Anders kan ik niet spelen.
ROTMAN: Wat speel je?
-Trombone.
ROTMAN: Koen, we zitten op de biechtstoel. Voor de draad ermee.
VERSMISSEN: Een paar jaar geleden wilde ik hulp in de huishouding
voor een paar uur in de week. Dat wilde ik wel netjes doen.
Hoe dan? Er bleek zelfs een hele informatiepagina van de overheid te zijn
voor particulieren, hoe je dat dan kon regelen.
Ik ben erin gedoken en heb het op een gegeven moment opgegeven.
Het is zo ingewikkeld. Dat is als eenvoudige particulier niet te doen.
ROTMAN: Je wilde een schoonmaker of schoonmaakster inhuren.
Je moet zo en zo doen, maar je dacht: 'het is zo ingewikkeld,
Ik betaal iemand een paar tientjes en ik doe het gewoon zo.'
Dus ik zit hier met twee ervaringsdeskundigen aan tafel.
Vanuit jullie professie zijn jullie bezig met ethiek.
Mark, jij meer vanuit de juridische kant. En jij, Koen, door mensen te helpen
om het ethische gesprek te voeren op de werkvloer.
Maar jullie zijn ook ervaringsdeskundigen, soms moet je gewoon iets doen wat...
Dat vind ik mooi. Mark, dan nu even serieus.
We hebben het dus over: Je moet iets doen, maar het mag niet.
Dit gaat voor mijn gevoel over de regeltjes versus de menselijke maat.
Protocolisering versus 'maar we hebben wel met mensen te maken'.
Er is een arrest, het Santander-arrest.
Een rechter heeft hier ook wat van gevonden.
Kun je dat even uitleggen? JANSEN: Dat is een arrest uit 2011.
Het gaat over een geschil tussen 'n bank en een particulier die daar krediet had.
Die was bij de BKR geregistreerd voor een heel kleine restschuld
en daardoor kon die geen hypotheek meer krijgen.
Die particulier vocht die registratie aan.
De bank zei: 'Dat is vervelend voor je, maar wij moeten jou registreren.
Dat staat nou eenmaal in de wet.' Een hoop ongemak voor de particulier,
kleine restschuld versus een wettelijke verplichting voor de bank.
Dat ging helemaal naar de Hoge Raad
en die zei: 'Allemaal leuk en aardig, die wettelijke plicht,
maar alle verwerkingen van persoonsgegevens moeten voldoen
aan grondrecht, en voldoen aan eisen van professionaliteit en subsidiariteit.
In dit geval pakte dat dus onevenredig uit voor die betrokken burger.
Het kan wel dat er een wettelijke plicht is,
maar de belangen van de burger wegen zwaarder.
ROTMAN: Want het ging geloof ik om 250 euro schuld
en doordat dat geregistreerd was, loopt je leven vast,
omdat de regeltjes niet toestaan dat je een huis koopt. Dat soort dingen.
Koen, jij bent een ethisch man,
je helpt mensen met het nadenken over ethiek.
Hier ontstaat er dus zelfs vanuit de rechter ruimte
om buiten de lijntjes te kleuren.
Het zal ongetwijfeld niet zijn dat je nu alles maar mag doen
naar eigen inzicht, maar er is wel ruimte.
Dus is er ook ruimte voor een ethisch persoonlijkere afweging.
Word jij blij van dit soort ontwikkelingen?
VERSMISSEN: Absoluut, want het erkent in feite
dat wet en regelgeving beperkt in kan spelen
op al die oneindig veel situaties die je in de praktijk kunt tegenkomen.
Dat is een goede ontwikkeling. Tegelijkertijd moet je wel ook oppassen
dat je te veel willekeur creëert
en dat iedere individuele ambtenaar z'n eigen koers gaat kiezen.
Dus de uitdaging is om wel van die ruimte gebruik te maken,
maar wel op een verantwoorde manier. Daar kun je niet bovenop gaan zitten,
dus je moet dat kanaliseren als overheid en die balans is heel interessant.
Dit is mooi, want hier ontstaat dus het dilemma.
Jij noemt nu 'willekeur'. Die regels en protocollen, Mark, zijn er niet voor niks.
JANSEN: Nee, in het geval van de BKR zijn die er om de burger te beschermen
tegen overkreditering, wat een nobel doel is.
Maar in de praktijk kan een burger met een kleine restschuld
geen enkel krediet meer afsluiten. Dan pakt het heel disproportioneel uit.
ROTMAN: Mooi is dit. Je hebt wetgeving en regelgeving.
Die moet mensen beschermen. Je wil ook als overheid iedereen gelijk behandelen.
Tegelijkertijd worden mensen zoals ik, de opstandige types,
vinden: Regeltjes, regeltjes... Waar is de menselijke maat?
En dan kom ik tegen willekeur aan. Dus hier zit de spanning.
En de dagelijkse praktijk van de overheid,
wat zijn dan de voorbeelden waarvan jij zegt 'hier gaat het over'?
JANSEN: Ik denk dat alles rondom arbeid en sociaal domein
mooie voorbeelden zijn waar de overheid met veel gedetailleerde regels
en stapeling van regels een genuan- ceerde uitkomst probeert te bereiken,
wat soms averechts werkt. Nu is er een recente discussie
of de bijstandsregels moeten worden versoepeld.
En dan hoor je nota bene de minister al roepen:
'Ik wil voorkomen dat ik een onbedoeld neveneffect creëer met toeslagen.'
Je ziet dat de overheid het zichzelf daar heel ingewikkeld gemaakt heeft...
Het is paradoxaal. Door die regels genuanceerd te maken,
werken ze tegen elkaar in en krijg je willekeurige uitkomsten.
En het is ingewikkeld om dat weer glad te strijken.
ROTMAN: Maar het is wel leuk voor mensen met een ethisch besef.
We hebben een leuke podcast gemaakt over ethisch besef bij ambtenaren.
Luister terug, daar zit Koen ook in.
Koen, dit geeft wel ruimte voor het gesprek.
Dit betekent: er moet gepraat worden. Hoe gaan we dit doen?
VERSMISSEN: Wat ik vooral mooi vind, is dat Mark ook aangeeft:
met al die regels creëer je een ingewikkeld systeem
en ingewikkelde systemen kunnen we als mensen ook niet overzien
en voorspellen wat eruit gaat komen. Dus je hebt een soort control-illusie
dat je denkt dat je het heel goed regelt,
maar we weten gewoon, ook uit de wetenschap, dat dat een illusie is.
Dat is dus ook ontzettend interessant.
Dan moet je dus inderdaad dat gesprek aangaan.
Daar heb je wel ethische principes voor nodig,
om te voorkomen dat ambtenaren met hun individuele opvattingen
weer te nadrukkelijk hun stempel erop drukken.
Dus je zult wel als organisatie moeten bedenken:
wat vinden wij nou belangrijke waarden in onze relatie met de burgers
om wel op een gerichte manier invulling te kunnen geven aan dat maatwerk.
ROTMAN: Het is maatwerk, dit gaat over ethische gesprekken.
Jij bent de jurist, Mark.
Ben jij dan automatisch ook meer van de regels en de helderheid?
Of zoek je als jurist juist naar mogelijkheden
om dat ethisch gesprek te voeren. Dat moet je faciliteren.
Hoe zit jij daarin? JANSEN: Nou ja,
een jurist zal nooit 100% ja of nee zeggen, denk ik.
Je zit met verschillende waarden.
Artikel 1 zegt dat iedereen gelijk moet worden behandeld,
maar andere grondrechten zeggen dat ook andere belangen meewegen
en dat de uitkomst van die afwegingen ook weer proportioneel,
rechtvaardig en evenredig moet zijn.
Gelijke behandeling veronderstelt bijna, schaalbare gelijke behandeling,
veronderstelt bijna een bureaucratie.
Want als je 18 miljoen inwoners allemaal gelijk moet bedienen
dat moet je wel protocoliseren,
want je kunt niet op 18 miljoen inwoners 18 miljoen ambtenaren de afweging
laten maken wat voor allemaal maatwerk is.
Daar kom je niet uit, dus je moet het wel protocoliseren.
Maar ik denk tegelijkertijd dat je met elkaar moet durven loslaten
dat je een 5% restcategorie houdt,
waarbij die protocollen disproportioneel uitpakken
en waarbij je dan de ambtenaar de ruimte geeft
om daar evenredig maatwerk te leveren. ROTMAN: Dit is mooi.
Dus we signaleren dat er verschillende belangen tegen elkaar inwerken.
Aan de ene kant hebben we regels nodig
om mensen gelijk te behandelen, om dingen te regelen, uitkeringen,
om het systeem te laten draaien.
En tegelijkertijd signaleren we: we hebben ook menselijke maat nodig.
Niet iedereen is door hetzelfde vakje te duwen.
Oké, oplossingen. Het Santander-arrest zegt:
De rechter vindt in ieder geval dat in sommige gevallen ruimte is
voor een afwijking.
JANSEN: Een goeie aanvulling op het Santander-arrest
is dat de Hoge Raad ook zegt dat die bank in de basis mag uitgaan
van de gegevens die hij al kent. In de basis mag je ervan uitgaan:
'Dit zal wel een gemiddelde klant zijn, dus ik behandel 'm zo en registreer 'm.'
Pas als je aanvullende gegevens kenbaar maakt, moet je 'n heroverweging maken.
Daar zit dat maatwerk.
De Hoge Raad zegt in de basis: standaard conform protocol behandelen.
En als je aanleiding ziet voor maatwerk dan dat ook bieden. Daar zit de nuance.
ROTMAN: Maar goed, we signaleren wel dat het systeem in zekere zin werkt.
We hebben er allemaal profijt van, maar een percentage, 5 of 10%,
zal per wet of regel verschillen, waar we dus iets mee moeten.
Hoe bouw je in, nu gaat het om oplossingen...
Hoe bouw je dan dat je dat ook boven water trekt
en dat je daar dan ook oplossingen voor maakt? Hebben jullie suggesties?
VERSMISSEN: Ik denk dat de suggestie die Mark deed belangrijk is.
Juist het loslaten. Dus niet proberen heel concreet
daar allemaal dingen voor te bedenken,
maar meer door in je regeling in te bouwen
en ik weet niet hoe dat juridisch werkt,
en te zeggen: We hebben in principe bepaalde regels,
maar we accepteren ook
dat er een bepaalde mate van afwijking van die regels plaatsvindt.
We hebben een bepaald budget.
We accepteren dat 10% van dat budget anders wordt uitgegeven
dan wat bepaald is. En als we boven die 10% uit schieten,
hebben we misschien een politiek probleem. Dan gaan we nadenken.
Maar zolang we binnen die 10% blijven,
mogen die ambtenaren en die gemeenten en organisaties,
hun gang gaan en dat zullen ze vast op een verantwoorde manier doen.
ROTMAN: Dit vind ik leuk. Jij bent jurist, Mark,
en dan ineens is jouw vak een creatief vak,
want je moet nu een soort U-bocht bedenken
waarmee je in regeltjes gaat vatten dat er ruimte is waar geen regeltjes gelden.
Kan dat?
JANSEN: Dat denk ik wel. Zolang je maar heldere kaders hebt.
En zolang je maar voorkomt dat vervolgens iedereen in die restcategorie
van 10% wordt gepropt. Want dat is...
ROTMAN: Iedereen wil daarin.
-Iedereen wil maatwerk.
Daar zit het spanningsveld, maar het is wel gek
dat als wij met z'n drieën een concert zouden organiseren
en we maken een begroting, dan komt er altijd een post onvoorzien bij te staan.
En als we wetten bedenken met processen om geld uit te keren,
dan is er ineens niet zo'n post. Dat is gek.
Is er geen maatwerk. Want die post onvoorzien is altijd een ratjetoe.
ROTMAN: Dus in je beleid kun je een post maatwerk inbouwen.
Dus je gaat er aan de voorkant al rekening mee houden:
Er vallen mensen buiten de boot.
En je kan van tevoren misschien al wat voorwaardes...
JANSEN: Af en toe doet de overheid dat ook.
De coronacrisis is een mooi voorbeeld. Daar heeft minister Koolmees destijds
snel geld vrijgemaakt om allerlei ondernemers te ondersteunen.
Hij riep van tevoren: Dit is 'n beetje grofmazig, maar het is beter dan niks
en we gaan het in hoog tempo uitrollen. ROTMAN: Erdoorheen geduwd.
Dit is interessant. Dus je kan dit aan de voorkant regelen.
Maar dan gaan we naar Koen, want jij hebt te maken met ethiek op de werkvloer.
Jij traint mensen om het gesprek aan te gaan intern als je ergens mee zit.
Nu kan ik me voorstellen dat de minister of dat er in de Kamer
regeltjes zijn of binnen een organisatie is iets afgesproken
en er is ook afgesproken: er is ruimte voor je eigen inzicht, laat ik zeggen.
Dan ben je zo'n hulpverlener en je hebt te maken met mensen.
Dan kan ik me nog steeds voorstellen dat je wel weet dat dat kan,
maar dat je toch niet de rugdekking voelt
die je nodig hebt om dat besluit te nemen.
Want voor je het weet, gaat je kop eraf, toch?
Het is ook wel spannend. Hoe ga je daar mee om?
VERSMISSEN: Als die beleidsruimte expliciet gecreëerd wordt,
dat helpt al enorm,
want dan kun je ook binnen je organisatie veel makkelijker dat gesprek aangaan,
want in feite moet je dan de discussie aangaan:
valt deze binnen die 10% ruimte die we hebben?
Dat is al wat makkelijker dan als je 0% ruimte hebt
en dan toch proberen ruimte te pakken die er feitelijk niet is.
Dan nog kan er natuurlijk veel discussie ontstaan.
Wat Mark ook al zei: iedereen vindt zichzelf een maatwerkgeval uiteindelijk.
En ook binnen een organisatie hebben ambtenaren verschillende opvattingen
over waar dat maatwerk wel gepast is en waar niet.
Daar kan dat ethische gesprek weer enorm helpen.
Welke waarden vinden we belangrijk en waarom?
Hoef je ook niet altijd met elkaar over eens te zijn, kan ook niet altijd.
Maar het is belangrijk dat je op een gestructureerde manier
dat gesprek met elkaar voert om toch wel zo veel mogelijk
tot een gedragen gedeeld beeld te komen met elkaar.
ROTMAN: En hoe zie jij dat, Mark? Hoe vang je dit dan weer?
Hoe formuleer je dit dan als beleidsmaker of als leider van een team?
Hoe regel je dit dan?
-Het zou heel erg helpen
als in de wet expliciet die ruimte vastligt die Koen al aangeeft
dat de wetgever op voorhand al duidelijk maakt
dat die ruimte is er binnen bepaalde kaders.
Dat de wetgever ook wat waarborgen geeft om misbruik te voorkomen,
maar dat de wetgever ook vertrouwen geeft aan de praktijk. Dat helpt een boel.
ROTMAN: Vertrouwen in de professional.
-Durven loslaten.
Je ziet nu dat men in Den Haag soms zo op de vierkante millimeter
dingen probeert te regelen. Als de ramingen worden uitgebracht
en er valt een subdoelgroepje net onder de Haagse wenselijke cijfers,
wordt er aan een radertje gedraaid, met waarschijnlijk weer onbedoelde effecten.
Want zoals Koen al zegt, wij kunnen complexe systeem vaak niet overzien.
Maar die politicus wil wel kunnen roepen: Ik ben voor je opgekomen.
Maar de paradox is dat er vaak alleen meer complexiteit ontstaat.
ROTMAN: Ik denk meteen aan die medewerkers in de zorg.
Die klagen steen en been dat ze te weinig mankracht hebben.
Die hebben het zwaar en druk.
En dan zijn ze ook nog de helft van de tijd bezig met noteren wat ze doen.
Dan denk ik: dit is precies zo'n voor- beeld, misschien zie ik het verkeerd,
waarbij we niet vertrouwen op de professionaliteit van de medewerker.
Die weet heus wel wat hij of zij aan het doen is
en ze moeten nog steeds registreren, verantwoording afleggen.
Is dit een goed voorbeeld? VERSMISSEN: Daar zit een achterliggend
maatschappelijk probleem, wat steeds pregnanter wordt.
Dat we überhaupt weinig vertrouwen hebben,
of bepaalde delen van de maatschappij, in de overheid en in dit soort systemen.
En dat er bij bepaalde groepen in ieder geval steeds minder acceptatie is,
dat het dan ook af en toe misgaat. Dat is wel consequentie die je aanvaardt.
Als je bandbreedte creëert... De corona-regeling is 'n mooi voorbeeld.
In feite zegt Koolmees van tevoren, als je dat zwart-wit weergeeft:
'Hier gaat ook misbruik van worden gemaakt. Weten we, accepteren we.'
Maar dat is een moeilijke boodschap, want daar krijg je debat over.
Want er zijn allerlei ondernemers die...
ROTMAN: Dit vind ik wel interessant. Je kan dus accepteren aan de voorkant
dat je wat schade gaat oplopen. Je kan ruimte creëren in je beleid.
Je kan ruimte vastleggen voor maatwerk. 'Dat gaan we inbouwen.'
Je kan op de werkvloer dat gesprek aangaan.
Dus je voelt dat er heleboel ruimte is om van de regeltjes af te wijken,
als je het maar aan de voorkant doet.
Als je dat gesprek maar aangaat als het niet geregeld is.
Dus er is best veel ruimte.
JANSEN: Stel je voor wat er... Volgens mij is die hele toeslagenaffaire
ook begonnen met beelden van pinnende Bulgaren.
Er werd moord en brand geschreeuwd.
Stel je voor wat er was gebeurd als de minister toen had geroepen:
'Dit is 0,0001% van de mensen. Dit is ingecalculeerd.' Einde verhaal.
Stel je voor wat er dan was gebeurd. Of niet was gebeurd.
ROTMAN: Dat accepteren we niet.
-Daar kennelijk niet,
want het is bizar, dat dat gezonde relativeringsvermogen
van een incident, wat heel groot wordt gemaakt in de media,
vaak zonder enige context, welk deel van de betrokkenen is dit nu?
Heel veel cijfers in de media zijn zonder context
en de politiek gaat er vervolgens helemaal op los.
ROTMAN: Oké, de huiswerkopdracht van iedereen die luistert,
van ons, van de samenleving is misschien:
we gaan maatwerk proberen schaalbaar te maken
en we gaan flexibiliteit in het protocol opnemen.
Dat zijn van die paradoxen. JANSEN: Heel paradoxaal.
VERSMISSEN: En we accepteren dus
dat hoe je het ook regelt, het altijd wel ergens misgaat.
En dat soms het beste kan zijn om vooraf te accepteren
dat je het misgaan expliciet inbouwt.
Want met al die steeds complexere regeltjes wek je de illusie
dat je het onder controle hebt, maar dat is toch niet zo.
Dus je weet dan ook dat het mis gaat,
maar dat laat je dan impliciet en dat is soms makkelijker uit te leggen,
maar het leidt wel vaak tot slechtere resultaten.
En hoewel het een moeilijk gesprek is, kun je beter van te voren zeggen:
'We weten dat er handige jongens en meisjes zijn die hier misbruik van maken.
Gaat gewoon gebeuren en toch doen we het zo.'
En politici moeten durven om ook dat verhaal te vertellen.
ROTMAN: Ik denk dat we met z'n allen gaan leren leven met deze paradoxen
en ik denk dat we dat ook kunnen met z'n allen.
Als je nou denkt 'ik heb je hiermee te maken en ik weet niet wat ik moet doen'
dan bel je gewoon Koen Versmissen, eigenaar van 'Goed zo data-ethiek'.
Of je belt Mark Jansen, advocaat bij Dirkzwager,
gespecialiseerd in privacy- en IT-recht.
Die kunnen je misschien helpen. Maar er zijn zat anderen die je kunnen helpen.
Het CIP. Je luistert gewoon deze podcast nog een keer terug
en dan voel je: 'zo kan ik het misschien aanpakken'.
En daarvoor ga je naar cip-overheid.nl/uitgelicht
of uw favoriete podcastapp.
Heren, dank jullie wel.
-Graag gedaan.

Aflevering 2. Ethisch besef op de werkvloer (bij de overheid)

Aflevering twee gaat over ethisch besef op de werkvloer. Host Robin Rotman praat hierover met Anne-Marie Buis (manager van het Rijksbrede programma Dialoog en Ethiek) en Koen Versmissen (eigenaar Goedzo data-ethiek). Hoe kijken ambtenaren inmiddels aan tegen ethiek? Wat zijn de verantwoordelijkheden van de medewerker en organisatie in deze? Eén van de uitgesproken standpunten is dat je ethisch besef kunt trainen als een spier.  

Ethiek in de praktijk. Afl. 2 Ethisch besef op de werkvloer (bij de overheid)

'Hoe gaan we alle rijksambtenaren ethisch besef bijbrengen?'
Welkom bij 'Ethiek in de praktijk'. Ik ben Robin Rotman
en in deze podcastserie praat ik met experts en ervaringsdeskundigen
over data-ethiek in de dagelijkse praktijk.
Dit is een podcast van het Centrum Infor- matiebeveiliging en Privacybescherming.
'Volgens mij kun je ethisch of moreel besef
vergelijken met een spier die je kan trainen.'
Te gast vandaag Koen Versmissen, eigenaar van 'Goed zo data-ethiek',
en Anne-Marie Buis, rijksconsultant en programmamanager
van het rijksbrede Programma Dialoog en Ethiek.
We hebben twee ethische kanonnen in huis.
Anne-Marie, ethisch besef bij ambtenaren is jouw core business.
BUIS: Op dit moment wel, ja.
-Is dat leuk, interessant?
BUIS: Het is heel urgent en zeker interessant en complex,
maar ik ben blij dat ik hieraan mee mag werken ook.
ROTMAN: Hoe ik me dat voorstellen? Jij bent dagelijks bezig met nieuwe manieren:
Hoe gaan wij dat ethische besef in die haarvaten van die ambtenarij krijgen.
Dat is jouw werk?
-Ja, daar ben ik dag en nacht mee bezig.
Met een team van twaalf mensen in een programma met een kop en een staart
dat vier jaar duurt. Komt voort uit de toeslagenaffaire,
is betaald vanuit POC-geld, de parlementaire onderzoekscommissie.
Wij gaan zorgen dat er na vier jaar iets staat wat blijvend is
en wat bijdraagt aan dat ethisch besef.
ROTMAN: Heb je ook een soort einddoel? Kun je dat meten? Lijkt me lastig.
BUIS: Dat is ook heel lastig meetbaar. Hoe meet je ethisch besef?
Maar dat kan wel. En daar denken we ook over na.
ROTMAN: En Koen: 'Goed zo data- ethiek.' Dat is jouw werk, jouw bedrijf.
Dat is ook data-ethiek verspreiden.
VERSMISSEN: Ja, en vooral door
medewerkers van organisaties daarmee te laten oefenen.
Hoe voer je nou zo'n gesprek? Want zo'n gesprek vrij voeren is lastig.
Heb je wel begeleiding bij nodig, zijn methodieken voor.
We helpen mensen om op een goeie manier dat gesprek te voeren met elkaar.
ROTMAN: Dus het gaat over ethisch besef en ook in de praktijk.
Ik heb een ethisch besef. Ik signaleer bij mezelf dat ik ergens iets van vind
en voel dat er misschien iets niet goed gaat. Hoe breng ik dat onder woorden?
Hoe creëer ik ruimte om dat gesprek te voeren
met m'n leidinggevende of wie dan ook.
Dat is wat jij doet?
-Ja, zonder praktijk
heeft ethiek weinig nut.
-Ja.
Hoe is het gesteld met het ethisch besef bij ambtenaren, Anne-Marie?
Kun jij een globaal beeld schetsen?
BUIS: Ambtenaren hebben wel een ethisch besef,
maar lang was het de mores bij de overheid
dat het moraal van ambtenaar bestond uit zijn moraal thuis laten,
een soort neutraliteit.
Maar vandaag de dag is het gewoon nodig, dat ethisch besef.
In de complexiteit waarmee we nu werken,
bijvoorbeeld met data en technologie, is het belangrijk
dat we dat ethisch besef van ambtenaren ook ontwikkelen.
ROTMAN: Dat is een onuitputtelijke bron van allemaal interessante meningen
en mensen die slimme dingen kunnen zeggen.
BUIS: Volgens mij kun je ethisch of moreel besef
vergelijken met een spier die kan trainen.
ROTMAN: Dat vind ik een mooie.
Koen, werk jij veel met ambtenaren of ook met andere organisaties?
VERSMISSEN: Wel veel met ambtenaren, ja.
ROTMAN: Kun jij vergelijken hoe dat ethisch besef is bij andere organisaties?
Want ik heb zelf het gevoel dat wij een groter ethisch besef verlangen
van mensen die ambtenaar zijn, die in dienst van de samenleving zijn.
Hoe zie jij dat eigenlijk?
VERSMISSEN: Dat is wel een complexe vraag om te beantwoorden.
Van dé overheid verwachten we misschien wel meer
dan van het bedrijfsleven.
Of we daarmee ook van dé ambtenaar meer verwachten, is de vraag.
Anne-Marie zegt terecht dat dat wel meer wordt.
Dat we nu meer neerleggen bij de individuele ambtenaar.
Tegelijkertijd is er ook meer discussie over het bedrijfsleven,
dat die weleens wat meer hun verantwoordelijkheid mogen nemen.
Dat zal voor een deel ook van de indivi- duele medewerkers daar moeten komen.
Dat kun je niet alleen van de van de top van het bedrijf verwachten.
Het is een complex plaatje.
Misschien dat we van ambtenaren net wat meer verwachten
dan van het bedrijfsleven. Maar het verschil is niet zo groot
als je in eerste instantie zou denken.
ROTMAN: Anne-Marie?
-Ik denk dat je gelijk hebt.
We mogen dat van beiden verwachten. Ik denk dat dat nodig is in deze tijd,
maar ik denk toch dat de overheid het goede voorbeeld moet geven
en die moet net iets meer doen. Wat meer erin voorgaan.
ROTMAN: Even over dat ethisch besef bij ambtenaren,
waar hebben we het dan over? BUIS: Goede vraag.
Ethiek zit overal in, in beleidsvorming, uitvoering van beleid, toezicht,
maar ook in omgangsvormen onderling, in de organisatie,
naar de bewindspersonen, naar de Kamer. Ethiek zit overal in.
En als je je ermee bezig gaat houden, ga je langzaam zien wat het allemaal is,
en waar je over na zou moeten denken.
ROTMAN: Je gaat er ook blij bij kijken. Je vindt het een mooi vak.
BUIS: Ja, maar het is wel complex.
ROTMAN: En als jij naar de overheid kijkt, Koen, wat zie jij dan?
Waar is het neerzetten van dat ethisch besef het meest urgent?
VERSMISSEN: Dat is een lastige vraag. Waar ik wel een risico zie,
goed om te benoemen...
Jij noemde ook al AI en dat soort ontwikkelingen.
Daar is veel aandacht voor geweest de afgelopen tijd.
Er zijn veel frameworks, richtlijnen en principes gepubliceerd.
Waar ik risico's zie, is dat dat gaat doorschieten
richting compliance en techniek en de ethiek vergeet.
Dus dat we allerlei mooie afvinklijstjes krijgen
en richtlijnen waar we ons aan moeten houden
en dat daardoor het ethische gesprek
wat af en toe ook nog nodig is over de inzet van dit soort zaken,
op de achtergrond raakt. Dat is wel een risico wat ik zie.
BUIS: Ik denk een terecht risico.
Je kunt technologie niet voor zich laten werken,
dat blijft ook altijd mensenwerk.
Data en algoritmes hebben eigenlijk geen moraal.
Dus wij mensen moeten daar nog steeds over nadenken
en we moeten er ook altijd bij blijven.
Wat voor effect heeft het? We moeten op een stopknop kunnen drukken
als het uit de hand loopt en dan snel in kunnen grijpen.
ROTMAN: Toch een beetje die compliance,
je zou dat ook in zekere zin gestolde ethiek kunnen noemen.
Dus we vinden ergens hoe iets hoort te zijn
en dat vangen we in regels of protocollen, want dat is het juiste.
Dus dat is toch ook ethiek dan? VERSMISSEN: Dat is ook ethiek,
maar het mooie van ethiek is juist dat het je houvast biedt
in een veranderende, complexe, onzekere omgeving.
En die gestolde ethiek is altijd een...
Hoe moet je dat zeggen? Dat komt uit het verleden.
Wat in het verleden beklijft, stolt op een gegeven moment.
Maar intussen gaan de samenleving en ontwikkelingen verder.
Dat betekent dat je altijd ethische discussies nodig zult hebben
om te kijken: waar kloppen de regels eigenlijk al niet meer?
Waar zijn de zaken alweer veranderd?
De wetgeving loopt altijd achter op de feitelijke situatie.
En ook daarvoor is ethiek van belang,
maar ook omdat dat stollingsproces ook een keertje fout kan lopen.
Dus we moeten ook het gesprek aangaan over: 'Staat het goed in de regelgeving?'
ROTMAN: Anne-Marie, ik hoor Koen zeggen: het ethische gesprek.
Ik wil aan het einde wat tips en tricks. Hoe doe je dat dan?
Maar wat is wat jou betreft de ethische workflow eigenlijk?
Hoe ziet dat er dan uit in de dagelijkse praktijk?
BUIS: Je ontwikkelt beleid met een bepaalde ethische intentie.
En dan hoop je dat op particulier niveau in de uitvoering
daar nog steeds die ethische intentie in zit.
Maar dat is natuurlijk niet altijd zo,
dus je zou idealiter de feedback willen krijgen uit de uitvoering
terug naar het beleid, om zo het beleid aan te scherpen of te nuanceren.
Je zou een constante feedbackloop willen krijgen uit de praktijk
terug naar het beleid.
ROTMAN: En dat begint dan bij het moment dat een idee geboren is
en dan gedurende het proces en tot aan het eind dat het een concreet ding is,
dan nog steeds die feedback?
-Ja.
Een voortdurende feedbackloop vanuit praktijk richting beleidsvorming.
Ik denk dat ethische reflectie in de vorm van bijvoorbeeld de dialoog,
onderdeel zou moeten zijn van de werkpraktijk van rijksambtenaren.
Dus dat ambtenaren een deel van hun tijd die ze besteden
aan spreken over de inhoud van het werk, want daar wordt veel over gesproken,
ingeleverd wordt voor het goede gesprek over:
'Zijn we de goede dingen aan het doen? En wat is het goede dan?'
Dat is iets nieuws, dat moeten we leren.
We merken in de praktijk, we begeleiden die gesprekken, dat 't heel vermoeiend is.
Maar nogmaals, het is een spier, zei ik net,
en die spier moeten we trainen.
ROTMAN: En gedurende het hele proces
moet dat ethische gesprek gevoerd kunnen worden.
Vanaf het moment dat het idee geboren is totdat het geïmplementeerd is
en dan nog steeds door kunnen blijven praten.
Moet dat constant ingebouwd worden?
-Ja, ik zou het liever noemen:
morele oordeelsvorming, waar we aan werken.
Dus je brengt je eigen oordeel, je eigen standpunt of je eigen inzicht in
en dat bespreek je met elkaar en zo kom je tot nieuwe gedeelde inzichten
en daar handel je ook naar. En dat is niet gestold.
Dat kan verschillen per keer. Daar moet je aan blijven werken.
ROTMAN: Een soort organisch proces.
-Ja.
Ik wil straks even kijken hoe je dat praktisch kan doen.
Hoe je dat soort gesprekken daadwerkelijk kan voeren, Koen.
Want jij traint mensen en jullie zijn er allebei op je eigen manier mee bezig.
Koen, heb jij een voorbeeld waaruit blijkt
waar het in de praktijk nodig is bij de overheid
dat jij zegt: ja, dat zijn van die zaken, daar gaat het over.
VERSMISSEN: Een goed voorbeeld is de schuldenproblematiek.
Steeds meer mensen hebben problematische schulden.
Daar wordt al op een goede manier over gesproken in ethische termen.
Maar dat zou nog wel meer kunnen. Dan denk ik concreet aan de ideeën
voor een landelijke schuldenregistratie die er al heel lang zijn
en die om privacyredenen tot nu toe steeds gestrand zijn.
Je moet ook niet lichtvaardig tot zoiets besluiten,
maar ik denk dat er weer eens een wat breder ethisch gesprek mag komen
over de voordelen van zo'n registratie
en hoe je het op een verantwoorde manier toch zou kunnen inrichten.
ROTMAN: Dit is ethiek, want je hebt kwetsbare mensen.
Je hebt mensen die zich misschien schamen.
Je wil ze als overheid helpen, maar je wil ook niet te opdringerig zijn.
Je wil een systeem bouwen, niet ten koste van de privacy.
Dus je hebt allerlei verschillende be- langen en afwegingen die je moet maken.
Dit is leuk, Anne-Marie. Hier kan je lekker mee aan de slag.
BUIS: Zeker. We hebben het gebruik van data
vooral natuurlijk bij de Rijksoverheid van binnenuit vaak georganiseerd.
Dus eerst denkend aan hoe het de overheid kan helpen en ten dienste is.
Maar ik denk dat we het moeten omdraaien
en beginnen bij de burger
en vanuit daar redeneren hoe we dat dan het beste kunnen vormgeven.
Dat je de burger daarbij betrekt ook en daarin transparant bent
en de burger meeneemt in dit soort processen.
ROTMAN: Nu zitten we al gelijk in termen van oplossingen te praten.
Want jij zegt eigenlijk: Je kan het inbouwen.
Je kan die feedbackloop zo organiseren
dat je steeds gedurende het proces feedback kan geven.
Maar jij zegt: het begint al bij: hoe vlieg je een probleem aan?
Je moet misschien vanuit de burger gaan denken.
Dat is stap 1 dan?
-Dat denk ik zeker.
ROTMAN: Wat zijn nog meer dingen hoe je dit aanvliegt, Koen?
Wat kan je nog meer doen? Vanuit de burger is stap 1, en dan?
VERSMISSEN: Het is met name toch goed om expliciet te benoemen:
het gesprek voeren. Dus niet in termen van gestolde regels,
maar altijd dat gesprek blijven voeren, heel belangrijk.
En wat denk ik ook heel belangrijk is om ethiek op een goeie manier te doen,
is dat het een dialoog wordt en geen discussie.
En daarvoor is ook weer nodig dat je het op een goeie manier begeleidt.
Dus wat dat betreft is het mooi dat er nu zo'n programma loopt
om uit te vogelen hoe dat werkt in de praktijk.
Wat werkt er wel en wat niet. Er zijn al verschillende methodieken voor
en hoe zorg je ervoor dat er een echte dialoog ontstaat
waarbij mensen echt naar elkaar luisteren en ook bereid zijn
om soms van standpunt te veranderen, als daar reden toe is.
ROTMAN: Maar ik kan me voorstellen dat het spannend is, want voor je 't weet
ben je een soort klokkenluider, sta je lijnrecht tegenover je organisatie.
Klokkenluiders hebben het altijd zwaar. Dat zijn altijd mensen
die misschien wel moreel gelijk hebben, maar worden vermalen door het systeem.
Die hebben het zwaar. Maar je bent natuurlijk geen klokkenluider.
Je bent gewoon iemand die betrokken is, toch?
Is dat een spanning die jij voelt in de praktijk?
BUIS: Ja, we hebben onderzoek laten doen
onder rijksambtenaren naar morele vragen
en het merendeel loopt regelmatig rond met morele twijfel, zelfs buikpijn.
Het blijkt in de praktijk echt moeilijk om daar het gesprek over te voeren.
De organisaties zijn over het algemeen
niet echt ontvankelijk voor dit soort vragen.
Dit vereist echt een dialogische cultuur om dat te gaan onderzoeken.
ROTMAN: Dialogische cultuur, wat een goed woord.
Koen, dialogische cultuur. Dit is jouw werk, mensen trainen
om in een dialogische cultuur aan een gesprek deel te nemen.
Hoe ziet zo'n dialogische cultuur er concreet uit?
VERSMISSEN: Aan de hand van concrete cases.
Dus niet in abstracte termen blijven spreken,
pak er een concrete casus bij waar je het over gaat hebben,
vanuit verschillende invalshoeken. Dat is ook belangrijk.
Er moet een jurist aan tafel zitten, een techneut, een beleidsmaker.
Vanuit zo veel mogelijk verschillende kanten mensen erbij betrekken.
En wat ik zei: niet ins Blaue hinein praten, maar wel op geleide manier
om te voorkomen dat het alle kanten opgaat en soms ook nergens heen gaat.
Ik denk dat dat belangrijke ingrediënten zijn
om een gesprek te voeren, waar misschien niet altijd concrete...
Misschien is dat ook wel 'n voorwaarde, dat je niet per se als einddoel hebt
dat er 'n oplossing of conclusie uit komt.
ROTMAN: Eerst maar eens praten.
-Want bij ethiek hoort ook
dat je soms na een ethisch gesprek nog meer vragen hebt
en dat het ingewikkelder in plaats van simpeler is geworden en opgelost.
Hopelijk niet altijd, maar het kan soms wel gebeuren. Die ruimte moet er ook zijn.
ROTMAN: Nog iets concreter dan:
Is dit gesprek tijdens de reguliere vergadering op maandagochtend
of is het een apart vergadermoment? 'Nu is er ruimte voor ethiek.'
Of is dit: 'Ik stap naar m'n baas. Ik heb een beetje buikpijn vanwege dat project.
Ik voel dat het niet lekker loopt.'
En dan ga je dat gesprek optuigen met alle stakeholders.
Rotwoord, maar je begrijpt wat ik bedoel. Hoe ziet dat er concreet uit?
Of kunnen al deze scenario's? VERSMISSEN: Ik denk allemaal.
Het is allemaal belangrijk,
maar ik denk wel dat je dat ingeplande concrete ethische overleg
in ieder geval geregeld moet hebben om ook die andere dingen soepeler te maken.
Dat men zich ook vrij voelt om tijdens een werkoverleg
ook eens de hand op te steken en te zeggen:
'Wacht even, waar zijn we nou mee bezig?'
ROTMAN: Dus het is heel concreet op de werkvloer.
Maar jij, Anne-Marie, moet dus zorgen dat die nieuwe cultuur ontstaat.
Dus ik neem aan dat jij je iets meer wendt tot de leidinggevende
en de leidinggevende van de leidinggevende
om dit als een soort olievlek uit te spreiden.
Hoe ziet jouw werk er dan uit? Hoe regel jij dit?
BUIS: Ons werk lijkt wel een beetje op elkaar.
Maar ik denk dat je op verschillende vlakken hieraan zou kunnen werken.
We zijn bijvoorbeeld een pool van 1000 gespreksleiders aan het opleiden
bij de Rijksoverheid en op aanvraag kunnen gesprekken begeleid worden.
Maar wij denken ook dat je dit in leiderschap in zou moeten bouwen.
Dus leiders zouden hier ook moeten kunnen omschakelen
naar een andere vorm van gesprek als zij zien dat dat nodig is.
Dus die zouden die vaardigheden echt moeten aanleren.
ROTMAN: We hebben al 'n paar concrete tips en delen van oplossingen genoemd.
Denk vanuit de burger. Maar dan toch die leiders,
zij moeten dus de ruimte creëren voor mensen om zich veilig te voelen
om iets te roepen zonder dat ze meteen klokkenluider zijn,
dat die cultuur ontstaat. Dat is best wel ingewikkeld.
Mensen hebben het allemaal druk. We hebben te veel werk te doen
en dan moet je ook nog ruimte en tijd
en rust vinden om mensen dit soort gesprekken te laten voeren.
Zit daar spanning? BUIS: Zeker,
maar het is ook zo dat juist wanneer je als een dolle aan het rennen bent
dat je even pas op de plaats maakt en denkt: wat zijn we hier aan het doen?
Want als je er echt goed over nadenkt en met elkaar het gesprek voert,
denken wij dat zich dat loont.
ROTMAN: Dat gaat zich terugbetalen.
-Ja.
Wij zijn als een gek aan het rennen en de politiek aan het bedienen
en bezig met de Kamerbrieven en verantwoording en zo.
En ambtenaren geven ook aan:
'De dingen die ik zou willen of moeten doen, daar kom ik soms niet aan toe.'
VERSMISSEN: Wat we nodig hebben is een andere term dan 'klokkenluider'.
Daar zit een negatieve connotatie aan.
Want, volgens mij probeer jij dat ook te bereiken,
het is positief dat mensen kritisch meedenken
en ook dingen ter discussie durven te stellen binnen hun organisatie.
Ik heb niet direct iets paraat,
maar kunnen we niet een andere term vinden
die juist die positieve bijdrage van kritische ambtenaren benadrukt.
ROTMAN: In algemene zin geloof ik niet
dat nieuwe woorden of semantiek ons gaat redden,
maar in dit geval geloof ik wel dat de term klokkenluider iets is...
Je bent pas klokkenluider in mijn optiek
als je alle ethische gesprekken hebt gevoerd
en iedereen z'n zegje heeft gedaan en je hebt het al goed gedaan.
En als dan nog steeds blijkt dat er iets grondig mis gaat,
dan word je misschien een klokkenluider, maar dat is een soort last resort.
We praten nu over het proces, maar het gesprek moet altijd gevoerd worden.
Ik geloof dat daar wel een soort terminologie op z'n plek is.
Heb jij daar ideeën voor, Anne-Marie? BUIS: Je zegt net
dat alle gesprekken gevoerd zijn
en pas dan ga je naar het Huis voor Klokkenluiders.
Maar die etnische gesprekken worden nu nog niet gevoerd.
Als je zorgt dat dat een cultuur is, dat het onderdeel is van een werkpraktijk
en je zorgt ervoor dat er ergens een infrastructuur is
waar die uitkomst van die nieuwe inzichten uit die gesprekken
een weg vinden in de praktijk of in een beleid,
dan zijn we heel goed bezig, denk ik. ROTMAN: Hartstikke goed.
Tot slot. Er is een hoop werk aan de winkel.
Jij bent goed bezig om een soort systeem te bouwen waarin dit normaal is.
Als ik nu ergens op een ministerie of gemeente werk:
ik ben ambtenaar en ik heb het gevoel 'hier gaat iets mis',
maar ik durf niet zo goed. Ik ben bang, misschien wel voor m'n baan
en ik heb een dominante leidinggevende. Ik voel me niet veilig.
Ik heb het geprobeerd. Ik krijg niet de respons die ik wenste.
Hoe pak je zoiets op dit moment aan, Koen?
Hoe creëer je je toch als betrokkene zo'n gesprek?
VERSMISSEN: Wat jij schetst, dat je niet naar je leidinggevende kan,
dan zit je al in een moeilijke situatie. En zul je denk ik toch op zoek moeten
naar mensen die je kent in de organisatie waarvan je het oordeel respecteert
om even te toetsen of je het wel goed hebt.
Het kan best zijn dat je bepaalde dingen over het hoofd ziet,
maar op het moment dat blijkt dat anderen jouw visie delen,
ontstaat daarmee ook een bepaald soort groepsvorming
en samen sta je sterker en dan kun je wellicht toch een weg vinden
om iets wel aan te kaarten binnen je organisatie. Maar het is niet makkelijk.
ROTMAN: Stel je kwetsbaar op. Neem iemand in vertrouwen.
Leg het rustig uit en probeer... Ben je het eens met deze tip?
BUIS: Voor nu wel. Uiteindelijk wil je dat je dit wel kunt bespreken
met je leidinggevende in je team, dat daar de ruimte voor is.
Dat is nu vaak nog niet het geval, maar je moet ergens beginnen.
Dan lijkt me het vierogenprincipe,
dus eerst kijken 'hoe denkt de ander hierover? Ligt het aan mij?',
dat je dat kunt delen en dan een coalitie vormen.
Ik vind het geen slechte tip. Er is ook altijd nog de vertrouwenspersoon.
De officiële weg die je kunt volgen. Of een integriteitscoördinator,
integriteitspersoon van de afdeling. Dat zijn nu de gebaande wegen,
maar wij van Dialoog en Ethiek en de beweging Dialoog en Ethiek
willen dat dit gewoon besproken kan worden in het team met leidinggevenden.
ROTMAN: Misschien ook een kwestie van de stoute schoenen aantrekken.
Gewoon naar een leidinggevende en zeggen:
'Even wachten. Ik wil even een kopje koffie met je drinken.
Ik loop hiermee rond en ik vind het heel moeilijk om te zeggen.
Ik heb niet het gevoel dat er geluisterd wordt. Ik wil nu echt even wat kwijt.'
VERSMISSEN: Je legt het te veel bij de ambtenaren.
Het moet bij de organisatie liggen en gefaciliteerd worden
en dat doe je op verschillende manieren. Je moet mensen bewust maken.
Er moet een vertrouwenspersoon of integriteitscommissie zijn.
Er moet een methodiek zijn voor hoe je
binnen je organisatie over ethische vraagstukken praat.
Zo zijn er allerlei zaken die je in je organisatie moet regelen
die ook helpen om een cultuur te creëren
waarin mensen makkelijker naar hun leidinggevende stappen
en ze nog een uitweg hebben
als ze zich daar toch niet comfortabel bij voelen.
ROTMAN: En nu is ie rond, want dat ben jij aan het doen.
Dat is de cultuur die jij nu bouwt. BUIS: Ja.
Kunnen wij niet alleen natuurlijk, daar hebben we iedereen voor nodig.
ROTMAN: Ik heb het gevoel dat het ethisch besef bij ambtenaren
bij jullie in goede handen is. Ik geloof wel dat dat gaat werken.
Dank jullie wel, Koen Versmissen, eigenaar van 'Goed zo data-ethiek'.
Succes met je mooie werk.
En Anne-Marie Buis, rijksconsultant programmamanager,
rijksbrede Programma Dialoog en Ethiek.
Succes met alle mooie dingen die je doet.
En wil je nou meer informatie over ethiek, data-ethiek,
luister ook de andere afleveringen, superinteressant.
Allemaal leuke mensen die hele slimme dingen zeggen.
Ga naar cip-overheid.nl/uitgelicht of je favoriete podcastapp.
Dank jullie wel.

Aflevering 3. Ethiek en interne weerstanden

Te gast in deze podcast zijn Enrico Viscione (A&O Fonds Rijk) en Alex Corra (SVB). Hoe bescherm je medewerkers die een tegengeluid willen laten horen? Interne, loyale tegenspraak is té waardevol voor organisaties om te onderdrukken. Host Robin Rotman gaat met hen in gesprek; hoe geef je hier ruimte aan en kan je dat structureel faciliteren?

Ethiek in de praktijk. Afl. 3 - Ethiek en interne weerstanden

'Hoe bescherm je medewerkers als ze een tegengeluid willen laten horen?'
Welkom bij 'Ethiek in de praktijk'. Ik ben Robin Rotman
en in deze podcastserie praat ik met experts en ervaringsdeskundigen
over data-ethiek in de dagelijkse praktijk.
Dit is een podcast van het Centrum Infor- matiebeveiliging en privacybescherming.
'Als organisatie kan je niet zonder die tegenspraak,
om de doodeenvoudige reden dat je op dat moment optimaal gebruik maakt
van de professionaliteit van je kostbaarste kapitaal, je medewerkers.'
ROTMAN: Te gast vandaag: Enrico Viscione,
projectleider loyale tegenspraak bij A+O fonds Rijk.
Zeg ik dat goed?
-Helemaal prima.
En Alex Corra, beleidsadviseur recht en ethiek bij de SVB en voorzitter
van de domeingroep ethiek bij het CIP.
-Leuk om er te zijn.
Enrico, we hebben het over bescherming van medewerkers met een tegengeluid
en jij bemoeit je met loyale tegenspraak. Dat klinkt mooi, maar wat is het?
VISCIONE: Loyale tegenspraak is een term die uit de cao kwam,
een cao die 1,5 jaar geleden overeengekomen is.
Daar is de term loyale tegenspraak voor het eerst genoemd.
En wij zijn bij het A+O fonds Rijk een project gestart
om invulling te geven aan die term. Wat is dat nou?
En bij ons is dat loyaal zijn aan je eigen professionaliteit en de samenleving
en zo binnen de organisatie tegenspraak leveren.
ROTMAN: Maar als je een tegengeluid wil laten horen...
Je hebt een kritisch geluid, je bent het niet eens met de baas of een project.
Het zint je gewoon niet dat je dat gewoon kan uiten
zonder dat je het gevoel hebt: nu zien ze mij als niet-loyaal.
Tegenspraak is dus nog steeds loyaal. Dat biedt ook een soort veiligheid.
Dat zit er ook in. Klopt dat?
-Dat zeker.
Loyale tegenspraak richt zich ook op de grotere zaken,
dus niet 'ik ben het niet eens dat mijn vakantie wordt afgewezen'.
Het gaat echt om zaken die jou als medewerker treffen,
waarin je dus in je eigen professionaliteit geraakt wordt.
ROTMAN: En dan A+O fonds Rijk. Wat is dat?
VISCIONE: Een arbeidsmarkt- en opleidingsfonds voor de Rijksoverheid
waar ministeries en alle rijksambtenaren zich aan kunnen melden
voor bijvoorbeeld loopbaanadvies, verschillende projecten,
waaronder het project loyale tegenspraak.
ROTMAN: Alex, je bent de ethische fijnproever.
Ik ben altijd blij als je bij me aan tafel zit.
Wij stellen best wel hoge eisen aan organisaties
en dan moeten ze ook nog met ethiek aan de slag.
Even een peptalk, alsjeblieft.
CORRA: Nou, in feite moesten we het altijd al
en gaat het erom dat je als overheids- organisatie het goede aan het doen bent
en publieke waarde aan het realiseren bent.
En het heeft ook gewoon te maken met je gezonde verstand gebruiken.
Dus het hoeft niet zo moeilijk te zijn om ook met ethiek aan de slag te gaan.
Vaak gebeurt het te laat en als je het veel eerder doet
en eerder kritische vragen gaat stellen en eerder luistert naar kritische geluiden
die in je organisatie naar boven komen,
dan hoeft het niet moeilijk te zijn om met ethiek aan de slag te gaan.
ROTMAN: Want kennelijk is een tegengeluid laten horen
of de mogelijkheid om dat te kunnen doen
of de veiligheid ervaren dat daar ruimte voor is helemaal niet zo vanzelfsprekend.
CORRA: Nee, en wat het gauw is: de overheid voert veel projecten uit
en dat willen we op een efficiënte manier doen.
En als er dan iemand opeens zegt 'kan dit wel?',
'is dit wel slim? moet je dit wel willen? mag dit wel?'
daar zijn sowieso reguliere kanalen voor,
maar als iedereen dat de hele tijd blijft doen, heb je ook geen voortgang.
Dus het is ook een spanningsveld tussen
'hoe krijg je dingen in beweging en hou je ze in beweging?'
en 'hoe geef je ruimte om ook kritisch te zijn op wat je doet?'.
We worden erg gedreven door resultaatgericht werken.
En als je resultaten wil behalen, moet je ook voortgang en beweging houden.
Dus men vindt het lastig om dan van iemand te horen:
'Heb je hier wel rekening mee gehouden of heb je dit wel gedaan?'
Of: 'Ik vind dat het anders moet.'
Soms moet je ook gewoon een bepaalde richting kiezen.
Dus dat blijft een lastige dynamiek.
ROTMAN: Wat is jouw gevoel, Enrico, als het gaat over die tegenspraak
en de ruimte die er is bij een organisatie.
Is het dan meer dat de medewerker het gevoel heeft: 'oeh, dit is niet handig.
'dit mag niet, ik voel niet zoveel ruimte', terwijl die er misschien wel is
of is het inderdaad de leidinggevende die de ruimte niet biedt?
Het is ook een beetje perceptie, natuurlijk. Of je dapper genoeg bent
of zelf guts genoeg hebt om gewoon je gut feeling te volgen
en een tegengeluid te laten horen. Waar zit het allemaal, dit?
VISCIONE: Eigenlijk alles wat je zegt, klopt.
Het is niet het een of het ander.
Het hangt heel erg van de organisatie af waar je bent
wat de reden is waarom het gevoel,
of het is dat er geen tegenspraak geleverd kan worden
of waar er feitelijk gewoon geen tegenspraak geduld wordt.
Je hebt organisaties waarin heel erg een hiërarchische lijn is
waarin gewoon niet gebruikelijk is
dat mensen iets tegen de leidinggevende zeggen of hogerop.
Daar komen dan van die ongeschreven regels bij.
Iedereen kent dat wel als je binnenkomt bij een organisatie
en je bent net een week binnen
dat collega's al tegen je zeggen: 'Nou, ik zou me maar niet...'
ROTMAN: Niet te hoog van de toren blazen.
VISCIONE: Ga maar niet naar Pietje Puk, want die heeft soms een slechte dag.
Dat kan een reden zijn. Het kan ook zo zijn
dat de organisatie zegt dat ze wel degelijk tegenspraak willen,
maar vervolgens helemaal niks met die tegenspraak doen
of die professionaliteit van die mede- werker niet meenemen in hun afweging.
ROTMAN: Dan zeggen ze wel dat ze het doen, maar doen ze het eigenlijk niet.
VISCIONE: Precies, dat.
Dus wij hebben binnen het project verschillende dilemma's benoemd
een tiental dilemma's die je gewoon kan teruglezen daar.
Een van die dilemma's bijvoorbeeld die mensen ook hebben,
is dat bij sommige organisaties ook gewoon een afrekencultuur heerst,
waar als jij je mond opentrekt, denk maar niet dat je dan carrière gaat maken.
ROTMAN: Die welbekende angstcultuur krijg je dan.
VISCIONE: Nogmaals, dat hangt erg af van de organisatie waar je bent
en wat de reden is waarom tegenspraak moeilijk is.
ROTMAN: En wat Alex nu omschrijft? Het moet efficiënt, het moet snel.
Er is misschien weinig ruimte om fouten te maken.
Die oogkleppen. 'We willen wel dat er ruimte is,
maar eigenlijk hebben we er geen tijd voor, dat gedoe met lastige medewerkers
die ook overal wat van vinden.' Is dat ook iets wat je signaleert?
VISCIONE: Ja. De werkzaamheden binnen de verschillende ministeries,
ook als ik dat zo bezie, zijn ook complex geworden.
Ze zijn ook lastiger.
Dat betekent dat ook veel systemen taken hebben overgenomen.
En dat maakt het voor de medewerker soms ook lastig
om nog zijn of haar rol daarin te vinden.
ROTMAN: Hoe verhoud ik me tot...
-Wat kan ik nog doen?
Welke ruimte heb ik nog als medewerker om daarin iets te doen?
Dan zie je dat tegenspraak leveren ook gewoon essentieel is
om dat goed te laten verlopen, maar dat dat niet gebeurt.
ROTMAN: Herken je dit, Alex? Dat de opkomst
of een introductie van technologie, datatechnologie,
dat die medewerker een beetje zoekt: wie ben ik hier eigenlijk nog?
En dat er misschien niet genoeg over gepraat wordt wat we gaan we doen?
CORRA: Absoluut. Wat je zag...
We zijn al jaren digitaliseren
en de mens wordt soms ook wel als de zwakke plek in het proces gezien
vanuit dat perspectief.
Dus dan haal je het denken en de keuzemogelijkheden bij de mensen weg
en die stop je in het proces, want dat herhaalt zich altijd goed.
Dat kan je heel mooi controleren,
dus daar kan je ook beperkte opties in geven,
zodat je altijd weet waar de uitkomsten terechtkomen. Dat heeft ook voordelen.
Stroomlijnen en optimaliseren kun je prachtig in systemen doen.
Alleen daarin zijn we soms wel doorgeslagen
en nu zie je juist in deze tijd weer veel meer aandacht voor:
hoe houden we nou rekening met die menselijke maat?
En dat vraagt ook dat de mensen die in dat proces aan het werk zijn
en beslissingen moeten nemen, daar de ruimte voor krijgen
en ook de capaciteiten, en een van die capaciteiten die je ook moet hebben,
is kritisch feedback kunnen geven, om het zo te zeggen.
Je moet een tegengeluid kunnen laten horen, maar dat vraagt ook weer
dat er aan de andere kant iemand openstaat
voor het ontvangen van dat geluid. Dat vraagt competenties
aan de kant van de professionals, maar ook aan de kant van het bestuur
en degene die het gezag organiseert, om het zo te zeggen.
ROTMAN: Wat is jullie indruk? Verschillen overheidsorganisaties
en commerciële bedrijven in de mate van vrijheid om een tegengeluid te laten horen
of gaan ze steeds meer op elkaar lijken? Wat zegt jullie gevoel?
VISCIONE: Vind ik lastig, omdat ik weinig ervaring heb met bedrijven,
maar ik kan me niet aan de indruk onttrekken
dat ook in heel bedrijven precies ditzelfde speelt.
Als ik naar mijn eigen ervaring kijk van een ver verleden
bij een oliemaatschappij,
daar was nou ook niet echt de algemene gang van zaken
dat je de directeur tegensprak of dat je daar een kritisch geluid liet horen.
Dat was wel ook weer een hele hiërarchisch ingerichte organisatie.
Dat hangt dus erg af van waar je binnen die Rijksoverheid bent wat het effect is.
CORRA: Wat je gezien hebt, ook weer in de afgelopen decennia,
is dat er veel meer zakelijk werken bij de overheid is geïntroduceerd.
Het moest meer zoals in de commerciële sector.
Dus ik denk dat daardoor die culturen meer vergelijkbaar zijn geworden.
Het gaat om output. Je wordt afgerekend op resultaten.
Wat op zich prima is. ROTMAN: Targets.
CORRA: Maar dat zijn altijd beperkte reflecties van de realiteit
en daar moet je dus ook rekening mee houden.
Het is prachtig om een dashboard te hebben met mooie groene smileys,
Maar wat zit erachter? Wat betekent dat nou echt?
En hoe vertaalt zich dat tot de ruimte die een professional heeft
om rekening te houden met een burger? Daar moet je ook goed over nadenken.
ROTMAN: Waarom is tegenspraak eigenlijk zo belangrijk?
Waarom moeten we dat cultiveren en koesteren, Enrico?
VISCIONE: Een goede vraag. Tegenspraak, waarom is dat belangrijk?
Als organisatie kan je niet zonder die tegenspraak
om de doodeenvoudige reden dat je op dat moment,
zoals wij 'm interpreteren, die loyale tegenspraak,
optimaal gebruikmaakt van die professionaliteit
van je kostbaarste kapitaal, je medewerkers.
En dat wordt nog weleens vergeten. Juist die kennis,
die kunde, van die ambtenaren... Die hoeven er niet eens lang te werken,
maar die echt wel met veel bagage komen,
die moet je gewoon gebruiken. Zet die in.
CORRA: Ja zeker. Wat je ziet is dat,
zeker dat kritische denken, ook vanuit de mensen in de uitvoering
die met hun voeten in de klei staan, om het zo te zeggen,
dat is allemaal informatie die niet zo makkelijk in zo'n dashboard terechtkomt.
En juist dat soort informatie die dichter in contact staat met de realiteit
heb je nodig om ook in te zien dat iets bijvoorbeeld iets niet goed loopt
en dan kan je beter denken: beter halver- wege gekeerd dan ten volle gedwaald.
Maar daarvoor moet je wel dat signaal hebben gekregen.
Dus moet dat geluid ergens die organisatie in gekomen zijn
en niet afgeketst zijn op een leemlaag van hiërarchie
die eigenlijk ongemak voelt bij iets wat niet past binnen het projectplan
of binnen de visie die men heeft. 'Dat is toch gedoe?
Moeten we daar weer een gesprek over voeren
maar we hadden het zo mooi in het plan staan'. En dan komt er weer iemand
met zo'n tegengeluid wat misschien juist iets reflecteert wat je niet verwacht had.
ROTMAN: Ik wil eigenlijk voorbeelden, Enrico,
maar voordat die voorbeelden komen nog wel even Alex.
Jij bent natuurlijk voorzitter van die domeingroep ethiek bij het CIP.
Wat zijn dan de ethische zaken die spelen
als het gaat over het gebrek aan openheid of transparantie
of de vrijheid voelen om... Je noemde één ding.
We hebben het nu over de manier waarop de organisatie geregeld is.
Dat is een ding. Maar als het gaat over de casussen,
gaat het dan over privacy? Waar hebben we het eigenlijk over in de praktijk?
CORRA: Het kan van alles zijn.
Soms moet je ook afwegingen maken tussen verschillende waarden?
Privacy aan de ene kant of professionele vrijheid aan de andere kant.
Vaak zit het er toch in dat je op een bepaalde manier een visie hebt
voor hoe de realiteit zou moeten werken,
daar een systeem voor bouwt, regels of een computersysteem,
en daar wordt je ook misschien een beetje verliefd op.
Het is dan goed om mensen te hebben die jou helpen
of eigenlijk terugbrengen bij hetgeen 'wat moet je nou doen?'
en dan zeggen: Is dit wel zo slim? Moet je dit wel willen?
En hoe meer je tegengeluiden van anderen hoort,
hoe beter je ook gedwongen wordt om na te denken over waarom je iets wil
en wat jouw verhaal is waarom je het wel wil.
Vaak hebben we een prachtig verhaal waarom we iets willen,
maar is dat toch niet helemaal goed uitgedacht
in de zin dat alle tegengeluiden een weerwoord hebben gekregen.
En dat hoeft ook niet altijd, maar het scherpt je al
om een beter verhaal te hebben waarom je bepaalde keuzes maakt,
dus daar moet je gebruik van maken. Dat is heel waardevol.
ROTMAN: Kom eens met een concreet voorbeeld, Enrico.
Een ministerie, kom eens met iets leuks.
VISCIONE: Er zijn bij ons via het project verschillende verhalen binnengekomen
die ook op de website staan.
Eén verhaal is van een nieuwe ICT-medewerker
die bij een ministerie naar binnen kwam
en die medewerker had al ervaring en kwam bij dat ministerie werken
en zag dat daar een computerprogramma geïntroduceerd zou gaan worden
waar hij of zij al slechte ervaringen mee had.
Of in ieder geval wist dat daar wat problemen mee waren.
ROTMAN: Een klassieker. Wat je net omschreef. Je bent nieuw.
Eigenlijk heb je er heel veel verstand van en je wil je laten horen.
Je voelt een enorme drive. En dan.
-Precies.
Diegene ging naar de leidinggevende en zei:
'Hier heb ik al ervaring mee. Weten we het heel zeker?
Hebben we hieraan gedacht, daaraan gedacht?
Weten we, of: weet dat er elders problemen met dat programma zijn.'
En dat werd dan door die leidinggevende op dat moment weggewoven met:
'Het zal wel meevallen.' Ook een beetje met de zweem van: je komt hier net kijken.
'Dus wat weet jij nou eigenlijk,
want je hebt helemaal niet in de gaten waar het hier om gaat.'
Dus op die manier zie je dat die tegenspraak in de kiem gesmoord wordt,
die medewerker waarschijnlijk de volgende keer dat ie iets wil zeggen,
wel twee of drie keer nadenkt.
ROTMAN: En die andere collega's zien ook wat er gebeurt.
VISCIONE: En als organisatie laat je de mogelijkheid eigenlijk lopen
om iets te leren.
Kijk, ik wil niet zeggen dat diegene gelijk had. Dat weet ik niet.
Het kan zijn dat dat programma hartstikke goed werkt op dat ministerie.
Maar wat je verwacht en wil van zo'n leidinggevende
is dat er een geïnformeerde
of in ieder geval een beargumenteerde reactie komt over waarom wel of niet.
Zo is die medewerker ook gewoon meer tevreden
met hoe de tegenspraak is gegaan.
Want dan heb je in ieder geval feedback gehad
en dan ben je meer geneigd om het de volgende keer te zeggen,
want je weet dat het veilig is en dat je een dialoog aangaat.
ROTMAN: En als je mazzel hebt, pas je het systeem aan
en dan gaat alles nog beter werken ook.
-Precies.
ROTMAN: Dit is wat jij net zei. CORRA: Ja, en los daarvan:
het is ook zo... Wat jij zegt, het gevoel van gehoord zijn
en ook serieus genomen zijn als je een geluid laat horen
wat net even anders is dan het mainstream geluid.
Dat is juist belangrijk om ervoor te zorgen dat mensen dat blijven doen.
Als jij afgekapt of afgesnauwd wordt of het wordt niet relevant gevonden
en daarna gaat het toch mis, dan krijg je 'I told you so'.
De mensen die in zo'n situatie terechtkomen, trekken zich gewoon terug.
Die denken: ik doe wel wat van me gevraagd wordt,
maar ik krijg niets extra's doen. ROTMAN: Passieve medewerkers.
CORRA: Dat is zonde en funest voor je organisatie.
ROTMAN: Ander voorbeeld.
VISCIONE: Een ander voorbeeld dat we ook op de website hebben,
is van de Belastingdienst,
waar een gedeelte van de werkzaam- heden bij de incasso opgesplitst werd.
Dus de medewerkers kregen niet meer het hele beeld te zien,
maar kregen stukjes daarvan
en een ander gedeelte werd door data of een systeem overgenomen.
Wat je ziet, is dat de medewerkers
tegen de leidinggevenden en het management zeiden:
'Jongens, zo kunnen wij op dit moment geen maatwerk meer leveren.
Zo kunnen we onze werk niet meer goed doen,
want wij zien maar een klein gedeelte.'
Daar is toen ook een brandbrief over geschreven naar het management.
ROTMAN: Dan was het wel serieus, waarschijnlijk.
-Zeker, maar dat betekent ook
dat het echt speelt bij die medewerker,
want dat doe je niet zomaar. Nou, dat is gestuurd.
Vervolgens hebben de leidinggevenden gezegd:
'Daar gaan we naar luisteren, daar gaan we iets mee doen.
En we zijn nu een aantal jaar verder en er is niks mee gedaan.
Dus ook hier zie je weer: het is funest voor jou als organisatie
dat je ook daadwerkelijk iets doet met die tegenspraak
en dat je ook echt iets terugkoppelt aan degene die die tegenspraak levert.
ROTMAN: Het is misschien nog wel erger dat je zegt:
'Kom maar met je tegenspraak. We luisteren naar je.'
en dat er vervolgens niks gebeurt.
Oké, dus dit zijn de verhalen.
Er is bij de Belastingdienst een voorbeeld waarbij een medewerker
ergens iets van vindt en misschien z'n verhaal wel kwijt kan,
maar dat er niets mee gebeurt. Van de koude kermis thuis,
Brandbrieven, gedoe, stress.
Er wordt gepraat bij de koffieautomaat, iedereen is ermee bezig.
VISCIONE: De ruimte is er wel, maar er wordt niet goed mee omgegaan.
ROTMAN: En die nieuwe medewerker die niet serieus genomen wordt
vanwege een gebrek aan credibility die er nog niet is, whatever.
Je luistert nu een podcast en je weet nu: tegenspraak is belangrijk.
Je voelt het ook in je gut feeling.
En je hebt natuurlijk ook dat stemmetje:
'Je hebt altijd van die zeurende medewerkers.'
Dat blijft natuurlijk bestaan. Concrete tips van jullie beiden:
Wat kun je nou doen als je tegenspraak wil cultiveren
en belangrijk wil maken? Een veilige omgeving creëren? Hoe dan?
Dat die medewerker van dat ministerie en de Belastingdienst z'n mond opentrekt?
CORRA: Een van de eerste dingen die je kan doen,
is nieuwe mensen altijd als eerste het woord geven.
Dus bij een overleg waar juist veel mensen zitten die er al lang werken,
is het goed om de nieuwelingen of jongsten
als eerste aan het woord te laten.
Daarmee biedt je de ruimte in ieder geval voor een fris perspectief.
En je kan ook zeggen: ik wijs een specifieke tegenspreker aan.
Je kan zeggen: 'We gaan dit project dan doen,
maar binnen dit project ben jij nu even de kritische stem.'
ROTMAN: Ook al ben je het niet van nature, toch doen. Ook een leuke.
CORRA: Het gaat niet alleen om:
'De deur staat open, als er iets is, laat het me weten.'
Nee, creëer iets waardoor dat ook echt gestimuleerd wordt,
want hiërarchie en macht maken toch altijd
dat mensen minder snel geneigd zijn om dat geluid te laten horen.
Dus je moet niet alleen zeggen 'de deur staat open',
je moet iets organiseren om dat tegengeluid actief naar binnen te halen.
VISCIONE: Eens met wat Alex zegt.
Wat erg belangrijk is, is dat de leidinggevenden zich ook bewust zijn
hoe angstwekkend zij zijn.
En dat wordt mooi geïllustreerd door een TED-talk van Megan Reitz,
die kan ik iedereen aanbevelen, waarin zij ook zegt:
Die leidinggevende is gewoon best wel intimiderend, bang makend.
Dat moet je je realiseren. Als je dat weet als leidinggevende,
kan je daar ook iets aan doen. Vervolgens wat Alex net zegt,
de dooddoener 'mijn deur staat altijd open' werkt niet.
ROTMAN: Die staat ook helemaal niet open.
VISCIONE: Het hangt af van je hele gedrag.
Het hangt af van hoe jij naar je naar die medewerkers toe bent.
Dus bij die leidinggevende zijn daar gewoon veel winstpunten te behalen.
En voor de medewerker is het zo: hoe creëer je nou een veilige omgeving?
In sommige organisaties zal dat gewoon heel moeilijk zijn.
Als daar al jarenlang een angstcultuur heerst,
is het heel moeilijk om dat te doorbreken en daar heb je dus meer voor nodig.
Dan kan je denken aan veel grootschaliger,
denken aan wijzigingen binnen de structuur
of in ieder geval dat er externe personen zijn
waar je naartoe kan voor de veiligheid.
Een soort personeelsraadgever die we bij VWS hebben.
ROTMAN: Dit is misschien wel de ultieme manier
om jezelf kwetsbaar op te stellen. Dat je als leidinggevende erkent:
'Jongens, ik signaleer dat hier een angstcultuur is
en ik wil dat mijn medewerkers naar me toe komen,
als we vergaderen, dat mensen hun vinger opsteken,
maar er is een angstcultuur.' Het is al heel wat als je dat erkent.
En wat doe je dan? Pak je dan iemand van buiten erbij?
Relatietherapie op de werkvloer of zo?
-Zou ik het niet willen noemen, maar kan.
Het belang is dat je inderdaad weet als organisatie: it's a two-way street.
Het komt van beide kanten af.
Het inrichten van een externe figuur kan,
maar soms helpt het ook om juist iemand die erg bekend is met die organisatie
op een positie te zetten die buiten die hiërarchische kolom is
waar mensen veilig naartoe kunnen.
En als dat iemand is van binnen de organisatie
weet hij of zij ook hoe de hazen lopen binnen die organisatie.
Want ja, bij de Rijksoverheid...
Bij de Rijksoverheid zijn honderd verschillende manieren van werken.
Hele andere organisaties.
Dus dat verdient ook elke keer een iets andere aanpak hoe je iets doet.
Het helpt dan als je iemand van binnen die organisatie op die positie hebt.
CORRA: Zelfs als je dus geen angstcultuur hebt
en je hebt gewoon een hele voortvarende doorpakkende managementcultuur,
dan nog moet je je realiseren dat doordat die hiërarchie er is
mensen zich terughoudend gaan opstellen.
Er is een baas, je kijkt naar die baas en dan denk je: 'die zal het wel weten.
'Ik wacht wel even tot hij de koers heeft uitgezet.'
Dus dat vraagt ook gewoon om,
in ieder geval aan de kant van de mensen die die macht hebben
om die koers uit te zetten, om heel reflectief te zijn:
'Hoe kom ik nu over en wat doe ik nu
om inderdaad bijvoorbeeld mezelf kwetsbaar op te stellen?'
Dat is meer dan alleen maar praten over kwetsbaarheid,
maar dat is ook in je gedrag laten zien, dus ethisch leiderschap tonen,
laten zien dat je voorbeeldgedrag echt voor iedereen laat zien, voorleven,
dat je dat ook laat zien op het terrein van tegengeluiden laten binnenkomen
en daar ook iets mee doen en dat ook waardeert.
Je hoeft niet per se te zeggen: we gaan het zo doen.
Je kan bij je oude beslissing blijven,
maar dan moet je wel een goed verhaal hebben op basis van dat tegengeluid
waarvan je kan zeggen: 'Ik heb begrepen wat je zegt, ik neem het mee.'
En ook daadwerkelijk concrete argumenten formuleren
waarom je zegt dat je toch iets anders gaat doen.
Dan kan diegene het er nog steeds niet mee eens zijn
maar dan heeft ie wel het gevoel: er is geluisterd en er is wel iets mee gedaan.
Want ook alleen maar zeggen 'ik neem het mee' is ook weer zo'n voorbeeld,
hetzelfde als 'de deur staat altijd open'. Je moet er meer aandacht voor hebben.
ROTMAN: Wat het ook is, Enrico: Als je nu merkt
dat je in een organisatie zit waarbij tegengeluid niet wenselijk is
of het gevoel hebt dat het niet wenselijk is,
stuur je je baas gewoon een linkje naar deze podcast, toch?
VISCIONE: Dat lijkt me altijd een goed idee.
ROTMAN: Dank je wel, Enrico Viscione en Alex Corra.
We hebben dus een heleboel leuke afleveringen over ethiek en data-ethiek.
Als mensen nou meer afleveringen willen horen,
en dat willen ze natuurlijk, waar moeten ze dan zijn?
CORRA: Dan moeten ze naar cip-overheid.nl/uitgelicht.
Daar kunnen ze van alles vinden. Of in hun favoriete podcastapp.
ROTMAN: Dank jullie wel.

Aflevering 4. Mens en techniek

Mens en machine raken steeds meer geïntegreerd, zo stelt Steven Dorrestijn (lector Saxion Hogeschool). Maar de machine moet wel ten dienste van de mens blijven staan, reageert Marlies van Steenbergen (lector Hogeschool van Utrecht). Host Robin Rotman ontdekt tijdens het gesprek dat innoveren verantwoord dient te gebeuren en ook hoe je dat kunt doen

Ethiek in de praktijk. Afl. 4 - Mens en techniek

'Mens en machine raken steeds verder geïntegreerd,
maar kan dat op een manier waarbij de mens overeind blijft?'
Welkom bij 'Ethiek in de praktijk'. Ik ben Robin Rotman
en in deze podcastserie praat ik met experts en ervaringsdeskundigen
over data-ethiek in de dagelijkse praktijk.
Dit is een podcast van het Centrum Infor- matiebeveiliging en Privacybescherming.
'Als je zegt 'human in the loop' lijkt het net:
de technologie neemt het over en de mens krijgt ook nog een rolletje.
Wij mensen hebben onze taken en wat we willen doen,
en de technologie heeft daar een rol in.'
ROTMAN: Te gast vandaag: Steven Dorrestijn,
lector ethiek en technologie aan de Saxion Hogeschool, welkom
en Marlies van Steenbergen, lector betekenisvol digitaal innoveren
aan de Hogeschool Utrecht. Ook welkom. Leuk dat jullie er zijn.
Dit gaat over de samenwerking tussen mens en machine
en appelleert bij mij in ieder geval
aan dat hele sentiment van 'de machines en de robots nemen de boel over'.
We zijn allemaal een beetje bang, natuurlijk. Steven, eerst jij:
Wanneer heb je eigenlijk voor het laatst samengewerkt met een machine?
DORRESTIJN: Nou, vanochtend.
Elke ochtend zet ik koffie op een ouderwetse manier.
Ik hoef niet zoveel, dus ik maal bonen en dat schenk ik op een filter.
Dat is volgens mij een manier van samenwerken
waar de mens in overeind blijft, dat je echt iets doet samen met je spullen.
ROTMAN: Dat plankje wat we in onze zak hebben, ook wel de telefoon genoemd.
DORRESTIJN: Daar werk ik goed mee samen, maar op de heenweg...
ben ik 'm verloren in de trein, dus ik ben ook onthand.
ROTMAN: De telefoon heeft je verlaten. Ach...
Maar dat samenwerken tussen mens en machine is overal.
Dat doen we allemaal de hele tijd.
Dat vergeten we weleens, maar dat is wat we doen.
Marlies, lector betekenisvol digitaal innoveren.
Beetje flauwe vraag misschien, maar toch:
kan je ook niet-betekenisvol digitaal innoveren?
VAN STEENBERGEN: Ik ben bang dat het vaker gebeurt dan je zou denken.
ROTMAN: O ja?
-Wat we bedoelen met betekenisvol,
is dat je digitale innovaties toepast die betekenis geven,
waarde leveren aan iedereen,
maar in ieder geval niet alleen aan het ontwerpen van de digitale toepassing.
Niet alleen omdat zo'n toepassing leuk is,
maar vooral ook de gebruikers, maar bijvoorbeeld ook de niet-gebruikers.
En ook: wat doet zo'n machine met de maatschappij in z'n algemeenheid?
Dus het gaat om de positieve impact.
Dus jullie op de universiteit of op de hogeschool
gaan met de studenten technologieën onderzoeken, bestuderen en echt kijken:
wat voor zin brengt dat spul nou eigenlijk?
wat zijn we nou echt aan het doen, in plaats dat het ons allemaal overkomt
en dat we als kip zonder kop de technologie omarmen?
VAN STEENBERGEN: Exact. En ook: wat betekent dit voor mensen,
voor hun waarde, autonomie, vertrouwen en reputatie?
Daar kijken we expliciet naar.
Dus dat sentiment wat ik net omschreef: Ze, de machines nemen de boel over.
Je hoort het ook vaak in combinatie met nanotechnologie,
de kleine robotjes nemen de boel over en we zijn gedoemd om ten onder te gaan.
Is dat ook het sentiment wat jullie bekijken?
Wat zijn we nou aan het doen? Wat willen we nou?
VAN STEENBERGEN: Ja, maar niet vanuit dat doemdenken.
Maar hoe kun je nou zorgen dat je de positieve dingen bereikt
en dat die negatieve dingen niet gebeuren?
ROTMAN: Jij hebt die vraag nu opgeworpen, Steven.
Dat had net zo goed andersom kunnen zijn.
Maar wat bedoel je er dan mee, dat de mens overeind blijft?
Wat is dat eigenlijk, 'overeind blijven'?
DORRESTIJN: Sluit direct aan op wat Marlies zei.
Ik denk dat we niet kunnen ontkennen
dat we ontzettend verweven zijn geraakt met de spullen die we gebruiken.
Dat is ook al heel lang zo. Je kunt je een mens niet voorstellen zonder,
ook een primitieve mens kun je je niet voorstellen
zonder de primitieve spullen die de mensen toen gebruikten.
ROTMAN: Toen we een stukje steen om een stukje hout knoopten
en een hamer creëerden,
dat was het eigenlijk al.
-De eerste kleding,
de uitvinding van vuur. Dat is allemaal primitieve technologie,
Maar wij kunnen niet zonder mens
en je kan je niet een manier van leven als de mens
of het bestaan van het wezen de mens voorstellen
zonder dat soort technologie erbij.
Dus we zijn er helemaal van afhankelijk. Dat is zo,
maar dat heeft dus voor- en nadelen en die nadelen zijn ook enorm.
Daarvan zijn we ons vaak veel minder van bewust,
behalve dan, echt iets van de 20ste eeuw,
dat we ook dat schrikbeeld van de technologie
die ons, nu we eenmaal zover zijn, helemaal overneemt.
Dat is erbij gekomen.
ROTMAN: Maar wat is dat dan? Dat we niet overeind blijven.
In mijn optiek wordt het vaak in een context van sciencefiction gebruikt.
De Terminators worden sterker, handiger en slimmer dan wij.
DORRESTIJN: Dat idee is: er is nu zoveel technologie om ons heen,
wij zijn niet meer in staat om goed te bepalen
waar we dat voor gebruiken of daar richting aan te geven.
Het is een systeem geworden dat ons overheerst. Dat is de angst.
VAN STEENBERGEN: Het gaat met ons aan de haal als we niet uitkijken.
ROTMAN: Maar wat jij dan analyseert met je studenten,
is misschien op technologieniveau, per stukje technologie misschien,
maar waar het hier misschien ook over gaat: wat vinden we als samenleving?
Misschien wat groot. Kijken jullie daar ook naar?
VAN STEENBERGEN: Dat ook, ja. Het speelt dus op al die niveaus.
En afhankelijk van wie je bent en waar je je begeeft,
kun je dus op al die niveaus ook invloed hebben.
ROTMAN: En je zou op al die niveaus ook die vragen moeten blijven stellen.
VAN STEENBERGEN: Het grote verhaal: de maatschappij
en wat doen we met z'n allen,
kun je makkelijk een gevoel van hulpeloosheid krijgen:
wat kan ik nou in m'n eentje, hoe kan ik de samenleving beïnvloeden?
Maar dat kan ook, alleen dat moeten we als maatschappij doen.
ROTMAN: Dus je zou eigenlijk op een soort beleidsniveau
een visie moeten ontwikkelen: Wat voor rol zien we
en hoe moet de wereld eruitzien?
Je zou op persoonlijke niveau kunnen kijken:
'ik merk ineens wat voor junk ik ben van die telefoon.'
Als ie een kwartiertje niet in mijn zak zit, denk ik: o, wauw.
DORRESTIJN: Waar we het nu over gaan hebben,
dan denk ik eerst aan het persoonlijke niveau.
In hoeverre zijn we afhankelijk van technologie?
En als we niet overheerst willen worden door al die technologie om ons heen,
betekent dat dan dat we helemaal vrij moeten zijn tegenover de technologie?
Dat kan niet. Dus dan moeten we iets anders, een derde weg.
We moeten een andere uitweg vinden
en dat zit 'm in, maar dat gaan we met elkaar onderzoeken,
echt iets van deze tijd:
hoe kan je accepteren dat wij het resultaat zijn
van een hele geschiedenis van evolutie met technologie
en dan toch daar een eigen weg in vinden waarbij je kunt zeggen:
het resultaat is menselijk.
Dat is een goeie manier van menselijk leven.
ROTMAN: Dit is mooi. Hier wil ik zo een paar voorbeelden over horen.
Wat zijn de voorbeelden waarin het werkt?
Dat we denken: Hier versterkt het ons. Hier worden we handiger als mens.
En misschien ook voorbeelden dat het een beetje tricky is.
Maar nog een klein stapje terug.
Marlies, Steven omschrijft net de evolutie van de technologie.
We zijn volgens mij in de jaren 60, toen echt bekend werd:
automatisering, technologie rukt op.
Er werd ook weleens een beeld geschetst van:
sciencefictionverhalen waren er altijd al,
maar ook wel beelden van: de technologie rukt op.
'Het neemt al ons werk uit handen
en wij kunnen gaan dansen, zingen en knuffelen met z'n allen.'
Toch? Dat was toch ook zoiets?
Dan neemt het ons over, maar dan blijven we overeind als mens.
Of was dat een hele naïeve gedachte?
VAN STEENBERGEN: Ik weet het niet. Ik denk dat we er zelf bij zijn.
Ik denk dat: als we slim zijn, gebruiken we de technologie
inderdaad voor de goede dingen. In de zin van:
die dingen die we graag aan technologie overlaten.
Alleen, we moeten niet, wat Steven zegt, er afhankelijk van worden.
We moeten niet op een gegeven moment
de technologie het primaat geven boven de mens en denken:
'als de technologie het zegt, zal het wel goed zijn.'
Klakkeloos ervaren wat de technologie zegt.
ROTMAN: 'Computer says no', dat soort termen.
Dan die voorbeelden. Steven, roep eens wat.
Voorbeelden waarvan je zegt: als we het zo doen, doen we het goed.
Dan blijven we niet alleen overeind,
maar dan helpen we, daar worden we betere mensen van.
DORRESTIJN: Het voorbeeld waar ik als eerste aan moet denken,
zijn 'cobots', collaborative robots.
Denk aan een arm, montage van spullen,
hele kleine apparaatjes die je in elkaar zou kunnen schroeven,
maar je vingers zijn te dik of het is te moeilijk.
Jij hebt twee armen, maar dan krijg je er een of twee robotarmen bij
die de kleine schroefjes kunnen vastpakken.
Er staat ook een camera bij de tafel waar je aan monteren bent
die in de gaten houdt of alles goed gebeurt, en die kan waarschuwen.
Dat vind ik een heel mooie manier, in de assemblagetechniek, in de productie,
van samenwerking tussen een robot, die dus hier een cobot heet, en de mens.
ROTMAN: Maar dat zie je ook al in de operatiekamer van het ziekenhuis.
DORRESTIJN: Ja, maar dat kan ik mooi verbinden
met een voorbeeld waar het niet goed gaat.
Dat ontleen ik een beetje aan Milan Wolffgramm,
een onderzoeker op het Saxion die dat als onderwerp heeft,
en zijn collega's, die zeggen:
'Het zou mooi zijn als zo'n cobot veel wordt toegepast in de productietechniek.'
Dan kun je op een geavanceerde manier spullen maken
en het blijft ook interessant en waardevol voor de mens
om betrokken te zijn in die productie.
Maar die cobots worden meestal helemaal niet zo ingezet.
Onze manier van denken is toch: we maken robots en die gaan alles doen.
Dus die komen aan de lopende band te staan waarbij geen mensen meer staan.
ROTMAN: We stellen menselijke eisen aan die robot. Zoiets?
DORRESTIJN: Ja, dat hoort er dan ook wel bij. Zelfs de drone.
Stel je voor: robots kunnen alles wat wij kunnen
en nog een stapje beter. Dan zijn wij niet meer nodig.
ROTMAN: Maar is dat erg?
-Ja. Jij zei net: dan kunnen wij dansen.
ROTMAN: Muziek maken, schilderen, knuffelen.
DORRESTIJN: Zou mooi zijn. Maar wat als ze zeggen:
'we hebben last van die mensen. Al die achterblijvers moeten weg,
die gaan we elimineren.'
Wat als jouw technologische intelligentie dat gaat besluiten?
Of een ander voorbeeld uit de film Wall-E, die ken je misschien ook wel.
Die gaat over een robot, nota bene, maar wat doen de mensen daar?
Die zitten de hele dag maar tv te kijken, te dansen en te knuffelen,
maar die zijn uitgedijd en kunnen niet meer bewegen.
ROTMAN: Het worden zwijnen.
-Juist. Dat zijn de achterblijvers.
ROTMAN: We hebben nu een voorbeeld van Steven gehoord.
Een positief voorbeeld, die cobot in die fabrieken
en ook wel in die ziekenhuizen en een soort darker side omschreven.
Heb jij een voorbeeld? En vooral dat je denkt:
dit is hoe ik het zie, een soort illustra- tie van hoe je zou kunnen en zou moeten
betekenisvol innoveren.
VAN STEENBERGEN: Een voorbeeld ook wel weer in de...
Goede voorbeelden zijn waarbij algoritmes gebruikt worden
om echt ingewikkelde dingen te doen. Zoals foto's, röntgenfoto's checken.
Dat kunnen algoritmes beter dan mensen. ROTMAN: Dan de arts.
Tenminste, gedeeltelijk beter en dan gaat het vooral ook om die samenwerking.
Dus de positieve voorbeelden zijn echt daar waar de technologie een stukje doet,
en Steven had het daar net ook al over, en de mens een stukje,
en niet waar één van de twee het overneemt.
Dat is al bekend vanuit het begin van de schaakcomputers.
Toen de schaakcomputers opkwamen, werden er toernooien gehouden.
verschillende soorten toernooien: mensen tegen elkaar, computers tegen elkaar,
ROTMAN: En gemengd tegen elkaar.
-En wie denk je dat het beste waren?
ROTMAN: Mens en computer als team.
-Exact, anders zou ik het niet vertellen.
ROTMAN: Dat is wel interessant.
-Ja.
Dus je ziet die samenwerking. Een ander onderzoek
wat ze in Slovenië gedaan hebben, was bij verkopers
die hun omzet moesten voorspellen voor de komende maand.
Bleek dat ze zo'n beetje 20% juist konden voorspellen.
Dus eigenlijk deden de ervaren verkopers het heel slecht.
Algoritme gebouwd op basis van data. Deed het veel beter.
ROTMAN: Algoritme als autoverkoper.
-Ja, dus deed het beter in de forecast.
Maar als je ze samen aan het werk zette, waren de resultaten nog beter.
ROTMAN: Dat is dan de menselijke intuïtie, creativiteit in combinatie
met de machinale rekenkracht?
-Ja.
De mens die de machinale rekenkracht kan duiden
en daar dus uiteindelijk een goede conclusie uit kan trekken.
ROTMAN: Het bewijs ligt op tafel, Steven.
Mens en machine samen levert goede resultaten op.
Het is die menselijke creativiteit, intuïtie, in combinatie met rekenkracht.
Ik moet toch... Ik zit vast bij die arts, bij die oncoloog.
Die heeft dus een team. Die zitten in de moeilijke gevallen
met z'n dertigen aan een tafel een patiënt te analyseren.
Computer denkt mee. Die worden handiger, diagnostiek.
Die kunnen die foto's scannen, zelfs een behandelplan maken.
Dat gaat goed, een keer.
En de artsen zegt: ik ben de baas, Ik heb die eed afgelegd.
Dat gaat een tweede keer goed, derde keer.
En op een gegeven moment merkt die arts: die computer heeft altijd gelijk.
Duizend keer achter mekaar, altijd heeft ie gelijk.
Op een gegeven moment ga je toch vertrouwen dat dat zo is.
En dan ga je die mensen toch steeds verder weg van het proces halen.
Je gaat toch vertrouwen dat die computer het gewoon beter kan?
Dat is toch wat er gebeurt?
DORRESTIJN: Dat weet ik niet zeker, maar dit is waar we zijn aanbeland
en waar we een keuze moeten maken,
waar we eventjes even moeten staan voor het overeind houden van de mens.
Dat denk ik echt. ROTMAN: Maar wat is dan...
Gaan we per se die arts het laatste woord geven over een mensenleven,
terwijl de computer 't beter weet? Alleen omdat je de mens in die loop wil hebben.
DORRESTIJN: Ik denk niet dat je het dilemma goed voorstelt.
Want je suggereert nu dat wij toch maar de mens in de loop gaan houden.
Dat is een bekende uitdrukking, maar die doet ter zake hier.
Een goede uitdrukking, dus allemaal in je oren knopen.
Maar jij suggereert dus, als we de mens in de loop houden,
gaat dat ten koste van goede beslissingen,
want de algoritmes kunnen het inmiddels al beter en ik denk dat dat niet waar is.
ROTMAN: Maar we moeten nadenken over: als dat gebeurt,
hoe gaan we daar dan mee om?
-Nou, er blijven nog heel veel plekken...
Bij de simpelere dingen kan dat inderdaad zo zijn.
Maar ook dat vraag ik me af.
Maar er blijven altijd vragen of nieuwe domeinen
waar het niet zo is, waar het team van mens en computer altijd beter is.
En dat is volgens mij wat we allemaal interessant moeten vinden.
Op ons boodschappenlijstje moet dat bovenaan staan,
dat is onze eerste oplossingsrichting.
ROTMAN: Ik zie jou driftig ja knikken, Marlies.
VAN STEENBERGEN: Ja, want wat hier echt heel erg bij hoort,
is dat de mens dan wel goed in staat moet zijn
om wat de machine doet te blijven beoordelen.
Dus na die 1000 keer,
om te beginnen moet die arts kunnen beoordelen
hoe goed het advies van de machine is. Dat moet ie kunnen blijven doen.
En ook nieuwe artsen die opgeleid worden met die machine.
Hoe leren die bijvoorbeeld dat oordeel nog te geven?
Moet je dat oordeel... Daar moeten we denk ik op inzetten,
dat we nadenken: hoe kunnen we als mens ook wat de machine doet,
blijven beoordelen op een goede manier?
Hoe kunnen we dat inbouwen in de processen, in ons werk?
En hoe onderhoud je dat?
En wat kun je ermee doen als je denkt: dit klopt niet.
ROTMAN: Vind ik nog steeds spannend,
want dan worden jonge artsen niet per se opgeleid om patiënten te beoordelen,
maar om te beoordelen of de computer de patiënt wel goed beoordeelt.
VAN STEENBERGEN: En wat betekent dat? Dat zijn belangrijke vragen.
DORRESTIJN: Mag ik iets toevoegen? Want we gaan in een cirkel.
De vraag is: maar de algoritmes kunnen zo goed en slim worden,
zoveel van ons overnemen, dat de vraag is: wat moeten wij dan nog doen?
En dat idee vinden veel mensen interessant.
Het is een ramp dat de meeste mensen het heel uitdagend vinden
dat de techniek het over kan nemen.
Dat de technologie als het ware op zichzelf kan komen staan.
Op eigen benen.
Maar als je dat je ideaal is over hoe de toekomst eruitziet,
dan bouwen we samen daaraan,
Maar dan leveren we ons, bewust nota bene...
Dan is ons programma om ons uit te leveren aan de technologie,
om die overeind te helpen en dan worden wij de achterblijvers.
Dat is volgens mij helemaal niet het....
ROTMAN: Daar willen we niet heen.
-Nee.
Dat is echt de uitdaging, om een beetje een bijgedraaide visie voorop te stellen
waar het echt gaat over zoeken hoe wij met technologie 'n team kunnen vormen.
ROTMAN: Laten we nu werken naar de tips, conclusies en oplossingen.
Stel dat je aan een project werkt bij een ministerie
of bij een bedrijf of een overheidsorganisatie
en je hebt het gevoel: technologie kan ons helpen bij dit project, whatever.
Wat kun je dan doen? En je weet, die technologie kan voor ons werken.
Het T-woord, toeslagenaffaire, wil ik verder niet laten vallen.
Maar dat is wel het ankerpunt, daar willen we niet heen.
We hebben dus gesignaleerd: mens en machine moeten samenwerken.
We willen we niet dat de machine het overneemt.
Hoe ga je er dan voor zorgen dat we dus naar die toekomst toe werken
dat we het zuiver houden, dat we het goed doen.
Wat zou een eerste tip zijn?
DORRESTIJN: Een rijtje belangrijke concepten inprenten.
Zoals dat het moet gaan over een team vormen, samenwerking zoeken,
human in the loop houden.
Nou, breng nog eens wat.
VAN STEENBERGEN: Ik zou hem omdraaien, die human in the loop.
Ik zou het technologie in the loop willen noemen of AI in the loop.
Want het is de loop van de mens
en de AI of de technologie is daar ondersteunend en samenwerkend in.
Want als je zegt 'human in the loop',
lijkt het net: de technologie neemt het over
en de mens krijgt ook nog een rolletje.
Wij mensen hebben onze taken en wat we willen doen
en de technologie heeft daar een rol in.
ROTMAN: Jullie sommen nu dingen op en het klopt wel,
maar het zijn grote begrippen en dan zeg je eigenlijk: dit zijn kernwaarden.
DORRESTIJN: Het zijn niet zo'n grote begrippen. Het hele grote begrip was
waar we het in het begin over hadden.
In plaats van overheersing door de technologie
waarbij je technologie en mensen tegenover elkaar stelt
en een van de twee gaat winnen, zoeken wij naar een vorm
van samenwerken, van symbiose. Nu maken we dat praktisch
en ik denk dat dat zeker kan.
Dat moet gewoon bij het repertoire gaan horen
van de mensen die technologie ontwerpen.
De oplossingsrichting zit in de ontwerpmethode.
ROTMAN: Dat was mijn volgende vraag.
Het gaat dus over betekenisvol innoveren.
Je bent een partij, je bent ondernemer of ambtenaar.
Of een manager: je gaat erover. Hoe kan je dan in je proces inbouwen
dat het betekenisvol wordt, dat je die kernwaarden meeneemt
aan de voorkant bij de ontwikkeling van technologie.
Wat zou dan een soort stappenplan kunnen zijn?
VAN STEENBERGEN: Er zijn sowieso aanpakken om dat te doen.
Dat heet onder andere value sensitive design,
waarbij je die waarden vanaf het begin naar het eind meeneemt.
Je moet bijvoorbeeld denken aan het proces ontwerpen op die samenwerking
en niet een technologie ontwerpen en dan gaan kijken: hoe gaan we het inpassen?
Nee, je ontwerpt de samenwerking en daar ontwerp je de technologie bij.
Een belangrijk punt is: als je een grote rol voor technologie hebt,
dat je momenten van reflectie inbouwt,
dus dat je gewoon expliciet maakt, verplicht maakt bijna,
dat mensen over bepaalde uitkomsten,
als ze grote impact hebben, nadenken en misschien met anderen praten.
Dat kun je in je processen ontwerpen.
ROTMAN: Dus je gaat kernwaarden formuleren, zoals Steven zei.
Wat willen we eigenlijk? Aan de voorkant al.
Jij zegt: je kan die kernwaarden vervolgens in je proces inbouwen.
Steven, het lijkt mij ook interessant dat die studenten,
de jonge mensen die hier opgeleid worden, als zij een soort...
Die voelen natuurlijk intuïtief de tijdsgeest aan.
Veel beter dan ik. Ik ben 41.
Ik heb nog de tijd meegemaakt dat mobiele telefoons niet bestonden.
Jullie zijn nog iets ouder dan ik.
Dus wij zijn misschien iets minder handig met het aanvoelen van de tijdsgeest.
Waarom gaat zo'n jonge, slimme man of vrouw
niet op zo'n ministerie zitten en als een soort coach zo'n proces begeleiden:
Hoe maken we dit betekenisvol?
Is dat niet een soort nieuwe beroepsgroep of zo?
DORRESTIJN: Absoluut. Maar dat hoort ook bij ons werk.
Overal zijn we op zoek naar: hoe kan je ethische begeleiding
of ethiek op een constructieve manier inbouwen in de processen?
Dus in de organisaties die bij het CIP aangesloten zijn, bij het UWV,
maar ook in technische bedrijven.
Hoe kan je daar maatschappelijk verantwoord innoveren
op een manier? Dat betekent dat mensen met een ethische inslag
bij die ontwerper moeten zitten
of dat die van buiten komen om te helpen om tijdens het ontwerpproces
op een aantal momenten ook de ethische vragen te stellen.
ROTMAN: Je hebt een paar dingen die we kunnen doen, samenvattend.
Benoem, bedenk: wat zijn nou de kernwaardes die ik wil hebben?
Ga niet als een kip zonder kop aan de slag.
Bouw het in in je proces aan de voorkant al
en neem iemand mee die er meer verstand van heeft dan jijzelf.
Iemand die ethische vraagstukken kan afpellen
en die gedurende het proces een vinger aan de pols houdt
en moeilijke vragen blijft stellen. En blijf in gesprek daarover.
Zoiets?
-Zeker.
Hebben we nu een soort mooi pakketje samengesteld
waar je mee aan de slag kan?
Er zijn vast een hoop dingen te doen. DORRESTIJN: Testen
met specifiek deze vraag. Als je dan moet werken in een nieuwe situatie
met behulp van algoritmes of een cobot:
hoe ervaar je dat? Is het leuk en waardevol voor de mens?
ROTMAN: Haal de gebruiker erbij en de mensen die ermee aan de slag moeten.
VAN STEENBERGEN: En blijven moni- toren, ook als je 'm al jaren gebruikt.
ROTMAN: Volgens mij hebben we een mooie 20 minuten aangeraakt.
Ik hoop dat het mensen stimuleert en inspireert om te blijven nadenken:
hoe zorgen we ervoor dat de mens in the loop blijft?
Ik denk dat we een heel eind gekomen zijn.
Dank je wel, Steven Dorrestijn. en Marlies van Steenbergen.
En dit is hartstikke leuk. We hebben veel van dit soort podcasts,
allemaal andere thema's, technologie, de ethische kwesties.
Luister die podcasts en dat kan op cip-overheid.nl/uitgelicht
of je favoriete podcastapp. Dank jullie wel.

Aflevering 5. Sociale algoritmes

In deze podcast praten Steven Dorrestijn (Saxion) en Aad Francissen (8ting) over sociale algoritmes. Gastheer Robin Rotman voelt hen beiden aan de tand over de aard en ethische inzetbaarheid van algoritmes. De rode draad van deze podcast is verantwoord datagedreven werken in het sociaal domein. Een gezamenlijke verantwoordelijkheid voor medewerkers, bestuurders en politiek!

Ethiek in de praktijk. Afl. 5 - Sociale algoritmes

'Hoe kunnen we algoritmes inzetten voor sociale doelen?'
Welkom bij 'Ethiek in de praktijk'. Ik ben Robin Rotman
en in deze podcastserie praat ik met experts en ervaringsdeskundigen
over data-ethiek in de dagelijkse praktijk.
'Die overheid heeft zoveel meer informatie dan die techbedrijven
en die doen het ook om andere redenen dan geld verdienen aan advertenties.
Dat maakt het zo spannend en eng.' ROTMAN: Te gast vandaag:
Steven Dorrestein, lector ethiek en technologie op de Saxion Hogeschool
en Aad Francissen, managing director bij 8ting.
Wat is 8ting?
-Een kleine data-adviesorganisatie.
Wij adviseren organisaties in het sociale domein
om meer te doen met data, om te leren van data.
ROTMAN: En we hebben het vandaag over sociale algoritmes,
algoritmes die we inzetten om mensen een beetje te helpen.
Die systemen bouw jij ook?
-Nee, eigenlijk niet.
We bouwen niet zo zeer die algoritmes,
maar wij sporen organisaties aan om de data die ze hebben
in te zetten om hun dienstverlening te optimaliseren
om mensen in een kwetsbare positie
steeds beter, sneller en effectiever te helpen.
ROTMAN: Steven, jij bent lector ethiek.
En we weten allemaal dat algoritmes inmiddels besmet zijn.
We kennen de beloftes: In de toekomst gaat alles met algoritmes en data.
Dat is zeg maar de oplossing voor alles. Maar ze zijn ook af en toe besmet.
Vooral als ze door de overheid worden ingezet, zijn we kritisch.
Profiling, privacy, vooroordelen, bias, uitsluiting, discriminatie.
Dat is nogal wat.
-Je hebt alles al genoemd.
Inderdaad, algoritmes hebben slechte pers de laatste jaren.
FRANCISSEN: Mensenrechtenschendingen.
ROTMAN: Maar is dat terecht, eigenlijk?
DORRESTIJN: Hebben we het de laatste tijd veel over gehad.
Ook onlangs in Enschede een sciencecafé over algoritmes
en daar kwam uit: in zichzelf zijn ze niet slecht,
net als een mes, je kan er goede en slechte dingen mee doen.
Dat geldt voor alle technologie, maar ook zeker ook voor algoritmes.
Dus nee, ze zijn niet in zichzelf slecht,
maar het blijkt nu dat we ze hebben toegepast
op manieren die echt slecht uitpakken.
ROTMAN: Wat is dan een sociaal doel?
-De aanleiding voor dit gesprek
is het voorstel van minister Carola Schouten.
De strekking daarvan was: laten we ook proberen algoritmes in te zetten
op een goede manier, ook bij de overheid.
En een voorbeeld was:
laten we kijken door de data beter te gebruiken,
misschien zelfs door algoritmes,
maar vooral ook lager bij de grond, data te gebruiken om mensen te helpen
gebruik te maken van regelingen die er zijn
om geld te krijgen, uitkeringen, bijstand, dus mensen die niet gebruikmaken
van de regelingen waar ze wel recht op hebben, te bereiken.
ROTMAN: Zij is minister van armoedebestrijding.
Er zijn in Nederland een heleboel mensen die recht hebben op subsidies,
op potjes met geld, en die maken daar geen gebruik van.
Ze weten de weg niet te vinden, whatever.
En minister Schouten dacht: wacht even, we hebben veel data van die mensen.
'Wij weten dat ze er geen gebruik van maken. We kunnen ze triggeren.'
'Kom op, je hebt recht op geld.'
-We noemen haar naam,
maar zij staat daar pas net,
dus zij bouwt verder op het werk van veel anderen.
Maar inderdaad, dat is nu het idee. En dat lijkt me een goed voorbeeld.
ROTMAN: Ik beschouw jou als de techneut in de zaal, Aad.
Is dit moeilijk om te bouwen?
-Nee, dit is niet moeilijk.
De data is voorhanden. We weten wat mensen
die in een kwetsbare positie zitten aan inkomen hebben
en misschien ook dat er bevorderingen of beslagleggingen gedaan zijn.
Die data is wel voorhanden.
Ik heb zelfs al een werkend voorbeeld van de gemeente Enschede,
wat ze noemen: digitaal luisteren. Zit ook in die schuldenhoek.
Die data vragen ze op of kopen ze van Google
en dan krijgen ze terug: in die en die buurten
wordt er meer gezocht op termen als: ik heb nu snel een lening nodig.
Daar zoekt Enschede actief op via Google, dat is dan het algoritme.
Ze hebben niets zelf laten ontwikkelen.
Maar ze gebruiken die data wel om hun schuldhulpverleners
en social workers in die wijken en buurten gerichter in te kunnen zetten.
ROTMAN: Dit is natuurlijk prachtig en wat de minister wil doen ook,
maar ik krijg ook een beetje jeuk, Steven.
-Ik ook,
en zeker bij zo'n groot techbedrijf,
want niet alleen algoritmes hebben slechte pers,
maar die big techbedrijven ook. Die zijn volop in het nieuws.
Dus bij mij gaan de haren ook overeind staan. Wat gebeurt er dan precies?
ROTMAN: Los van de vraag welk techbedrijf daar een rol speelt,
maar meer het idee dat de overheid allerlei wegen gaat behandelen
om informatie van mij, over mij bij elkaar te harken.
Om iets goeds te doen weliswaar, maar ze komen wel erg dichtbij.
Ze weten een heleboel. Alleen daar al krijg ik jeuk van.
DORRESTIJN: Ik ook, en het is mijn vak om die jeuk proberen te verwoorden.
Maar ik vind het ook interessant, en dat kan Aad mooi vertellen,
wat er toch de goede kant aan is, wat het alternatief is.
Wat er nu niet gebeurt wat we wel moeten gaan doen.
ROTMAN: Nou, pak 'm op.
-Oké.
We zijn met de trein, Steven en ik, vanuit Enschede hier gekomen.
ROTMAN: Jullie hebben dit gesprek al gevoerd.
FRANCISSEN: Al vier keer, denk ik. Veel verschillende voorbeelden.
Een van die voorbeelden is van de NS zelf,
die eigenlijk binnen dezelfde kaders die er nu zijn
net op een andere manier hun informatie aanreiken
waardoor je een ander gedrag krijgt.
Welk gedrag? Tien jaar geleden stond je op het perron
en dan kwam de omroep: ding dong, uw trein heeft tien minuten vertraging.
Iedereen chagrijnig: 'weer die NS'.
Tegenwoordig als je op perron staat, wordt er omgeroepen:
'Ding dong, uw trein vertrekt over tien minuten.'
Feitelijk, juridisch gezien, dezelfde informatie,
maar meer in de lijn van wat je wil horen. Je wil vertrekken en minder gedoe.
En wat ze ook doen,
is zorgen dat die trein dan net twee minuten eerder binnen komt rollen,
waardoor je denkt: oh, hij is nog eerder.
Ze passen een soort van psychologie toe
om die nare beeldvorming die ze steeds hadden, 'de NS heeft altijd vertraging',
om dat tegen te gaan.
ROTMAN: Maar dit gaat over communicatiestrategie.
Dit gaat over politici die getraind worden
om iets anders te verpakken, maar dezelfde boodschap te verkopen.
FRANCISSEN: Daar hebben we 't hier in het sociale domein over.
Jij zegt: ik krijg er jeuk van als die overheid van alles van mij weet.
Ik zal je uit de droom helpen: de overheid weet al heel veel.
Alle overheden waar je ooit mee te maken hebt, weten al veel van jou.
De Belastingdienst weet by far het meeste,
maar ook instanties als UWV of SVB.
Als je ermee te maken hebt, weten ze best veel van je.
Dus daar zit het probleem niet.
De vraag is veel meer: wat doen ze ermee?
Als het gaat om jou te begeleiden om de juiste stapjes zetten,
om jou uit die kwetsbare positie te helpen,
want dat is de bedoeling van de sociale wetgeving,
kun je dan ook wat doen met die data die je toch al hebt?
Dat is eigenlijk het gesprek wat we hier voeren.
ROTMAN: Maar wat kan er dan fout gaan, Steven?
DORRESTIJN: Nou komen we bij de toeslagenaffaire van de Belastingdienst.
Het hele beleid, de manier van denken over wat er moet gebeuren,
is dat de wet netjes nageleefd moet worden.
We sporen allen op die fouten maken en die krijgen straf.
En daar heel strak op zitten.
En de positievere draai die je zou kunnen geven aan het gebruik van dezelfde data,
is dat je niet mensen gaat bijsturen door hen te bestraffen,
maar laat zien 'dit is fout gegaan'
en te helpen om het beter te doen de volgende keer.
Dus dat lijkt een beetje op het voorbeeld van Aad,
waarbij de omroeper zegt
'trein is vertraagd' of 'hij komt er bijna aan, over vijf minuten'.
ROTMAN: Maar toch even dat verhaal van die armoedebestrijding,
want dat is toch een ander verhaal. Denk jij daarvan 'dat is niet zo handig'?
Of denk je 'Nee, als je dit juist uitvoert, kan het prima'?
DORRESTIJN: Nou, ik weet het echt nog niet.
We zijn bezig erover na te denken. ROTMAN: Dat is al heel wat.
Dus er is een minister die zegt: 'Mensen leven in armoede.
Dat zijn er in Nederland misschien best veel, de armoedegrens.'
Ik weet niet hoeveel, een paar honderdduizend misschien.
Die hebben een uitkering, rechten. Ik vergis me in de cijfers,
maar het gaat even om het principe.
En dan denk ik van: go for it. Dat is toch een no-brainer?
FRANCISSEN: En er komen er meer bij.
Nu de maatregelen zijn afgebouwd, vallen veel bedrijfjes om,
mensen moeten ook echt een andere baan gaan zoeken.
Op dit moment zijn er banen te over, gelukkig.
Maar laten we even kijken, in de nabije toekomst
denk ik dat het wel anders gaat lopen.
Dus het is hartstikke hard nodig.
Maar wat is er nou voor nodig, maar waar hebben we het nou over?
Die toepassing van die algoritmes,
waarbij er 'n technische oplossing wordt gekozen om mensen op een lijst te zetten
en die mensen op die lijst vervolgens automatisch af te snijden
van allerlei rechten die jij en ik gewoon hebben,
want mij heeft die toeslagenaffaire niet geraakt.
Ik heb er totaal geen last van gehad.
Maar hoe anders is dat voor de mensen die wel op die lijst stonden
en niet eens bezwaar konden aantekenen.
Dat kun je bijna niet voorstellen in Nederland,
dat je geen bezwaar tegen een beslissing van de overheid kunt aantekenen.
Dat kon gewoon niet. In wat voor dictatuur leven we dan?
En ik heb er niks van gemerkt, ook dat nog. Het waren echt twee werelden.
Als dat geautomatiseerd gaat, heb je het over een algoritme.
ROTMAN: Het is grappig, want jij leidt dit gesprek wederom
naar de toeslagenaffaire, terwijl jij Steven bijna afkapte.
Je nam het woord over, omdat het ging over de minister en armoedebestrijding.
Jij gaf de nut en noodzaak aan. Mensen vallen om, covid, et cetera.
Maar we waren nog steeds bij het punt dat Steven aan het uitleggen was.
Het is voor jou een no-brainer, gewoon doen.
Maar Steven zei: Voor mij is het niet zo'n no-brainer.
Maar waarom dan eigenlijk?
DORRESTIJN: Mijn keuze is: een beetje schematisch gezegd,
denk ik dat het bij de toeslagenaffaire helemaal fout is gegaan.
Daar werd data gebruikt op een manier die heel verkeerd is uitgepakt.
ROTMAN: Dat zit in ons achterhoofd.
-Maar dat kan vast en zeker ook beter.
Dus je kunt dan mensen niet alleen maar bestraffen en klem zetten,
maar op een veel positievere, constructievere manier begeleiden
en uit het leven halen wat erin zit, verstandiger gedrag te tonen.
Dus dat is altijd goed.
Maar nu komt het vervolg: waar leidt dat toe?
Want dat betekent wel dat de overheid zich intensief met ons gaat bemoeien,
Wat jij aangaf. En dat vind ik toch wel zorgelijk,
want waar ik vandaan kom, hoe ik in de techniekfilosofie ben gerold,
is onder anderen door Michel Foucault, een filosoof
en die heeft een begrip, een 'disciplinaire maatschappij',
waar je minutieus wordt gecontroleerd en bijgestuurd.
Dus komen we daar terecht en is dat erg?
Dat is de vervolgvraag. Van Belastingdienst naar armoedebestrijding:
altijd goed? Maar dan toch de vraag:
willen we in een maatschappij leven waar je zo intensief gevolgd
en bijgestuurd wordt, zelfs al is het ten goede?
ROTMAN: Dus jij stapt over de vraag van de minister die armoede wil bestrijden.
Jij ziet gelijk the bigger picture:
Dit is misschien de glijdende schaal.
We zijn nu een samenleving aan het organiseren
waarbij alles in de gaten wordt gehouden,
minutieus bijgestuurd en getweakt.
Voel jij dit ook, Aad? Als bouwer van systemen.
FRANCISSEN: Ik zit altijd erg op de mogelijkhedenkant.
Wat jij schetst is volgens mij wat in China ook gebeurt.
Die sociale controle die via digitale applicaties mogelijk wordt gemaakt.
Burgers houden ook elkaar daar in de gaten.
Zie jij iemand door rood licht lopen, kun je die bestraffen
door hem aan te geven. Vreselijk. Dat wil denk ik niemand.
Ik probeer wat dichter bij de doelmatigheid van de wet te blijven.
Ik zit steeds op dat...
Je hebt wetmatigheid: wat zijn de regels, de kaders van de wet?
Daar is het heel erg misgegaan. We gaan mensen dus straffen,
omdat ze iets hebben gedaan wat niet mag, want dat staat in de wet.
De uiterste kaders.
Maar er is ook een doelmatigheid van die wet.
En kun je ook in het kader van het doel van die wet,
en bij de sociale wetgeving is dat bijna altijd
het stimuleren en bevorderen van zelfredzaamheid en participatie,
kun je daarin mensen de juiste duwtjes, prikjes of informatie geven
op het juiste moment, op de persoon afgestemd?
Eigenlijk heb je het dan over marketing automation,
wat we gewend zijn van de grote retailers,
Bol.com, Coolblue, ook van Facebook, Google, Amazon.
Die hebben een profiel van jou
en je krijgt de producten aangereikt die passen bij dat profiel.
Dat kun je verwerpelijk of prettig vinden.
ROTMAN: Je zegt het met een grote glimlach richting Steven.
DORRESTIJN: Ik denk daarin ook wel enigszins in termen van mogelijkheden,
maar ook zorgen en gevaren die daarin meekomen.
Dus ik ben blij met het tegenvoorbeeld,
vanuit deze tafel gezien, het schrikvoorbeeld van China.
Maar dat vind ik ook raar om te zeggen, want daar wonen veel mensen,
en daar zijn veel mensen die er anders naar kijken, moet ik voorzichtig in zijn.
Maar vanuit ons perspectief gezien, is dat echt een heel andere wereld
en een beetje een schrikbeeld.
ROTMAN: Maar als jij nu Aad hoort praten over deze casus
en hij zegt 'ja, het grotere verhaal...
Ik kijk eigenlijk naar de casus en de wetmatigheid en doelmatigheid',
wat denk jij dan? Of blijf jij dan:
'Ja, maar je kan allerlei casussen hebben die wetmatig en doelmatig zijn
dat het voor de casus zelf klopt,
maar the bigger picture die je dan creëert, is zorgwekkend,
ook al is het per casus wel goed.'
Waar zit bij jou dan de wrijving? DORRESTIJN: Een goeie vraag
en een groot probleem. Want kun je tien goede toepassingen naast elkaar hebben
die geïsoleerd blijven, die je in de hand kunt houden en kunt blijven controleren?
Of krijg je dan toch een optelsom, krijg je een glijdende schaal?
Krijg je function creep? Aad, daar heb jij een mooi voorbeeld van genoemd.
Echt een strak voorbeeld.
FRANCISSEN: Toen wij de eerste voorbereidingen voor dit gesprek deden,
een maand of wat geleden, was er net in het nieuws dat de Finse overheid,
net als in Nederland, bij iedereen die 'n paspoort aanvraagt een vingerafdruk wil.
Ik was daar fel op tegen toen dat net werd ingevoerd.
Ik moest ook mijn paspoort vernieuwen. Ik kreeg het niet zonder vingerafdruk.
En nu is dat in Finland ook zo. In Nederland is het afgeschaft inmiddels.
De Finse overheid heeft gezegd:
'Mogen we die database van al die vingerafdrukken dan ook gebruiken
om dan, wel hele ernstige, criminelen op te pakken. Mag dat dan?'
Nou ja, ik viel van m'n stoel. Dit is zo erg.
Dit is de glijdende schaal. Precies wat Steven zegt.
En dan moet je als overheid niet eens die vraag stellen.
Dit is zo slecht om te doen.
Die vingerafdruk hebben we nodig.
Dat is ter identificatie van iemand die z'n paspoort aanvraagt.
Dat is nog tot daaraan toe. Zitten allerlei risico's aan.
Maar wat als dat paspoort in criminele handen valt en jouw vingerafdruk ook?
Dat wil je helemaal niet. Zitten we toch allemaal in een database.
En dan komt de politie ineens: Mogen we het toch gebruiken voor criminelen?
Het is echt... Hier gaat het fout. ROTMAN: Dan krijg je hetzelfde gesprek,
want dan komt er een keer een Opspo- ring Vermist die het hele land door gaat.
Een klein meisje met grote bambiogen die vermist raakt.
En dan komt er een politicus die zegt: 'Zullen we die database gebruiken?
Ik weet bijna zeker dat we 'm dan pakken.' Succes met nee zeggen.
DORRESTIJN: In verband met terrorisme- opsporing in Amerika heeft dat gespeeld,
op een interessante manier. Dus dat de overheid zegt
'wij willen de data uit de chatdiensten gebruiken'
en de telefoonmakers zeggen: We helpen niet, want dan is 't hek van de dam.
Dat juist de techbedrijven in dit geval de dam waren
om niet die afschuiving te krijgen. FRANCISSEN: Erg hè,
dat die techbedrijven dan uiteindelijk zeggen: hier trekken wij de grens.
ROTMAN: Als zelfs een techbedrijf een grens trekt, weet je dat...
FRANCISSEN: Maar echt. Die zitten daar om geld te verdienen.
Gelukkig doen ze dat nog voorlopig met advertenties.
Dat is het enge ook, dat snap ik ook wel.
We kunnen allemaal bang zijn voor die advertenties,
maar als je een keer een verkeerde advertentie getoond krijgt,
daar ga je niet meteen dood van.
Maar als jij in het ziekenhuis vanwege 'n algoritme een verkeerde spuit krijgt,
kun je wel ineens overlijden.
En weer over de toeslagenaffaire: er zijn 33 zelfmoorden geweest.
Dat is toch vreselijk.
Die overheid heeft zo veel meer informatie dan die techbedrijven
en die doen het ook om andere redenen dan geld verdienen aan advertenties.
Dat maakt het zo spannend en eng.
ROTMAN: Dit is een verhaal waar je een hele treinreis van het oosten...
naar Amsterdam lekker over kan bakkeleien.
Hier moeten we met z'n allen altijd over praten.
Of je nou bij de overheid of bedrijven werkt.
Er zijn een paar voorbeelden voorbijgekomen.
Minister Schouten die dus armoede wil bestrijden, is iets goeds.
Mitsen en maren, maar we hebben de potentie
dat de grote databases ons allemaal opvreten
en dat je dan in een kafkaëske situatie belandt
dat je eigenlijk geen weerstand meer kan bieden.
Aad noemde net een paar leuke voorbeelden.
Even een paar concrete tips en oplossingen.
Want je zit hiernaar te luisteren en je denkt:
'Op mijn afdeling zitten we ook te broeden op een algoritme.
Maar wij willen dat gaan doen.' Er zijn eigenlijk twee scenario's, Steven.
Of het is misschien oké, mits je aan deze voorwaarden voldoet.
Wat zijn dan de tips en de voorwaarden? Hoe kun je dat organiseren dat het safe is
en de andere scenario's die doen we daarna.
Wat zijn dan de rode vlaggen? Wanneer moet je het niet doen?
'Dit is geen algoritme dat je moet gaan inzetten.'
Eerst eventjes de voorwaarden en de tips.
Je wil een algoritme inzetten, je werkt voor een overheid.
Je bent misschien de beleidsmaker van een minister.
Waar moet je op letten zodat je het goed doet?
DORRESTIJN: Het eigenaardige is dat mensen een onterecht groot geloof
in data en algoritmes hebben.
Dus die krijgen te veel prestige toegekend op dit moment.
En ik denk dat je niet per se moet vertrouwen
wat er uit een rekensom van een computer komt.
Of ja, die rekensom kun je wel vertrouwen,
maar dat is niet een-op-een 'n antwoord, een beleid dat je gaat inzetten.
ROTMAN: Jij doet een stapje terug. Tip 1 is eigenlijk:
is een algoritme wel de oplossing? Stel jezelf eerst eens die vraag.
DORRESTIJN: Ja, ik denk dat dat een hele goeie vraag is
die je veel vaker moet stellen. Kan dat niet gewoon op een ouderwetse manier
met een schriftje of met een gesprek, de wijk in lopen.
ROTMAN: Aad, goede tip?
-Zeker.
Wat Steven ook zegt:
er moet altijd een mens zitten tussen een algoritme en het besluit,
en zeker als het over levens van mensen gaat.
ROTMAN: Dus 'computer says no' gaat niet gebeuren, er moet altijd een mens...
Het is een advies. Er komt een advies uit en geen besluit.
ROTMAN: Oké, dat is tip.
Dus je moet zorgen dat de mens het laatste woord heeft,
dus geen automatisering en dat je vermalen wordt,
dat je geen weerstand kan bieden, niet in beroep.
Andere tips als je toch aan de slag wil gaan met die algoritmes
die natuurlijk toffe dingen kunnen doen.
Er zit er hier eentje, die heeft er een bedrijf van gebouwd.
Hoe doe je het goed, Aad?
Hoe doe jij het goed?
-Een van de zaken
waar wij nu naartoe werken, onder andere met VNG,
Vereniging van Nederlandse Gemeentes,
dat wij sterk aanbevelen, en VNG zit zelf ook op dat spoor,
is dat de inwoner eigenaar wordt en ook blijft van z'n eigen data.
Veel gemeenten zijn bezig met een Mijn- pagina: mijn.hengelo,mijn.denhaag.
Daar staat maar een fractie op van wat er van jou bekend is bij die gemeenten.
Maar waarom hebben inwoners niet een eigen digitale kluis
waar de informatie van de SVB, UVW, gemeente en de rijksoverheid in staat?
De beginnetjes zijn er al. Waarbij je ook, net als die CoronaCheck-app...
even een QR-code kunt maken van een stukje van die informatie
en dat deel je met de consulent die 't op dat moment nodig heeft van de overheid.
ROTMAN: Of met de webwinkel.
-Wat jij zelf wil.
ROTMAN: Steven?
-Ik vind het wel mooi...
maar dat is een behoorlijke uitdaging. En dat betekent ook...
Het is een andere manier van denken.
Veel systemen die zijn gebouwd werken sneller.
Want het is een heel technisch bouwwerk om dat mogelijk te maken.
Dat kan wel, maar is 'n behoorlijke onderneming.
Ik denk dat het goed is om te doen. ROTMAN: Het gaat over regie.
Je geeft mensen weer control over hun eigen data.
DORRESTIJN: Dus ik ben het er helemaal mee eens.
En ook al kost het zoveel tijd en moeite om dat technisch te maken
en duurt het allemaal wat langer voordat al die mogelijkheden er zijn,
dan is 't wel de goede route. FRANCISSEN: Het wordt nu gebouwd.
Ze zijn aan het experimenteren.
Natuurlijk, over tien jaar zal dit hopelijk meer gemeengoed zijn,
maar het wordt nu ontwikkeld, er worden modules ontwikkeld.
Er wordt ook getoetst.
En ook dat delen. Zorg is altijd net iets verder dan een sociaal domein.
De curatieve sector.
Ik heb drie van die PGO's, persoonlijke gezondheidsomgeving, gedownload.
Dan heb je toegang via DigiD, best ingewikkeld nog.
Maar die downloadt zo m'n hele huisartsendossier op m'n telefoon.
DORRESTIJN: Maar dat is vertraagd, want de eerste versie
bij de invoering 10 jaar geleden van het Elektronisch Patiëntendossier,
dat is min of meer gestokt. En dat zat 'm echt hierop.
Dus nu komt dat toch wel op gang
op een manier waarin mensen eigenaar zijn van hun data, steeds meer.
FRANCISSEN: Nou, ik ben nog geen eigenaar.
Het is nog data die bij de huisarts staat en gemaakt wordt.
Ik kan niet zeggen: Dit klopt niet, het moet anders.
Ik heb toegang. Maar de volgende stap is
dat ik stukjes van die data, en dan kom ik in het ziekenhuis...
en de specialist wil weten: welke medicijnen gebruik je nou?
En die medicijnen, een moeilijke naam, die vergeet ik altijd.
Maar dat staat in het dossier, dat kan ik delen met die vent. Ideaal.
Ik vind dat mooi, maar dan heb ik dus echt controle.
ROTMAN: Totdat je in een ambulance wordt aangevoerd
en de artsen kunnen niet bij jouw informatie in de kluis.
Goed, dat zijn praktische dingen. We dwalen een beetje af.
Ik wil even terug naar die menselijke maat,
waar Steven het over heeft. Die algoritmes, dat solutionism.
Die tech gaat alles maar oplossen.
Heb je nog meer tips 'n tricks: als je dat wil doen, prima.
'Het heeft misschien mooie effecten.'
Wat zijn nog meer de tips die je wat jou betreft zou moeten volgen?
DORRENSTIJN: De belangrijkste: echt de mens in the loop houden.
Dus die moet daar echt onderdeel van zijn.
ROTMAN: Mensen in the loop, niet out of the loop.
DORRESTIJN: Mensen moeten onderdeel zijn en niet de data blindelings volgen.
Menselijke controle. Dat is nog een sterkere versie. Net ging het erover:
Kunnen mensen niet eigenaar, zelfs beheerder, worden
van hun eigen kluisje met data? ROTMAN: Wat is dan de rode vlag?
Je wil met een algoritme aan de slag.
Je hebt het gevoel dat je iets goeds gaat doen voor de samenleving.
En wanneer zeg jij nou 'leuk bedacht, moet je niet willen'?
Wat zijn dan de rode vlaggen? DORRESTIJN: Moeilijk te zeggen,
maar we gaan het proberen. ROTMAN: Tuurlijk.
DORRESTIJN: We hebben China voor- gehouden als een soort schrikbeeld.
Maar wat is daar zo anders aan dan wat wij nu proberen?
FRANCISSEN: Daar controleren mensen elkaar met een soort van sociale score.
Net zoals een kredietscore in Amerika.
Sta je in een database van een kredietbeoordelaar met een lage score,
kun jij geen hypotheek krijgen. Jammer, joh.
En dat doen ze daar dus met mensen, social scoren.
Dit is natuurlijk een hele rode vlag.
DORRESTIJN: Maar dan is die rode vlag maar moeilijk te zetten.
Het blijft toch een beetje een vaag gebied.
In hoeverre zit je in het ene systeem en in het andere?
We hebben we het nu over China, hoe het sociaal kredietsysteem functioneert?
Een paar jaar geleden heb ik met veel interesse gekeken
naar The Circle, de film en het boek van Dave Eggers
en daar heb je precies hetzelfde.
Dan zit iedereen elkaar te ranken, maar dan in de Amerikaanse context.
Ik denk dat de uitwerking ongeveer hetzelfde is.
En op vrijwillige basis. FRANCISSEN: Dat is een rode vlag.
Het gaat over jouw data, van jou, die bij de overheidsorganisaties staan,
er zijn veel overheidsorganisaties, dat jij die in beheer hebt,
maar niet dat jij andere mensen gaat zitten ranken.
Die rode vlag ik wil even planten. Geen ranking.
ROTMAN: Je bent ambtenaar op een ministerie,
bij een gemeente of een andere overheidsorganisatie
of misschien bij een commerciële club. Rode vlaggen zijn moeilijk te planten,
zeg jij, Steven. DORRESTIJN: Ik heb 'n nieuw antwoord.
Die rode vlag moet je altijd bij de hand houden. Op z'n minst.
ROTMAN: Dat betekent: je wil met 'n algoritme werken, dat is al de rode vlag.
DORRESTIJN: Nee. Je moet 'm bij de hand houden om 'm te kunnen zetten.
Je moet weten dat je ook een keer nee kunt zeggen.
Dus je moet je ervan bewust zijn dat je bezig bent
met datagedreven werken, algoritmes gebruiken
en dat dat een gevaar in zich draagt,
dat dat het niet duidelijk is hoever je kunt gaan, dat het nog wenselijk is.
ROTMAN: Dus dat is degene aan de kant die dat systeem wil inzetten.
Die laat dat systeem bouwen, moet daar scherp op zijn
zichzelf kritisch ondervragen,
ook het tegengeluid binnen de organisatie erbij halen.
Hebben we ook een aflevering over gemaakt met mijn vriend Alex Corra.
Die zegt ook allemaal slimme dingen. Luister die podcast.
En wat is de verantwoordelijkheid van de maker, Aad?
Jij zit wat meer aan die kant.
Moet je ook tegen een klant kunnen zeggen: 'Wat je nou wil,
je moet het niet willen, pak de telefoon en doe het analoog.
Bel die mensen gewoon op.' Is daar ook een verantwoordelijkheid?
FRANCISSEN: Vind ik wel, maar wij zijn ook een beetje een activistische
of idealistische organisatie.
Dus wij zitten er echt in om dat sociaal domein beter te maken
voor de mensen in die kwetsbare positie.
We maken een voorspelmodel voor een gemeente als het gaat om uitgaven.
Als dat model gebruikt gaat worden om straffen uit te delen,
dan draai ik daar de kraan van dicht. 'Daar was het niet voor bedoeld, mensen.
Ga maar even terug naar de doelmatigheid van de wet.'
DORRESTIJN: Ik kan me goed voorstellen, dat gebeurt wel,
dat overheden, steden... Iedereen heeft gehoord: je moet datagedreven werken,
dus er wordt wel geëxperimenteerd met plannen en dingen waarvan je denkt:
'moet dat nou echt? Dat is echt niet goed.'
En dat is wel een deel van m'n werk op het Saxion
om ook bij gemeenten en steden te helpen
om ethiek in de organisatie een plek te geven
zodat je ook kan bijsturen of zo nodig de stekker eruit kunt trekken.
FRANCISSEN: De gemeenteraad heeft een belangrijke functie.
In Enschede zitten wij er wat dichter op omdat we er wonen.
Maar die laten zich jaarlijks informeren:
welke algoritmes draaien er in deze gemeente? Kom het maar eens uitleggen.
Heel leuk. En het is goed voor raadsleden
om daar wat van te vinden.
ROTMAN: Bij twijfel, bel Steven Dorrestijn,
lector ethiek en technologie aan de Saxion Hogeschool.
Twijfel je nog steeds? Bel Aad Francissen, managing director van 8ting.
Dank voor het luisteren. Meer informatie? Luister meer van deze podcasts.
Hartstikke leuk. Bijvoorbeeld, zoals ik net al zei:
over hoe ga je nou om met interne kritiek
en zorg je ervoor dat mensen zich veilig voelen
als ze bijvoorbeeld jou aan je mouwtje trekken
als jij een algoritme wil inzetten.
Cip-overheid.nl/uitgelicht of je favoriete podcastapp.
Tot de volgende keer.

Afl. 6. Ethiek en Deep fake!

Schrijver Menno van Doorn (Sogeti) van het boek ‘Echt nep’ en Alex Corra (SVB) voorzitter van de CIP domeingroep ethiek, praten over de mogelijkheden om deep fake technieken vóór je te laten werken. Want om ze alleen maar te zien als bedreigend is niet terecht. Daarnaast laat je met die houding een schat aan positieve opties liggen. En trouwens: zo modern is het concept nu ook weer niet. Robin Rotman gaat als host het gesprek met beide heren aan.

Ethiek in de praktijk. Afl. 6 - Ethiek en deep fake!

'Hoe kunnen we deepfakes voor ons laten werken?'
Welkom bij 'Ethiek in de praktijk'. Ik ben Robin Rotman
en in deze podcastserie praat ik met experts en ervaringsdeskundigen
over data-ethiek in de dagelijkse praktijk.
Dit is een podcast van het Centrum Infor- matiebeveiliging en Privacybescherming.
'Waar je op het randje gaat zitten,
is bij deepfake-therapie wanneer het gaat om rouwverwerking.
Dan kan je een gesprek aangaan met een overleden dierbare,
je vrouw, man, kind.'
Te gast vandaag: Menno van Doorn,
directeur bij het Verkenningsinstituut Nieuwe Technologie vanuit Sogeti
en jij schreef het boek 'Echt nep'
over deepfakes. VAN DOORN: Onder andere, ja.
ROTMAN: Alex Corra, je hebt vaker aan tafel gezeten. Blij dat je er weer bent.
Beleidsadviseur recht en ethiek
en voorzitter bij de domeingroep data-ethiek bij het CIP.
Leuk dat je er bent. We hebben het over deepfakes
en hoe we deze dingen voor ons kunnen laten werken.
Want we maken ons vaak zorgen over deepfakes, toch Menno?
VAN DOORN: Mensen maken zich vaak zorgen over technologie in het algemeen
en ook over deepfakes. Beetje slecht imago, zou ik willen zeggen.
ROTMAN: Het is een imagodingetje?
-Ja.
Er zitten scherpe kanten aan en die moeten bestreden worden,
maar er zitten ook veel positieve kanten aan.
Dat is de uitdaging en de vraag die we vandaag...
ROTMAN: Ja, we gaan kijken hoe we dat dan kunnen realiseren.
Maar in je boeken 'Echt nep' gaat het over manipulatie, desinformatie.
En je zegt ook: het is van alle tijden, jongens.
Je relativeert het een beetje, maar je maakt je wel zorgen.
Wat is je verhaal daarin?
VAN DOORN: Als je in de geschiedenis terugloopt
langs alle media, televisie, radio... Ga maar terug naar de hiërogliefen.
Ramses II, fantastische overwinning op de hiërogliefen,
maar er was geen snars van waar.
ROTMAN: Toen was het al: waar zitten we eigenlijk naar te kijken?
VAN DOORN: Een rode lijn door de geschiedenis van de hele mensheid.
ROTMAN: Ben ik naïef of maak ik me te veel zorgen als ik nu denk:
'nu zitten we echt in een tijd waarin we niet weten waarnaar we kijken.
Nu is het echt tricky.'
VAN DOORN: Nou, een beetje naïef ben je wel, maar dat hangt van veel dingen af.
Er zijn nu veel mogelijkheden met deepfake-technologie
of synthetische data of synthetische media, zoals wij ze noemen.
Maar je moet er ook vanuit gaan dat wij een beetje gehard zijn.
Mensen kunnen wel tegen een stootje
en we zijn niet zomaar van de soort dat we alles voor zoete koek aannemen.
We hebben ook iets ingebouwd in ons DNA
dat we niet zomaar elk plaatje of elk geluid zomaar tot ons nemen
en dan geloven dat het echt waar is.
ROTMAN: Alex, jij hebt die vraag opgeworpen:
Hoe kunnen we deepfakes voor ons laten werken?
Maak jij je zorgen?
CORRA: Zorgen? Ik ben vooral gefascineerd.
Ja, je ziet wel van alles.
Aan de ene kant zie je dat technologie mogelijk maakt
dat je synthetische beelden genereert die steeds aantrekkelijker zijn.
Lange tijd was het de uncanny valley, waarvan je meteen zag: O ja, dit...
Het begon eigenlijk al vlak na Jurassic Park.
Jurassic Park was denk ik een mooi voorbeeld
van de inzet van technologie waarbij je echt dacht:
'wauw, die dino's lijken heel echt.'
ROTMAN: Voor het eerst zag je dat ze erin slaagden
om realistisch een dinosaurus neer te zetten.
CORRA: Ja, er was een boom van CGI en lange tijd zag je meteen:
'dit is CIG of echt', in cameraeffecten of iets dergelijks.
Dat verschil is steeds kleiner en genuanceerder geworden,
want je ziet dat het ook niet...
En er werd wel gezegd: 'Practical effects are dead'.
Maar je ziet juist dat er soms een combinatie van gemaakt wordt.
Om het echt goed te doen is het veel genuanceerder
dan alleen maar zeggen: alles wordt CGI of alles moet practical effects zijn.
ROTMAN: Synthetische beelden?
-Ja, met computergegenereerde beelden.
ROTMAN: Nep.
-In feite wel.
VAN DOORN: Daarna zijn ze acteurs gaan vervangen
die halverwege de film overleden zijn.
En dan kom je meteen in een soort ethische vraagstelling:
heeft iemand wel toestemming gegeven? Maar je ziet het verschil niet meer,
maar dat is niet zo erg, want het is gewoon film.
ROTMAN: Deepfakes in de entertainmentindustrie.
Als wij het in de samenleving over de inzet van deepfakes hebben,
hebben we het niet over de nieuwe Terminator-film.
Waar heb jij het dan over in je boek? VAN DOORN: Huis-tuin-en-keukenspullen.
Je fototoestel waar AI in zit, zodat je beter de vakantiefoto's neemt.
Ik denk dat iedereen dat toejuicht.
ROTMAN: Dat is ook al deepfake?
-Ja.
Door kunstmatige intelligentie gemanipuleerd beeld, geluid of video,
dan wel volledig vanaf nul gemaakt.
Dus dan krijg je opeens mensen die nooit bestaan hebben
die door de computer gegenereerd zijn, maar geen basis hebben.
ROTMAN: Dat is niet mijn associatie met deepfake.
Als jij een foto van Alex maakt, ziet ie er misschien iets beter uit.
Z'n bril ziet er beter uit, z'n baard kleurt mooier.
Jij zegt: dat is een soort van deepfake. Een laagje photoshop eroverheen.
Maar bij deepfake denk ik: je laat een foto zien van Alex zien
waarin hij er anders uitziet dan hij zou willen.
Dat is voor mij deepfake.
Je zit me te besodemieteren.
-Nee, dat is een variant.
Er is altijd een definitiekwestie: wat versta je eronder?
Maar de mensen die in die synthetische mediawereld zitten,
zeiden wat ik net zei: dat is de definitie.
Dan heb je de face swap, leuk op feesten en partijen.
Dan zet je het gezicht van een beroemdheid op
en dan maak je er een videootje van.
En de meest kwaadaardige zijn wat ze noemen de non-consensual porno.
Daar is veel over te doen. Dus nogmaals, er zitten veel scherpe kanten aan,
maar de technologie op zichzelf is waardevol. Kan leuk zijn, zinvol.
Je kan er uitvindingen mee doen. Een palet van mogelijkheden
waar je overheen stapt, want als je 'deepfake' hoort,
dan krijg je meteen boegeroep.
ROTMAN: Ik ben blij dat je zegt 'een palet aan toffe toepassingen'.
Die wil ik straks allemaal horen,
want ik wil even dat beeld uit mijn hoofd verdrijven dat het vaak ludiek is.
Ik zie Mark Rutte in m'n kerstkaart voorbijkomen
die 'Rudolph, the red-nosed reindeer' zingt, grappig,
en die nare verhalen van meisjes die worden gechanteerd
omdat ze gedeepfaket worden.
VAN DOORN: Het gaat om de conventies van het spel.
Dus bij Rutte is het een prank. Het is de bedoeling dat je ziet dat 't niet echt is.
Dat is de lol ervan, terwijl bij andere dingen het gevaar is
dat ze je willen blijven laten geloven dat ze nep zijn
en daar zit de kwaadaardigheid in. Maar een prank is een grap, is leuk.
ROTMAN: Ben jij ook zo benieuwd naar dat palet aan positieve toepassingen?
CORRA: Jazeker. Kijk, wat we net al zeiden:
Als je 'deepfake' noemt, dan klinkt dat meteen al...
Dan schrik je een beetje.
ROTMAN: Een ongewenste toekomst. CORRA: Ja, terwijl wat net gezegd is:
manipulatie is van alle tijden.
Dat gebeurde ook toen net de eerste foto- en filmcamera's kwamen
Dus in die zin zijn we er ook wel wat meer aan gewend geraakt.
Maar wat nu wel is: er kan zoveel mee. Dus ik ben wel benieuwd wat er kan.
ROTMAN: We hebben neergezet wat deepfakes een beetje zijn.
Wat het is, is al breder dan wat ik in mijn hoofd had.
De toepassingen zijn veelkoppiger dan ik in m'n hoofd had.
Menno, alsjeblieft: positieve voorbeelden. VAN DOORN: Meteen 'n hele praktische,
één van ons eigen bedrijf. Wij maken deepfake röntgenfoto's van gebitten
die niet bestaan en nooit zullen bestaan
om systemen te testen, omdat dat privacygevoelige informatie is.
Dus elke organisatie die met privacy te maken heeft en systemen wil testen,
adviseer ik: gebruik deepfake- technologie en zorg dat het net zo echt is
als echt, dan hebben we die gevoelige informatie niet meer nodig.
Dat is puur praktisch en gebeurt steeds vaker.
ROTMAN: Wauw. Oké, dus dat is één ding.
We hebben in de entertainmentindustrie gezien:
je kan films maken, je kan acteurs tot leven wekken, dinosaurussen creëren.
Supertof. Een levensechte ervaring. Zweten in de bioscoop.
VAN DOORN: Behalve dat je mensen kan maken
die net zo echt lijken als ze zijn, maar ze zijn niet echt,
kan je ook uitvindingen doen.
Dus bijvoorbeeld met dezelfde technologie ontwerpen ze computerchips.
Dan wordt van scratch een ontwerp gepresenteerd
voor degene die ze moeten maken. Die denken: dat ziet er wel heel raar uit.
Google heeft het gedaan. En die geloofden er niet in
tot ze erachter kwamen dat het sneller was dan wat de mens kon uitvinden.
Dus in medicijnen in de toekomst en andersoortige uitvindingen
wordt dezelfde technologie gebruikt op een andere manier.
ROTMAN: Hoe bedoel je, medicijnen? Kun je straks medicatie testen
op jouw deepfake mensen?
VAN DOORN: Er zijn bedrijven die medicijnenmoleculen maken
die potentieel een oplossing zijn voor een bepaalde ziekte.
Maar in plaats van dat mensen dat doen,
laten ze een AI het doen en die rendert 100 oplossingen.
Dan gaan ze vanuit oplossingen kijken welke succesvol kan zijn.
ROTMAN: Maar dan rek je het begrip deepfake wel erg ruim op, denk ik.
VAN DOORN: Nee hoor, want of je nou een mens ziet
of een plaatje van een molecuul, röntgenfoto of gebit:
het zijn allemaal deepfakes. CORRA: Ik snap wel wat je bedoelt.
Het zijn allemaal een synthetisch gecreëerde objecten in feite,
want dat doe je met die AI.
Je genereert iets vanuit patronen die juist niet bij mensen op zouden komen,
maar vanuit de logica die het AI-model wel kan genereren.
Dus in die zin snap ik wel wat je bedoelt.
Alleen in de volksmond is het gauw:
'Deepfake is dat ene filmpje van iemand die zogenaamd...'
Volgens mij was het de woordvoerder van Navalny of zo
die dan zogenaamd met het Europees Parlement in gesprek was
en dat bleek iemand anders te zijn. Een combinatie van echte
en nepbeelden die ze samengevoegd hadden.
VAN DOORN: Het was niet eens de goede man zelf.
Dat is een voorbeeld van kwaadaardige deepfakes.
Goed, als je weer terug wil naar dat plaatje,
want we moeten jou een beetje helpen
om dat kwaadaardige beeld uit je hoofd te krijgen:
Je kan ook aan therapie denken.
Er gebeuren interessante dingen op het gebied van deepfake-therapie.
Dan zie je bijvoorbeeld jezelf in open water zwemmen.
Stel dat jij bang bent voor open water,
maar je ziet jezelf, je verplaatst je erin, je maakt nieuwe herinneringen.
Want je had ze niet om in dat open water te zwemmen.
Dat zijn interessante toepassingen waar meteen duidelijk is
dat een hele goede intentie is, want jij wil ervanaf.
Waar je op de rand gaat zitten, is bij deepfake-therapie bij rouwverwerking.
Dan kan je een gesprek aangaan met een overleden dierbare.
Kan je vrouw zijn, man, kind. Roshan Nejal doet dat in Nederland.
En hier is dan weer de vraag: is er consent?
Is degene die overleden is daar happy mee, heeft die toestemming gegeven?
Dat is wel een ethisch... ROTMAN: Superethisch.
Wat vind je zelf van dit specifieke voorbeeld?
Ik vind het eigenlijk wel oké, als ik heel eerlijk ben.
Liever zou ik hebben dat iedereen opschrijft dat men na zijn dood
wel of niet in welke situatie, beeld, geluid enzovoort mag gebruiken.
ROTMAN: Moeten we John Lennon terughalen?
VAN DOORN: ABBA is er, dat is toch fantastisch?
En die zijn nog niet eens dood. Daar ga je toch naartoe of niet?
ROTMAN: Ja, maar voor ABBA zelf is dat een PR-stunt.
John Lennon, Einstein? VAN DOORN: Waarom niet,
als ie inspireert en mensen les kan geven
en mensen zich meer willen verdiepen in de wetenschap.
ROTMAN: Dit vind ik leuk, Alex. Die eerste voorbeelden waren zeer zinvol,
moeten voldoen. En nu komen er een paar voorbeelden waarvan ik denk: nou...
CORRA: Er is volgens mij ook een discussie rond Amy Winehouse.
Haar familie heeft toestemming gegeven
om een holografische versie van haar te maken, terwijl in haar testament
daar niets over stond. En dat heeft een hele discussie opgeleverd.
Ik weet dat Elton John volgens mij in z'n contract heeft staan
dat er geen digitale versie van hem gemaakt mag worden.
Nou ja, dat is dan wel weer het interessante,
dat die nieuwe technologie nieuwe vraagstukken brengt
waar je normaal nooit over had hoeven nadenken.
Want ja, je bent overleden, dan is het gewoon het einde.
Dan kom je niet meer zo makkelijk terug. En nu kan je terugkomen
en misschien kom je wel heel anders terug dan jij zelf zou willen.
Moet je daar iets mee? ROTMAN: Dit vind ik wel heel gaaf.
Ik wil iets meer naar het hier en nu. Veel mensen die deze podcast luisteren,
komen uit de overheidshoek, ambtenaren en zo.
Heb je ook voorbeelden van hoe de overheid inmiddels
deepfake misschien omarmd heeft
op grote of kleine schaal? Heb je daar voorbeelden van?
VAN DOORN: Dat röntgenfotovoorbeeld was een overheidsorganisatie in Zweden.
De overheid is altijd keen op privacy. Terecht, natuurlijk.
Ik denk dat dat nummer 1 is. En in campagnes, kan je je bedenken.
Je kan de technologie beetpakken.
Het bijt niet, het doet je niks. Waarom zou je 't niet gebruiken?
Waarom zou een overheid daar anders in staan dan een andere organisatie?
Veel overheids- of semi-overheidsorganisaties
zijn juist bezig met het doen van fundamenteel onderzoek.
ROTMAN: En als je echt eventjes kan inspireren,
dat je zegt 'oké, als je mij binnenhaalt als adviseur van de overheid...'
We hebben nu een staatssecretaris van digitale zaken en die zegt:
'Menno, je hebt dat boek geschreven, 'Echt nep',
Ik heb je gehoord in die podcast. Jij bent een slimmerik.
Adviseer mij. Deepfakes,
hoe gaan we die voor de samenleving inzetten?' Waar zou je op inzetten?
VAN DOORN: Dat begint met probleem- definiëring. De samenleving is zo groot,
het zou aanmatigend zijn als ik hier zeg 'dit moet de overheid doen',
want dan krijg je mijn hele politieke agenda.
We eindigen het boek met een politieke agenda
en dat is hoe je een positief verhaal kan vertellen.
Alles wat je kan manipuleren, beeld en geluid, komt extra hard binnen.
Er zijn wel wat dingen aan de hand in de wereld,
niet in de laatste plaats klimaatopwarming, biodiversiteit,
de grote issues waar we ons meer druk over moeten maken
dan deepfake-technologie. Hoe mooi is het
als we synthetische media kunnen inzetten om een positief verhaal
te creëren, om mensen mee te krijgen in de omslag die we allemaal moeten maken.
ROTMAN: Hmm, Alex?
CORRA: Dat brengt ons bij een interessante ethische vraag:
welk doel heiligt de middelen?
Een van de vragen die ik zelf heel interessant vind,
gaat over manipuleren van mensen
en de inzet van technologie om te manipuleren
speelt heel erg bij sociale media en platforms zoals Facebook,
maar ook wel bij TikTok, denk ik.
Men probeert dat platform zo te bouwen
dat die aandacht optimaal gegrepen wordt.
ROTMAN: Advertenties, dat verhaal.
-En dat je steeds meer wil kijken.
Je kan natuurlijk ook zeggen: als wij die technologie gaan inzetten
om bijvoorbeeld het klimaatveranderingsverhaal
beter voor het voetlicht te brengen,
misschien kan dat net het druppeltje zijn wat ervoor kan zorgen
dat we uiteindelijk de actie ondernemen die we moeten ondernemen
om dat collectieve probleem goed aan te pakken.
ROTMAN: Maar de critici willen het tegenargument bewijzen.
VAN DOORN: Beeld komt altijd extra sterk binnen.
Dan laat je in zo'n postcodegebied zien hoe hoog het waterstijgingseffect
in jouw straat is. Zoom dan even uit en een paar jaar naar voren.
Een soort toggle, en dan kan je zien: verrek, dat is wel echt een issue.
ROTMAN: Dat was m'n volgende vraag, maar dat is het dus.
Je kan laten zien hoe het... Hoe noem je dat nou?
Dat scenario kan je gewoon in beeld brengen.
VAN DOORN: Levensecht, omdat het steeds echter wordt.
Beelden worden echt, geluiden worden echt
en het andere wat Alex brengt:
Er is wel wat aan de hand en ik denk dat de kwaadaardigheid
moet worden aangepakt via wetgeving.
Ik denk vooral op Europees vlak. Dat moet Nederland niet doen.
ROTMAN: Worden daar stappen gezet? De AI Act bijvoorbeeld?
VAN DOORN: 6% van je omzet voor die grote biotechbedrijven.
Dat is zo ongeveer 20% van je winst van Google.
Dat doet echt pijn. En ik denk dat je het systeem moet aanpakken.
Dus de fake chatbots bijvoorbeeld. Dat is heel kwaadaardig,
want die verspreiden al die mooie verkeerde beelden.
Je moet het systeem aanpakken, dat vind ik helemaal goed.
ROTMAN: Oké...
-Daar wil je niet heen, hè?
ROTMAN: Ik wil naar tips en oplossingen en dit is een mooi begin.
Laten we eerst kijken wat de overheid kan en moet doen
om de negatieve deepfakes aan te pakken.
Even kort en snel twee concrete dingen misschien.
Die regelgeving, maar wat voor regel? Verbieden? Wat is dan de regelgeving?
Daarna wil ik kijken: wat zijn de tips en oplossingen?
Je wil ermee gaan werken bij de overheid of een andere organisatie.
Je ziet een kans. Hoe doe je dat? Hoe pak je het aan?
Maar eerst nog even die negatieve deepfake, die valse informatie.
90% van de informatie op die socials die straks op me afkomt
die niet meer echt is. Wat moeten we eraan doen?
Wie? VAN DOORN: Alex, jij mag.
CORRA: Nou, het is... Ik zit er tweeslachtig in.
Aan de ene kant denk ik: wil je het beter kunnen herkennen,
wil je er beter mee om kunnen gaan, moet je eraan gewend zijn.
Het is vaak zo, en dat zie je door de tijd heen ook
met de ontwikkeling als het gaat om film en allemaal dingen
waar we doordat we het vaker zien ook meer de nuances misschien zien
van dit is echt of niet echt,
maar er is ook een punt waarbij je het misschien niet meer kan zien.
En ben je je er dan bewust van dat dat punt bereikt is?
Dus dat is denk ik lastig,
maar tegelijkertijd is volledig wegreguleren onmogelijk.
Want als het er is, dan gaat iemand het gebruiken.
VAN DOORN: Je krijgt ook technologische oplossingen.
Ik zal wat reclame maken voor Truepic, iProof, Sensity, Deepware AI,
DeepDetector, Microsoft Video Authenticator.
Dus dat is een booming markt in de techsector alleen.
Die zeggen: wij gaan wel zeggen of dat plaatje, geluidje of videootje echt is.
Dus foto's opsturen van je beschadigde auto,
dan wil de verzekeraar weten: zit er geen deepfake achter?
Voor een deel is het technologie,
maar ik denk niet dat technologie het hele probleem oplost.
Het is een palet van dingen. Het is wetgeving, technologie
en een beetje vertrouwen op de mensheid dat we niet naïef ter wereld komen,
maar dat we toch wel kijken om ons heen
en eerst willen weten of het wel een beetje klopt.
En natuurlijk... We hebben het niet over hele zware dingen gehad,
maar het allerkwaadaardigste is gewoon propaganda.
Propaganda is een staatssysteem, dat lossen we hier aan tafel even niet op.
ROTMAN: Doen we een andere keer.
Oké, dat zijn die deepfakes waar we ons zorgen over maken.
Je kan er iets mee, het gaat over vertrouwen,
maar dan toch even de deepfakes die we voor ons willen laten werken.
Hoe ga je aan de voorkant van zo'n proces dat je zo'n systeem wil bouwen
ervoor zorgen dat het daadwerkelijk voor ons werkt? Hoe pak je dat aan?
VAN DOORN: Afhankelijk van wat het doet.
Als je dat voor ons wil laten werken...
en ik ga het met jou hebben over het afmaken van de symfonie van Beethoven,
die die nooit heeft afgemaakt, of Philip Glass, waar ik een fan van ben:
je hebt een AI-generator Philip Glass-muziek.
Ga er eens naar luisteren. Fascinerend. Andere vormen van kunst.
ROTMAN: Er zijn nieuwe Beatles-liedjes gecreëerd.
VAN DOORN: Ik heb er eentje lang in m'n hoofd gehad.
Fijn dat je me er weer aan herinnert, want dat was echt een oorwurm.
Maar je mag ook een glimlach hebben.
Als je het voor je moet werken, mag het toch ook gewoon leuk zijn?
Zinvol ook, dat is ook belangrijk.
ROTMAN: Je noemt nu wat zaken uit de entertainmentindustrie.
Is het dan ook aan de voorkant nadenken over...
VAN DOORN: Entertainmentindustrie...
De stad Groningen heeft een digitale twin gemaakt van de hele stad.
Er is zoveel moois te doen waarbij je exacte kopieën hebt van de echte wereld
waardoor je met de buurtbewoners of projectontwikkelaars aan tafel kan zitten.
Dus het hele 'verfaking', wat wij dan echt nep noemen...
We zijn nog maar aan het begin en zijn er mooie toepassingen.
ROTMAN: Maar dan is het wat jij altijd zegt, Alex:
Je moet aan de voorkant goed nadenken: wat wil ik nou werkelijk?
In plaats van als een kip zonder kop met die tech aan de slag gaan.
En als je bedacht hebt wat je werkelijk wil,
zou een deepfake-technologie een oplossing zijn,
omdat het voldoet aan de waardes die je wil uitstralen, iets wat je wil bereiken.
Dan is het een tool die je ten goede
of kwade kan inzetten. CORRA: Dat geldt voor alle technologie.
Het zijn doorgaans altijd middelen voor een bepaald doel.
Je moet nadenken welk doel je ermee wil bereiken
en wat aan het begin ook gezegd werd, als het gaat om synthetische testdata:
ik denk dat daar veel mogelijkheden zijn.
Dat is in ieder geval bij de overheid en ook bij mijn organisatie
één van de lastigste dingen.
Hoe kan je nou goede realistische testdata vinden
en tegelijkertijd de privacy beschermen?
Dat is denk ik het begin van een applicatieveld
waar het denk ik heel nuttig kan zijn.
VAN DOORN: Misschien kunnen we filosofisch eindigen,
want we zitten een beetje... ROTMAN: We gaan naar het einde toe.
Ik zit even te broeden op mijn laatste vraag.
VAN DOORN: Een uitdagende vraag voor de toekomst is:
zijn we in staat om synthetische mensen te maken
die conversaties aangaan met de burger, die dus absoluut niet echt zijn,
die in staat zijn om het contact met de overheid menselijker te maken?
En ik stel het bewust als een vraag, want je kan twee kanten op.
Je kan zeggen: het is de ultieme ontmenselijking,
maar soms is het contact met de overheid niet erg menselijk.
ROTMAN: Een kwartier in de wacht.
-Ik denk dat daar
een spannende toekomstvraag zit: hoe zijn we in staat,
wat is er nodig als we dat willen bouwen? Onder welke voorwaarden zijn we in staat
om een menselijke computer contact te laten maken die wel menselijk is
en waar mensen blij van worden en beter geholpen door worden.
ROTMAN: Nu zit je toch aan tafel bij de staatssecretaris van Digitale Zaken.
Vind je dit een leuke kwestie, Alex?
-Een hele mooie.
Ik moet meteen aan de film 'Her' denken.
Kan je verliefd worden op een AI en is dat erg?
Maar de andere kant van het verhaal is een soort van individuele matrix
die voor ons geschapen wordt, die perfect bij ons past, en is dat erg?
Maar wat jij zegt... Een van de dingen waar ik ook mee bezig ben:
Die technologie moet je inzetten op een manier
die complementair is aan wat wij willen, als mensen en als maatschappij.
Daar moet je goed over nadenken en dat moet je proberen te bereiken.
Wat heb je nou nodig om die complementariteit te kunnen realiseren?
Welke randvoorwaarden horen daarbij? Welke designkeuzes moet je maken
om dat te stimuleren? Dat zijn denk ik vragen waarmee je aan de slag moet,
wil je dit op een goede manier kunnen doen.
VAN DOORN: Eens. Ik ben misschien nog net iets radicaler.
Je kunt de vraag stellen wat mensen zouden moeten willen.
Weer terug naar die grotere vraag.
We leven in een consumptiemaatschappij, allemaal leuk en aardig.
Die marketingjongens weten waar ze dit voor willen gebruiken,
namelijk meer consumeren.
Ik zou het ook interessant vinden om te kijken:
hoe krijgen we nou tussen de oren dat dat grote issue echt speelt?
Hoe creëren we nieuw narratief van economie waar we in willen geloven?
Dan kun je deze media daar perfect voor inzetten volgens mij.
ROTMAN: Dit is een leuke om mee af te sluiten.
Laat iedereen hier zelf ook over nadenken.
Wat is nou eigenlijk echt en wat is nep? Wie bepaalt er wat fake is of niet?
Wanneer het wel of niet mag. Iedereen neemt z'n verantwoordelijkheid:
op overheids-, bedrijfs-, ontwikkelaars- en individueel niveau.
Dat gaan we doen. Ik hoop dat deze podcast een bijdrage heeft geleverd.
Als afsluiter wil ik een beeld oproepen van die fictieve mens
die Menno net heeft ontwikkeld,
die de relatie tussen de mens en de overheid menselijker en mooier maakt
en dat we ondertussen allemaal een beetje verliefd worden,
als bijeffect, op die persoon en of we dat eigenlijk wel willen.
Mooi om met z'n allen over na te denken. Dank je wel, Menno van Doorn,
directeur Verkenningsinstituut Nieuwe Technologie bij Sogeti,
schreef het boek 'Echt nep', leuk en zinvol boek.
Alex Corra, beleidsadviseur recht en ethiek
en voorzitter van de domeingroep data-ethiek bij het CIP.
Dank jullie wel, beiden. Ja jongens, dit is een leuke podcast.
We hebben veel van dit soort afleveringen gemaakt. Wil je meer horen,
dan kan dat via cip-overheid.nl/uitgelicht of je favoriete podcastapp.
Dank jullie wel.

Afl. 7. Ethiek en gezichtsherkenning

Er zitten tal van voordelen aan gezichtsherkenning, een soort toepassing die ook ethisch verantwoord kan worden ingezet. Dat is de mening van Katinka Knops (politie) en Alex Corra (SVB). Dat gaat niet zomaar, ontdekt ook host Robin Rotman. De meeste betrokken organisaties, leveranciers en gebruikers, zijn nog op ontdekkingsreis. Ook de politiek onderzoekt deze grenzen.

Ethiek in de praktijk. Afl. 7 - Ethiek en gezichtsherkenning

'Hoe kunnen we gezichtsherkenning voor ons laten werken?'
Welkom bij 'Ethiek in de praktijk'. Ik ben Robin Rotman
en in deze podcastserie praat ik met experts en ervaringsdeskundigen
over data-ethiek in de dagelijkse praktijk.
Dit is een podcast van het Centrum Infor- matiebeveiliging en Privacybescherming.
'Als het over dit onderwerp gaat,
denk ik dus ook vaak dat we als samenleving... Dat is niet alleen
een vraag voor de politie, want die camera's zijn van iedereen.'
Te gast vandaag: Alex Corra,
beleidsadviseur recht en ethiek bij de SVB. Welkom.
En Katinka Knops, adviseur ethiek bij de politie. Leuk dat jullie er zijn.
Katinka, we hebben het over gezichtsherkenning en over de politie.
Oeh, dat is altijd interessant.
Ik kan me voorstellen dat jij als adviseur ethiek bij de politie
op het gebied van ethiek vaak praat over gezichtsherkenning.
Is dit nou weer dat oeroude ethische dilemma opsporing versus privacy?
KNOPS: Dat komt daar zeker in terug.
Alleen als je kijkt naar gezichtsherkenning:
de politie heeft een taak die uit drie onderdelen bestaat
en behalve de opsporing is dat ook het handhaven van de openbare orde
en de hulpverlening. Eigenlijk zou je op alle drie die taakgebieden
toepassingen kunnen bedenken van gezichtsherkenning.
En als het gaat om de ethiek
komt er ook meer in beeld dan alleen privacy, wat mij betreft.
Maar dat is wel een belangrijke. ROTMAN: Wil ik straks meer over horen.
Eerst even kijken waar Alex staat in dit dossier.
Alex, als jij denkt aan gezichtsherkenning,
heb je dan vooral positieve of negatieve associaties?
CORRA: Toch wel kritischer, om het zo maar te zeggen.
Dat je denkt: wat kan je er allemaal mee en waar gaat dat toe dienen?
Het is superinteressant vanuit technisch perspectief
wat je ermee kan en hoe het werkt.
Maar vanochtend stond er in de krant een stukje of las ik een berichtje
over Microsoft en het onderdeel van zijn suite van AI-bouwblokken binnen Azure.
Daar hebben ze een gezichtsherkennings- module en die gaan ze beperken.
Ze hebben juist vanuit ethisch perspectief een kader aangenomen
en gezegd: wij gaan bepaalde onderdelen daar niet meer zomaar in aanbieden.
Een van die onderdelen is emotieherkenning.
Omdat men zegt: De impact daarvan, dat weten we toch niet helemaal zeker.
Misschien heeft het ook te maken met onzekerheid
rond de kwaliteit van dat soort technolo- gieën, maar heeft men gezegd:
'Dat gaan wij niet meer aanbieden als een van de standaardproducten.'
ROTMAN: Dat stemt jou tevreden dan.
-Vooral dat ze erover nadenken
en er voorzichtig mee zijn. Voorzichtig- heid met dit soort technologie is goed.
KNOPS: Daar sluit ik me bij aan
en dat is wat wij als politie ook erg belangrijk vinden,
want het behoud van het vertrouwen in de samenleving is ontzettend belangrijk.
En wij willen dan ook die technologie zo gericht mogelijk inzetten.
ROTMAN: Jij zegt: Het gaat niet alleen over privacy.
'Het gaat niet alleen over opsporing, het is veel breder.'
Kun je een beetje schetsen wat voor toepassingen jij dan allemaal ziet?
Waar hebben we het over?
-Dan begin ik met zeggen
dat de politie op dit moment gezichts- herkenning niet operationeel inzet.
De Tweede Kamer en de vorige minister van Justitie
hebben gezegd dat de politie dat niet kan inzetten,
tenzij we zorgen voor een deugdelijk juridisch en ethisch kader.
Dat hebben we inmiddels ontwikkeld. Dat moet nog wel vastgesteld worden
en dan zal het ook naar de Tweede Kamer gaan.
En dat kader willen wij dus gaan gebruiken om ideeën
voor de inzet van gezichtsherkennings- technologie aan te toetsen.
ROTMAN: Weet je wat ik grappig vind, Alex?
Ik denk dat een boel mensen niet eens in de gaten hebben
dat de politie dit nog niet operationeel gebruikt.
Ik denk dat veel mensen denken: dit is al aan de orde van de dag. Toch?
CORRA: Denk ik ook, jazeker. Omdat camera's overal aanwezig zijn
en omdat het ook zeker in tv-series supervaak gebruikt wordt van:
'kijk, met de camera zagen we op anderhalve kilometer afstand
ROTMAN: Satelliet zoomde in.
-dat Pietje daar stond.'
Terwijl, het grappige is natuurlijk ook dat sciencefiction en realiteit
door elkaar heen lopen en ondertussen de technologie veel beter is geworden.
Dus inderdaad kan je mensen op, misschien niet op lange afstand,
maar wel door een boel verschillende plekken heen volgen.
Maar of het ook daadwerkelijk zo gebruikt wordt?
Ik weet dat er weleens discussie is over verkeerscamera's gebruiken
voor het volgen van verdachten als er een overval is geweest of zo.
Maar dacht ik misschien dat het meer gebruikt werd.
ROTMAN: Wij hebben nu de mazzel dat we aan tafel zitten met Katinka.
Die denkt mee over ethiek en gebruik door de politie.
Je hebt meegeschreven aan het ethisch kader.
Dat is een werkdocument, de Tweede Kamer gaat daar over nadenken
en debatteren. Eigenlijk heb ik twee vragen in eerste instantie:
Kun je schetsen welke toepassingen jullie daar noemen?
Waarvan jullie zeggen: Daar moet de Kamer echt over nadenken,
want dit zou interessant kunnen zijn.
En ten tweede: Welke dilemma's schets je?
Want ik kan me voorstellen dat je niet per se verdedigt
hoe we ermee moeten omgaan.
Jullie schetsen volgens mij vooral 'waar hebben we het eigenlijk over', toch?
KNOPS: Het kader is geen opsomming van 'dit wel en dat niet'.
Ik zei net ook: Ethiek is altijd contextspecifiek.
Dus het kader is iets om ideeën aan te toetsen.
En wij hebben het vanuit drie perspectieven in beeld gebracht.
Dat is inderdaad de techniek die Alex al noemde,
het juridische en het ethische.
En aan de hand van allerlei ideeën hebben wij daar ook
in een brede online community binnen de politie over gesproken
en daar de discussie over gevoerd
en de uitkomsten daarvan hebben we gebruikt om af te leiden
wat nou de factoren zijn die een rol spelen bij het maken van die afweging.
En daarin zijn we op tien factoren uitgekomen die daar belangrijk bij zijn.
Dan moet je bijvoorbeeld denken aan: hoe erg is het waarvoor je het wil inzetten?
Gaat het om een terrorist opsporen
of wil je inderdaad verkeersovertreders hiermee pakken.
En wat ook heel belangrijk is, is de locatie waar je het gaat doen.
Is dat een plek waar veel mensen voorbijkomen?
Ook de duur is belangrijk: voor hoelang?
Wil je dit doorlopend inzetten of alleen kortdurend?
En het kader is erop gericht
dat we deze technologie zo gericht mogelijk willen gaan inzetten.
ROTMAN: En dat gaat ook over, om dat lijstje aan te vullen,
want dat vind ik relevant,
misschien ook: hoelang bewaar je het en wie hebben er toegang toe?
KNOPS: Dat zijn inderdaad allemaal aspecten
die daarbij een rol spelen en wat we zeker ook niet moeten vergeten
in het algemeen bij het gebruik van allerlei nieuwe technologie,
is dat je goed moet kijken welke alternatieven er zijn,
omdat vaak toch makkelijk op het moment dat er nieuwe mogelijkheden zijn,
technologie als een oplossing voor alles wordt gezien.
ROTMAN: Alex, als jij nou denkt: er zijn tien punten waarover we nadenken.
Katinka heeft er een paar genoemd.
Kun jij nog wat dingen noemen? Kijken of ze die al geïdentificeerd heeft.
CORRA: Ik vind het wel interessant,
want hoe ga je dan ook de verantwoordelijkheid erin leggen?
Er wordt veel gesproken over human in the loop.
Is dat een onderwerp wat bijvoorbeeld daarin meegenomen is?
Je ziet dat veel van die technologie zit ingebakken in allerlei camera's
die commercieel verkocht worden. Hoef je alleen maar aan te zetten.
Dus het is een kwestie van 'hebben we het aan of uit?' in sommige gevallen.
Is daar nog iets over? Wanneer iemand beslist om 't daadwerkelijk aan te zetten.
KNOPS: Zeker, we hebben bij dat kader ook een toetsingsprocedure ontworpen,
die onafhankelijk is, checks and balances en besluitvorming.
En er zitten ook gewoon een aantal harde randvoorwaarden omheen.
Maar een van de factoren is inderdaad ook:
kijk goed wie de leverancier van je systeem is.
Daar hebben we ook al voorbeelden van in de media gezien.
ROTMAN: Waar gaat de informatie heen. KNOPS: Zitten daar achterdeurtjes in?
Maar dat het inderdaad heel belangrijk is
wat je met die data doet en wie daar toegang toe heeft.
Dat is allemaal meegenomen in dit kader.
ROTMAN: We gaan dit debat in de Kamer volgen.
Er valt nog veel meer over te zeggen. Ik wil casussen,
concrete voorbeelden waarvan jullie zeggen: Dat komt op ons af.
'Dat is misschien technisch mogelijk of gaat zeer binnenkort mogelijk zijn
en daar moeten we iets van vinden met z'n allen. Gaan we dat toepassen?'
Katinka, heb jij een voorbeeld? Bij demonstraties of zo.
Camera's die de massa in de gaten houden.
Heb jij een voorbeeld van een interessante casus?
KNOPS: Ja, waar interessante dilemma's in zitten.
Dan denk ik inderdaad aan het gebruik van gezichtsherkenning bij demonstraties.
Demonstraties verlopen niet altijd vredig. Soms breken er rellen uit.
En wat je dan ziet gebeuren, is dat de mensen die gaan rellen
hun gezicht onherkenbaar maken.
ROTMAN: Sjaaltje ervoor, mutsen op. KNOPS: Mondkapjes.
En een vraagstuk wat opgeworpen is:
kunnen we die mensen dan niet in beeld brengen voordat de rellen uitbreken,
want dan hebben we ze herkenbaar op beeld.
ROTMAN: Er staan camera's op die meute, die zien al die mensen.
KNOPS: Voor alle duidelijkheid, dit wordt niet toegepast.
Maar zo zou je dat inderdaad kunnen doen.
ROTMAN: Maar 't zou je achteraf kunnen helpen om die mensen toch te herkennen.
KNOPS: En aan de hand van hun gezicht,
op het moment dat zij al bekend zijn bij de politie.
De politie heeft ook een database met mensen
die verdachten zijn geweest of veroordeeld
en dan zouden ze op die manier herkend kunnen worden.
ROTMAN: Hier moeten we iets van vinden. Alex, hier al een gevoel bij?
CORRA: Ja, zeker wel. Het is natuurlijk interessant om te zien...
Er is zeker in de afgelopen 10 à 15 jaar veel roep geweest om meer veiligheid,
gezien alles wat er gebeurd is ook nog,
de aanslagen van 9-11, en alle andere terroristische aanslagen,
wordt er veel gezegd: we moeten meer doen
om die veiligheid in het publieke domein te garanderen
en om de burgers te beschermen.
Tegelijkertijd, als je ziet hoe die technologie zich ontwikkeld heeft
en op welk niveau je mensen nu kan herkennen
en hoelang je mensen kan volgen als je die technologie zomaar loslaat,
dat heeft wel implicaties voor jouw privacy en voor je zijn.
ROTMNA: En dit is natuurlijk wat jullie omschrijven in dat kader.
Daar moeten we met z'n allen wat van vinden en over praten.
KNOPS: Jazeker, en op het moment dat jij mensen op beeld gaat vastleggen
op moment dat zij vreedzaam aan het demonstreren zijn,
maken zij gebruik van belangrijke grondrechten die we hebben:
vrijheid van meningsuiting, vrijheid van demonstratie.
Dus vanuit ethisch perspectief
is daar een groot vraagteken bij te plaatsen of dat een goed idee is.
ROTMAN: Durf je wel gebruik te maken van jouw recht op demonstreren
als je weet dat er camera's op je snufferd staan.
CORRA: Ik zag een keer documentaire en daarin zag je
mobile facial recognition units. Ik weet niet meer welk land dat was,
maar die stonden daar tijdens demonstraties.
Er stond ook heel groot op: mobile facial recognition unit.
CORRA: Daarvan kan je zeggen: fantastisch, dan weten mensen
dat ze in de gaten gehouden worden, dus dan gaan ze niet relschoppen.
ROTMAN: Maar dat houdt ze misschien tegen om überhaupt te komen.
CORRA: Dat is de interessante andere kant.
ROTMAN: Dit is een mooi voorbeeld van: we zijn er nog niet helemaal uit.
Wat zijn de voorwaarden? Alex, heb jij een voorbeeld
van een casus waarvan jij zegt van...
-Wat ik een interessante vind,
en dat is er eentje die ik ook bij het CIP-congres benoemd heb,
was data van zelfrijdende auto's en beelddata daarvan.
Die auto's filmen 360 rond zichzelf om goed te kunnen rijden,
maar volgens mij heeft Tesla zo'n beveiligingsmodus
waarbij die camera's aanslaan als mensen in de buurt komen.
ROTMAN: Die scannen natuurlijk ook die mensen.
Er zijn veel discussies geweest over: moet je...
Sommige mensen zetten dat op YouTube. Er gebeuren allerlei dingen mee.
Maar dat zou je ook gaan gebruiken.
Dan heb je mobiele gezichtsherkenningsunits.
Die zou je ervan kunnen maken.
KNOPS: Maar dat is het algehele punt,
dat deze technologie succesvol ingezet kan worden
door de alomtegenwoordigheid van camera's in de samenleving
en de alomtegenwoordigheid van beeld.
En als het over dit onderwerp gaat, denk ik dus ook vaak
dat we als samenleving... Dat is niet alleen een vraag voor de politie,
want die camera's zijn van iedereen.
Tegenwoordig is je deurbel een camera.
Er zijn reclames op tv dat je je niet meer veilig kan voelen in je huis
als je daar geen camerabewaking hebt.
Dat speelt erg op een gevoel in
dat we maar steeds verder moeten gaan met die beveiliging.
Dus daarom vind ik dit ook een onderwerp
waar de samenleving over na moet denken.
Hoe wij met al die camera's in de publieke ruimte en overal om willen gaan.
ROTMAN: Heb je 'n no-brainer, Alex, waarbij je gezichtsherkenning moet doen?
'Geen twijfel over mogelijk. Geen discussie. Wat mij betreft inzetten.'
CORRA: Dat is wel een lastige. Ik denk het wel,
maar er zijn wel edge cases, zo heet dat dan.
Eentje waar ik aan denk is bijvoorbeeld het gebruik van gezichtsherkenning
als het gaat om kinderpornografisch materiaal
om daarmee kinderen die daarin voorkomen
te herkennen die vermist zijn. Ik weet dat dat soort dingen ingezet worden.
Dat lijkt me een logische applicatie of eerder verantwoorde applicatie,
omdat je dan ook probeert mensen te redden in een moeilijke situatie.
Nood breekt wet, in zekere zin.
Dat lijkt me op dat moment wel een ethische verantwoording.
ROTMAN: Dan gaat de technologie voor je werken.
Katinka?
-Misschien een voorbeeld
wat daarbij aansluit. Stel, je hebt een foto van een verdachte
en er is heel veel beeldmateriaal beschikbaar
en dat is bijvoorbeeld ook gemaakt op een locatie
waar sowieso camera's hangen
en waar iedereen dat eigenlijk ook wel nodig en vanzelfsprekend vindt.
Dan kan die technologie natuurlijk wel helpen
om op een hele efficiënte manier dat te bekijken.
ROTMAN: In plaats van mensenogen laat je het door een slim systeem doen.
KNOPS: En de techniek is misschien nog wel beter
omdat die niet afgeleid raakt van wat die nog meer ziet op die beelden.
ROTMAN: Overigens hebben we ook een interessante aflevering opgenomen
over hoe we die AI voor ons kunnen laten werken.
Dat is ook de moeite van het luisteren waard.
Wanneer kan het echt niet? Dat je denkt: die casus komt weleens voorbij.
Moeten we gaan niet doen.
CORRA: Ik vind zelf, niet per se gezichtsherkenning,
maar de inzet van camera's in combinatie met emotieherkenning.
Dat lijkt mij... Dan ben je...
Daar zijn zoveel issues mee of dat wel goed meet
wat je daadwerkelijk wil meten, denkt te meten.
En ook: moet iemand anders kunnen zien wat er in mijn hoofd gebeurd?
In mijn inner self.
Ik denk dat het belangrijk is dat we als mensen
ook die verschillende identiteiten: je hebt je uiterlijke wereld,
je wereld thuis, je wereld op je werk...
Daar heb je allemaal identiteiten in en je hebt een identiteit in je hoofd
en dat zijn denk ik wel belangrijke dingen om voor jezelf te kunnen houden.
ROTMAN: Heb je ook nog een no-go, Katinka?
KNOPS: Waar ik in algemene zin kritisch naar zal kijken,
is de inzet van dit middel als het gaat om de publieke ruimte.
Dan komt dat ook al dichtbij. En inderdaad,
het gebruik van emotieherkenning of afwijkend gedrag
zijn daar nog weer volgende stappen in,
maar dit is al een hele ingrijpende technologie voor mensen.
Want het is niet alleen je privacy,
maar het gaat ook over iets als autonomie
dat op het moment dat het voor de veiligheid noodzakelijk geacht zou worden
gezichtsherkenning op het Leidseplein in Amsterdam te doen en jij wil dat niet,
en zo kan je nog andere locaties, op een vliegveld, bedenken.
Zou dat betekenen dat jij je niet meer vrij kunt bewegen
in belangrijke delen van de maatschappij?
Dat is helemaal een vraag op het moment dat je niet eens weet dat dat gebeurt.
Dit is wel iets waar we denk ik heel goed over na moeten denken.
ROTMAN: Concrete tips en oplossingen.
Je werkt bij de overheid of een commerciële organisatie
of in ieder geval, het thema gezichts- herkenning komt op je pad
en dient zich aan als een oplossing voor iets.
Wat kun je nou doen om de juiste ethische keuzes te maken?
Het eerste wat je moet doen, die ga ik al prijsgeven, denk ik:
dat is wat we doen
en wat jij nu aan het doen bent, Katinka, met de Tweede Kamer.
Denk er vooraf over na en besluit vooraf onder welke voorwaarden:
Wat zijn de kaders? Wat willen we bereiken?
Denk erover na, praat en debatteer erover
en maak een bewuste keuze überhaupt.
Zet niet als een kip zonder kop die technologie in.
Dat is misschien wel de allerbelangrijkste tip,
maar die brengen we nu in de praktijk met deze podcast.
Wat kunnen we nog meer doen? CORRA: Ik denk dan aan twee dingen.
In de eerste plaats denk ik: stel de juiste vragen.
Als het gaat om gezichtsherkenning moet je twee belangrijke vragen
naast elkaar bekijken. Eén is de machts- en controlevraag:
willen we dit niveau van controle op een bepaalde plek in een bepaalde context?
En de andere is de kwaliteit van de gezichtsherkenning zelf.
Dus biedt die technologie wat wij denken dat ie biedt
of herkent die alleen blanke mannen
of juist niet de mensen die in minder vertegenwoordigde groepen die vaak...
ROTMAN: Zorg ervoor dat als je die tech inzet:
het moet verdikkeme wel werken.
KNOPS: Nou heb ik begrepen dat die techniek inmiddels
behoorlijk doorontwikkeld is en dat dat inmiddels minder een probleem is.
Maar waar je in dat verband wel aan kan denken,
zijn ook de omstandigheden waaronder je het doet
en wat voor soort camera's je gebruikt.
Is er goede belichting of is het schemerig, te donker, regen?
Dus die omstandigheden spelen een rol voor de kwaliteit van het beeld,
want op het moment dat je geen goede beeldkwaliteit hebt
kan er ook geen goede match plaatsvinden
en neemt het risico op verkeerde matches toe, met alle gevolgen van dien.
Dus dat is belangrijk in die hele context om ook mee te nemen.
ROTMAN: Dan toch weer bij jou, Katinka:
Alex zegt: de technologie moet gewoon goed werken
en jij zegt dat het lijkt dat dat de goede kant op gaat.
Wat zijn voor jou nog de tips en tricks, behalve praat erover,
denk erover na, wat zijn de randvoorwaarden: dat hebben we gehad.
Wat zijn nog meer tips en oplossingen voor gezichtsherkenning?
KNOPS: Wat ik een hele belangrijke vind,
is dat het niet op een geautomatiseerde manier mag plaatsvinden.
Dat je altijd een human in the loop hebt,
dus altijd ook die menselijke toetsing van het resultaat
dat de technologie oplevert.
ROTMAN: Ik zie Alex gelijk stralen: hè hè.
CORRA: Ik denk dat een van de belangrijkere dingen is,
dat we goed moeten nadenken over, niet alleen de technologie zelf,
en de kwaliteit daarvan, maar ook de con- text waarin die technologie ingebed wordt
en wat voor soort mensen daar met die technologie gaan werken
en wat we verwachten van die mensen? Is dat iemand
die daarover een beslissing kan gaan nemen?
Of hebben we dat niet ingeregeld en is het pas achteraf?
Dat soort keuzes, dat zijn ook designkeuzes,
daar moet je van tevoren goed over nadenken
en dat hoort bij een goede implementatie van data-ethiek.
Niet alleen de technische, maar ook de sociale kant.
ROTMAN: Oké, we hebben er nu 20 minuten over gepraat.
Ik heb eigenlijk... Ik maak me ook altijd een beetje zorgen over dat soort dingen,
daarom heb ik deze vraag van tevoren bij jou gedropt, Alex.
Jij zei: oeh, vooral negatieve associaties.
Als ik er nu zo'n 20 minuten over praat
en ik hoor jullie allebei met de casussen en tips
en waar moeten we over nadenken, denk ik:
als je de vraag stelt 'kunnen we AI voor ons laten werken'
heb ik daar eigenlijk best wel vertrouwen in, als ik eerlijk moet zijn.
Heb jij dat ook niet een beetje stiekem? CORRA: Als we ons best doen wel.
Maar ik blijf er toch wel kritisch op in algemene zin, omdat dat dat gezond is.
Dus ja, je moet technologie proberen goed in te zetten,
maar blijf erbij nadenken waarom je het doet
en niet alleen over hoe, maar vooral ook het waarom.
Dus de why-vraag is belangrijk bij dit soort zaken.
ROTMAN: Katinka, het laatste woord.
-Ja, ik denk ook dat het niet zinvol is,
om techniek in algemene zin af te wijzen.
Want het is inderdaad ook, als ik kijk naar de taak van de politie,
dat van ons verwacht wordt dat we de samenleving veilig houden
en dat we daarom ook de mogelijkheden van nieuwe technologie onderzoeken.
Maar tegelijk is voor ons het behoud van dat vertrouwen van de samenleving
ontzettend belangrijk en is het pleidooi om dat zo gericht mogelijk in te zetten.
ROTMAN: Ik ben blij dat jij, Katinka Knops,
betrokken bent als adviseur ethiek bij de politie.
Volgens mij worden daar de juiste vragen gesteld. Dank je wel.
Dank je wel ook, Alex Corra, beleids- adviseur recht en ethiek bij de SVB.
Wil je meer informatie en andere afleveringen terugluisteren
over data en data-ethiek? Het is zeer de moeite waard.
Het gaat ook over jouw wereld.
Ga naar cip-overheid.nl/uitgelicht of je favoriete podcastapp. Dank jullie wel.

Afl. 8. Techniek die ethiek ondersteunt

Artificial Intelligence kan ethisch verantwoord worden ingezet. Techniek kan daarbij ondersteunen. Over het hoe en wanneer praten Rob Elsinga, national technology officer bij Microsoft en Leen Roosendaal, directeur bij het Centraal Bureau voor Statistiek, twee grootverwerkers van data. Privacy preserving en andere methodologieën komen langs, met Robin Rotman als host.

Ethiek in de praktijk. Afl. 8 - Techniek die ethiek ondersteunt

'Hoe kan technologie helpen AI ethisch toe te passen?
Welkom bij 'Ethiek in de praktijk'. Ik ben Robin Rotman
en in deze podcastserie praat ik met experts en ervaringsdeskundigen
over data-ethiek in de dagelijkse praktijk.
Dit is een podcast van het Centrum Infor- matiebeveiliging en Privacybescherming.
'Ik denk dat het belangrijkste is dat mensen dit onderwerp
in hun genen hebben zitten en gaan nadenken:
wat wil ik nu met deze data doen
en wat zou ik er zelf van vinden als ik in deze dataset zou zitten?'
Ik zit hier tegenover twee grootheden.
Rob Elsinga, national technology officer bij Microsoft in Nederland
en Leen Roosendaal, sectordirecteur bij het Centraal Bureau voor de Statistiek.
Rob, eerst jij even: Microsoft, national technology officer? Wat doe jij allemaal?
ELSINGA: Ik hou me vooral bezig met nieuwe technologie
en de impact op de samenleving. Dat is heel breed.
Dat kan zijn quantum computing, onze duurzaamheidsstrategie in Nederland,
maar ik ben daarnaast ook, en daarom zit ik hier,
verantwoordelijk voor de ethical AI community binnen onze organisatie.
ROTMAN: Dat is een heet onderwerp, want daar gaat het om.
En Leen, wat doe jij bij het CBS?
ROOSENDAAL: Ik ben onder andere verantwoordelijk voor het ontwikkelen
van nieuwe technieken om data makkelijker en flexibeler te combineren.
ROTMAN: Twee mannen, nieuwe technologieën, innovaties en data,
dat is waar we het over hebben. Toen ik hierover na ging denken,
dacht ik: technologie die AI helpt om ethisch te werken.
Dan denk ik gelijk van: dan gaan we toch gewoon een AI ontwikkelen
die als een soort politieagent andere algoritmes in de gaten gaat houden.
Daar hebben we het over, toch?
ELSINGA: Het is zeker een AI die AI controleert.
En dat gaat in veel fasen
van het ontwikkelen van een oplossing van AI.
Dat gaat over: hoe ga ik om met de data?
Is die data wel betrouwbaar?
Hoe communiceer ik wat ik gebouwd heb?
Want uiteindelijk wil ik dat mensen daar begrip voor hebben.
Hoe voorkom ik dat de privacy van mensen in die data geschonden wordt?
Hoe zorg ik dat het veilig blijft?
En uiteindelijk wordt artificial intelligence zo complex
dat we technologie denk ik nodig hebben om ons daarbij te ondersteunen.
Waarbij het wel goed is om na te gaan:
hoe kunnen we wat AI kan, compenseren met de mens
en hoe kunnen we de mens helpen met AI.
ROTMAN: We hebben het over hoe mens en technologie samenwerken
ook een andere aflevering. Het is superinteressant, hè.
Hoe verhouden we ons tot elkaar? Mooie vraagstukken.
En Leen, als ik aan het CBS denk, denk ik: jullie zijn data.
Zonder data geen CBS, geen statistieken. Welke rol speelt ethiek
en nadenken over 'hoe doen we het juiste' in de organisatie?
ROOSENDAAL: Dat is voor het CBS ontzettend belangrijk.
Wij produceren veel statistieken,
ook onderzoeken voor de overheid waarop ze beleid baseren.
Dus als wij niet ethisch om zouden gaan
met het maken van statistieken en het doen van onderzoek
dan lopen we risico dat we bepaalde bevolkingsgroepen discrimineren.
ROTMAN: Dus je moet altijd alert zijn dat je in je methodes, proces
en technologie die je inzet, dat er geen discriminatie optreedt,
of misschien de privacy waar jij het net over had.
Wat zijn de doelen of de waardes waarvan jullie zeggen:
Daar hebben we het over, als we het hebben over technologie
die andere technologie helpt om ethisch te werken.
Wat zijn dan de waardes en doelen? Waar hebben we het over?
ELSINGA: Eén ervan is wat mij betreft ook transparantie
en transparantie wil eigenlijk zeggen dat je kunt uitleggen
aan de mensen die gebruikmaken van die AI of daar onderdeel van zijn:
waar is het voor bedoeld? Hoe is het opgezet?
Van welke data wordt er gebruikgemaakt?
Om op die manier ook het vertrouwen in een dergelijk systeem te waarborgen.
ROTMAN. Dus transparantie, privacy, dat spreekt natuurlijk voor zich.
We willen allemaal de privacy.
Nog meer dingen: de discriminatie, de bias in de systemen,
die moeten we eruit werken.
Leen, heb jij nog belangrijke dingen waarvan je zegt 'daar gaat het hier over'?
ROOSENDAAL: Het gaat over meerdere dingen.
Het gaat voor een deel over datatoegang.
Hoe zorg je ervoor dat mensen alleen maar toegang hebben tot de juiste data?
Dus dataminimalisatie. Daar helpen bepaalde technieken bij:
Secure multi-party computation bijvoorbeeld is zo'n techniek
die het mogelijk maakt om data
die bij verschillende bronhouders staat te combineren,
waarbij de onderzoekers geen toegang tot die data zelf hebben,
maar die zien alleen de uitkomsten daarvan.
Dat is de technische oplossing.
Verder kan je binnen een organisatie ook wel iets van tegenmacht organiseren.
Dus zorg dat je iemand hebt die toezicht houdt binnen de organisatie.
Binnen het CBS hebben we bijvoorbeeld een ethische commissie.
Zodra er een onderzoek plaatsvindt waarvan we denken:
daar moeten we dieper naar kijken, kan je bij die ethische commissie...
ROTMAN: Jij gaat al gelijk richting de oplossingen denken.
Ik zit nog steeds te denken: Wat zijn nou eigenlijk de waardes die we verdedigen?
Wat is eigenlijk ethiek? Wat zijn de doelen die we nastreven?
We gaan straks in concrete oplossingen denken:
handreikingen voor mensen die luisteren, mensen die bij de overheid werken,
mensen bij commerciële organisaties: hoe kan je die data-ethiek...
Maar we hebben al een paar dingen genoemd: privacy en doelbinding
is een ding. Gebruiken we de data waarvoor we zeggen dat we 't gebruiken.
Transparantie is een ding. Zien jullie nog een speciale rol
voor de overheid als het gaat over data- ethiek en de doelen die we nastreven?
Ik vind de overheid altijd interessant. Die is aan de ene kant regelgever.
Die besluit hoe met z'n allen met data om mogen en moeten gaan.
En tegelijkertijd is het iemand die met data en AI werkt
en dat gaat lang niet altijd goed. Dat is ook nog zoiets.
Hoe zien jullie dat? De rol van de overheid hier?
ROOSENDAAL: Ik denk dat de overheid hier best een rol kan spelen.
Met name binnen overheidsorganisaties zie je dat AI best vaak gebruikt wordt.
Bijvoorbeeld door een algoritmeregister te maken,
zie je wel dat je transparant bent als organisatie
welke algoritmes je waarvoor gebruikt.
En dat zie je nu op vrijwillige basis gebeuren.
Je zou daar best verplichtend in kunnen worden.
ROTMAN: En jij? ELSINGA: Ik denk dat de overheid...
Wat we in z'n algemeenheid zien, is dat technologie
en ontwikkeling van technologie veel harder gaat dan regelgeving.
En ik denk juist dat het goed is om regelgeving
in te voeren en te zorgen dat we dit op een verantwoorde manier doen.
Daar is op dit moment de EU al heel druk mee bezig,
ook de Nederlandse overheid is daarmee bezig,
om te kijken welke regelgeving daarvoor nodig is.
En om een idee te geven:
politiediensten maakten graag gebruik van onze technologie
die we ontwikkeld hadden voor facial recognition, bijvoorbeeld voor bodycams.
We hebben uiteindelijk als Microsoft zelf gezegd:
'We halen dat terug, we gaan dat niet meer aan politiediensten leveren.'
Er was nog geen regelgeving, maar we hebben als industrie zelf gezegd:
'We willen daar voorzichtig mee zijn, want wij zijn zelf van mening
dat de datasets die gebruikt worden om mensen te kunnen herkennen
nog niet vrij zijn van bias van vooroordelen.'
ROTMAN: Dus jullie hebben zelf besloten:
'wacht, de technologie loopt duidelijk voor op de regelgeving,
op het debat wat misschien nog gevoerd moet worden in de samenleving.
Wat willen we er eigenlijk mee? Wij zetten hier even een streep in het zand
en we wachten even af hoe dit zich gaat ontwikkelen.' Is dat...
ELSINGA: Sterker nog, we werken zelfs actief mee
in het tot stand komen van deze regelgeving.
Omdat er vaak meerdere facetten aan zijn.
Maar we vinden 't belangrijk als organisatie
dat we die regelgeving zo snel mogelijk oppakken.
ROTMAN: Een voorbeeld van ethisch handelen.
Leen, ik begreep dat jullie werken of onderzoeken,
ik krijg het m'n waffel bijna niet uit,
om privacy preserving technology toe te passen.
Help me even. Privacy preserving technology, wat is dat?
ROOSENDAAL: Een verzamelnaam voor meerdere soorten technieken.
Wat ik net zei: secure multi-party computation
is een van de privacy preserving-technieken.
ROTMAN: Dit is er één van, maar wat is privacy preserving technology?
Wat doet die technologie?
ROOSENDAAL: Het doel van die technieken is om data
minder privacygevoelig te combineren of beschikbaar te stellen.
Dat kan door pseudonimisering van data,
maar ook door vergaande technieken als encrypten van data, dat soort technieken.
ROTMAN: En jullie onderzoeken dit. Een boel van dit soort technologie bestaat al.
Encrypting bestaat al.
En wat onderzoeken jullie dan binnen het CBS? Wat is dan jullie onderzoek?
ROOSENDAAL: Het is vooral: hoe kan je data
met data die bij andere partijen staat, combineren?
Natuurlijk, pseudonimisering gebruiken we al jarenlang bij het CBS.
Als je kijkt in de zorgwereld bijvoorbeeld,
zie je dat er best veel innovaties zijn
waarvan men wil kijken of die innovaties wel daadwerkelijk leiden
tot minder zorggebruik bijvoorbeeld. Dan wil je heel graag data combineren
die bij ziektekostenverzekeraars en ziekenhuizen staan.
Voor achtergrondgegevens wil je graag CBS-data hebben
en als je die data niet naar een locatie wil verplaatsen
om daar onderzoek te doen, dan zal je dat met dit soort technieken moeten doen.
En dan zie je dat er allemaal wet en regelgeving is,
waardoor dat nog niet zo eenvoudig is om toegang te geven tot die microdata.
En dan helpt secure multi-party computation
om dat onderzoek wel te kunnen uitvoeren.
Dan heeft de onderzoeker geen toegang tot microdata,
maar wordt alleen de data in tabelvorm zichtbaar.
ROTMAN: Voilà, want voor je het weet wordt al die data
van al die patiënten, voor al die mensen zoals ik gecombineerd,
bij mekaar gebracht, dat belandt ergens.
Je hebt niet meer zoveel controle en jullie zorgen ervoor,
jullie doen steeds meer onderzoek om te kijken: wacht eventjes,
'het gaat nog altijd om mensen en we willen de privacy waarborgen
zonder dat het de resultaten van ons rapport, onze aanbevelingen,
dat dat ten koste gaat van die resultaten. Klopt dat, kortweg?
ROTMAN: Jij hebt ook een interessante casus meegenomen, Rob.
Dat gaat over kinderporno.
Hoe gaan we ethisch om met die data in de bestrijding van kinderporno?
Kun je dat uitleggen? ELSINGA: Dat sluit aan
op het voorbeeld wat Leen noemt. Alleen daar ga je nog een stap verder in.
En dan zeg je: we gaan de data encrypten
en we gaan vervolgens de data,
dus in dit geval de technologie die wij ontwikkeld hebben,
maakt het mogelijk om data te encrypten.
In dit geval een database van bekende foto's van kindermisbruik.
Dat zijn verschrikkelijke beelden, dus die heb je liever encrypted.
En tegelijkertijd wordt er bijvoorbeeld bij hostingbedrijven,
bij telecombedrijven die websites hosten,
materiaal gevonden wat mogelijk kinderporno is.
En wat opsporingsdiensten graag willen, is die data met elkaar combineren.
Kijken of dat bekende data is, of die eventueel met elkaar gelinkt kan worden.
Wat je dus nu kan doen, is die foto's die je gevonden hebt bij de hoster encrypten,
je hebt een encrypted database
en uiteindelijk ga je op basis van de fingerprint
van die data met elkaar vergelijken
en op die manier hoef je geen actuele foto's met elkaar te vergelijken,
maar kun je op basis van een fingerprint...
ROTMAN: Dus je wil onderzoeken of het überhaupt strafbare feiten zijn.
Je wil onderzoeken waar het vandaan komt, wie eventueel de daders zijn,
maar je wil niet als onderzoeker constant geconfronteerd worden met dat materiaal.
Je wil ook uit respect voor de betrokkenen,
voor die kinderen en hun familie,
je wil niet dat daar constant allemaal mensen naar kijken
en jullie ontwikkelen dan technologie,
dat de technologie daarnaar kijkt en dat dat nog steeds goed gebeurt
en dat het zuiver gebeurt.
Gaaf hè, Leen?
-Zeker.
ROTMAN: Dus dit zijn voorbeelden waarbij technologie helpt
om AI ethisch te laten werken, zal ik maar zeggen.
Nu zit je te luisteren en denk je: dit wil ik ook.
Ik wil ook zuiver en ethisch werken.
Ik ben een ambtenaar bij een overheid of ik werk bij een organisatie
of bij een overheidsgelieerde organisatie.
Wat kunnen we allemaal doen?
Rob, AI is een black box. We weten vaak niet wat er gebeurt
en jij wil die black boxen openbreken. Transparantie.
ELSINGA: Klopt. Wij willen door middel van technologische ondersteuning
van het proces van het ontwikkelen van oplossingen van het toetsen van de data,
heb ik wel objectieve data, zijn alle groepen relevant zijn vertegenwoordigd?
Maar ook in het communiceren daarvan naar de gebruikers
en vervolgens de transparantie bieden.
Dat hele proces, van die black box willen we een glass box maken.
ROTMAN: Dat is een mooie metafoor.
En die sluit erg goed aan bij het algoritmeregister wat je doet.
Dus bij een algoritmeregister maak je eigenlijk,
ga je uitleggen aan de gebruikers, en dat kan bij wijze van spreken iemand zijn
die z'n auto parkeert en gefilmd wordt
met een slimme camera die het nummerbord herkent,
om uit te leggen: waar is het voor bedoeld?
Met welke data, op basis van welke data doen we dit?
Hoe communiceren we het? Hoelang bewaren we jouw data?
Waar wordt het absoluut niet voor gebruikt? Dus dat is openheid
over je algoritme en daar willen we nog verder in gaan.
Dat hele complexe machinelearning of deep learning-methodes die je gebruikt
dat die uiteindelijk vanuit de technolo- gie zorgen voor een stukje transparantie.
En belangrijk daarbij is de communicatie met de gebruiker.
Heel vaak denken mensen: dan moeten we alles wat we weten communiceren,
maar het is juist de kunst om het minimale,
waardoor er vertrouwen komt in het proces,
om dat te gaan communiceren.
Dat is een belangrijk onderdeel van die glass box.
Hoe kunnen we het communiceren? Maar vooral: hoe kunnen we het essentieel?
Want niemand gaat 40 pagina's doorlezen
om te snappen wat er gebeurt met z'n kentekengegevens.
ROTMAN: Openen die zwarte doos en op een transparante,
open en eenvoudige manier communi- ceren wat er in die doos gebeurt
om dat ding dus transparant te maken. Leen, als jij nadenkt over oplossingen.
Je bent dus een organisatie en je wil hiermee aan de gang
en jij werkt bij het CBS, data is jullie core business.
Wat zou jouw tip zijn aan mensen?
'Dit is wat je kan doen. Deze soort tech, moet je echt even naar kijken,
want het maakt het leven een stuk beter, ethisch verantwoorder.'
ROOSENDAAL: Ik vind het moeilijk om daar advies over te geven.
Iedere organisatie is anders.
Iedereen gebruikt zijn data voor een ander doel,
op een andere manier met verschillende methodes.
Dus het belangrijkste is dat mensen dit onderwerp in hun genen hebben zit
en gaan nadenken: wat wil ik nu met deze data doen?
'Wat zou ik er zelf van vinden als ik in deze dataset zou zitten?'
En verdiep je daarna natuurlijk in de technieken die er zijn,
maar die technieken zijn nooit helemaal voldoende om alle risico's af te dekken
en de secure multi-party computation die ik net noemde
is een mooi voorbeeld van hoe je data kan combineren,
maar garandeert bijvoorbeeld niet
dat in die uiteindelijke dataset die je wel beschikbaar stelt aan de onderzoeker
toch geen onthullende data zitten. Dat is outputbeveiliging.
Nog niet met techniek op dit moment in Nederland op te lossen.
Dus denk na, ga kijken wat voor technieken er allemaal zijn
en pas toe wat voor jouw situatie het best geschikt is.
ROTMAN: Dus jij zegt eigenlijk:
'Het gaat me niet eens zozeer om de technologieën,
want die komen en gaan misschien.
Het gaat er meer om op het moment dat je iets wil doen,
wees je ervan bewust dat je dat er ethische kwesties zijn
en denk er constant over na.'
Maar zou je dat kunnen ondervangen door iemand in je organisatie aan te wijzen
die dit de hele tijd aanhangig maakt? Een soort ethische officer of zo?
ROOSENDAAL: Wij hebben binnen het CBS een chief methodology officer.
Die is verantwoordelijk voor de methodologie.
Ik noemde net al de ethische commissie,
maar je kan ook een CDO verantwoordelijk maken
voor dit soort vraagstukken, maar beleg inderdaad in de organisatie
iemand die zich verantwoordelijk voelt en waar je terecht kan voor vragen.
En op het moment dat dat grijze gebieden zijn,
is het goed om met elkaar daarover in gesprek te gaan.
ROTMAN: Iemand die dat gesprek enta- meert, hebben we eerder over gepraat.
Hoe krijg je dit ethisch besef in je organisatie?
Hoe organiseer je dit? Hoe creëer je een ruimte om daarover te praten?
Wat is de rol van de manager en leiding- gevende en je eigen rol als medewerker?
Als je denkt: we moeten opletten. Hebben we ook een aflevering over gemaakt.
Hoe kan je dit ook als overheid afdwingen?
Dat je de juiste technologieën inzet
om AI ethisch verantwoord te laten werken, door misschien regelgeving.
Er komt een AI Act aan uit Brussel. De Kamer gaat daar nog wat van vinden.
Dat komt op ons af.
Denk jij, Rob van Microsoft, dat dat een goed idee is?
ELSINGA: Ik denk niet dat je de manier, dus de technologie, moet afdwingen.
Ik denk wel dat je goed moet nadenken: wat vinden we oké?
Ik noem maar wat, in China wordt social scoring gebruikt.
Op het moment dat jij te vaak door een rood stoplicht loopt,
krijg je een negatieve score.
ROTMAN: In de AI Act staat dat we dat niet willen.
ELSINGA: Precies. En dan is er een categorie
en dat is waar mensenrechten in het geding komen.
Dus de kans op een baan, op financiering, op gezondheidszorg,
dat soort zaken, dat je daar misschien in beperkt wordt.
Dat zijn de hoogrisicofactoren. Daarvan gaat de EU al zeggen:
'dan verwachten we dat je van tevoren gaat nadenken: welke data gebruik je?
Hoe ziet je het eruit? Hoe waarborg ik
dat dit een veilig systeem is waardoor mensen niet tussen wal en schip vallen?'
Ik denk dat de technologie die je daarbij kunt gebruiken ondersteunend is,
maar niet dat je de technologie moet voorschrijven.
En die zal zich ook continu blijven ontwikkelen.
ROTMAN: Mee eens, Leen? Dat de overheid meer zegt:
'wij gaan de kaders stellen, wij zeggen waar het aan moet voldoen.'
Privacy, doelbinding,
al die thema's die we aan het begin van deze aflevering hebben benoemd.
Ermee eens of kan de overheid wat dringender zijn wat jou betreft?
ROOSENDAAL: Ik denk inderdaad...
Tuurlijk, de overheid kan bepaalde richtlijnen geven
op het moment dat ze zich gaan begeven op het gebied van methodologie.
Welke methodologie moet je gebruiken en welke mag je niet meer gebruiken?
Dan gaat de wetgeving wat mij betreft wel wat te ver.
Daar zal toch zo'n organisatie zelf verantwoordelijk voor moeten zijn
en kunnen verantwoorden aan de buitenwereld.
Maar om dat in wetgeving vast te leggen, lijkt me niet verstandig.
ROTMAN: Als ik jullie zo hoor,
Rob Elsinga van Microsoft en Leen Roozendaal van het CBS:
jullie nemen die verantwoordelijkheid
en ik hoop dat de luisteraar die dit heeft gehoord
een beetje inspiratie heeft opgedaan: het is leuk,
maar het is ook zinvol om hier goed over na te denken.
Dus dank jullie wel voor jullie inzichten hierover.
Wil je meer informatie over ethiek, data-ethiek?
Ga dan naar cip-overheid.nl/uitgelicht of je favoriete podcastapp.
Tot de volgende keer.