Ethiek in de praktijk. Afl. 6 - Ethiek en deep fake!

Schrijver Menno van Doorn (Sogeti) van het boek ‘Echt nep’ en Alex Corra (SVB) voorzitter van de CIP domeingroep ethiek, praten over de mogelijkheden om deep fake technieken vóór je te laten werken. Want om ze alleen maar te zien als bedreigend is niet terecht. Daarnaast laat je met die houding een schat aan positieve opties liggen. En trouwens: zo modern is het concept nu ook weer niet. Robin Rotman gaat als host het gesprek met beide heren aan.

Ethiek in de praktijk. Afl. 6 - Ethiek en deep fake!

'Hoe kunnen we deepfakes voor ons laten werken?'
Welkom bij 'Ethiek in de praktijk'. Ik ben Robin Rotman
en in deze podcastserie praat ik met experts en ervaringsdeskundigen
over data-ethiek in de dagelijkse praktijk.
Dit is een podcast van het Centrum Infor- matiebeveiliging en Privacybescherming.
'Waar je op het randje gaat zitten,
is bij deepfake-therapie wanneer het gaat om rouwverwerking.
Dan kan je een gesprek aangaan met een overleden dierbare,
je vrouw, man, kind.'
Te gast vandaag: Menno van Doorn,
directeur bij het Verkenningsinstituut Nieuwe Technologie vanuit Sogeti
en jij schreef het boek 'Echt nep'
over deepfakes. VAN DOORN: Onder andere, ja.
ROTMAN: Alex Corra, je hebt vaker aan tafel gezeten. Blij dat je er weer bent.
Beleidsadviseur recht en ethiek
en voorzitter bij de domeingroep data-ethiek bij het CIP.
Leuk dat je er bent. We hebben het over deepfakes
en hoe we deze dingen voor ons kunnen laten werken.
Want we maken ons vaak zorgen over deepfakes, toch Menno?
VAN DOORN: Mensen maken zich vaak zorgen over technologie in het algemeen
en ook over deepfakes. Beetje slecht imago, zou ik willen zeggen.
ROTMAN: Het is een imagodingetje?
-Ja.
Er zitten scherpe kanten aan en die moeten bestreden worden,
maar er zitten ook veel positieve kanten aan.
Dat is de uitdaging en de vraag die we vandaag...
ROTMAN: Ja, we gaan kijken hoe we dat dan kunnen realiseren.
Maar in je boeken 'Echt nep' gaat het over manipulatie, desinformatie.
En je zegt ook: het is van alle tijden, jongens.
Je relativeert het een beetje, maar je maakt je wel zorgen.
Wat is je verhaal daarin?
VAN DOORN: Als je in de geschiedenis terugloopt
langs alle media, televisie, radio... Ga maar terug naar de hiërogliefen.
Ramses II, fantastische overwinning op de hiërogliefen,
maar er was geen snars van waar.
ROTMAN: Toen was het al: waar zitten we eigenlijk naar te kijken?
VAN DOORN: Een rode lijn door de geschiedenis van de hele mensheid.
ROTMAN: Ben ik naïef of maak ik me te veel zorgen als ik nu denk:
'nu zitten we echt in een tijd waarin we niet weten waarnaar we kijken.
Nu is het echt tricky.'
VAN DOORN: Nou, een beetje naïef ben je wel, maar dat hangt van veel dingen af.
Er zijn nu veel mogelijkheden met deepfake-technologie
of synthetische data of synthetische media, zoals wij ze noemen.
Maar je moet er ook vanuit gaan dat wij een beetje gehard zijn.
Mensen kunnen wel tegen een stootje
en we zijn niet zomaar van de soort dat we alles voor zoete koek aannemen.
We hebben ook iets ingebouwd in ons DNA
dat we niet zomaar elk plaatje of elk geluid zomaar tot ons nemen
en dan geloven dat het echt waar is.
ROTMAN: Alex, jij hebt die vraag opgeworpen:
Hoe kunnen we deepfakes voor ons laten werken?
Maak jij je zorgen?
CORRA: Zorgen? Ik ben vooral gefascineerd.
Ja, je ziet wel van alles.
Aan de ene kant zie je dat technologie mogelijk maakt
dat je synthetische beelden genereert die steeds aantrekkelijker zijn.
Lange tijd was het de uncanny valley, waarvan je meteen zag: O ja, dit...
Het begon eigenlijk al vlak na Jurassic Park.
Jurassic Park was denk ik een mooi voorbeeld
van de inzet van technologie waarbij je echt dacht:
'wauw, die dino's lijken heel echt.'
ROTMAN: Voor het eerst zag je dat ze erin slaagden
om realistisch een dinosaurus neer te zetten.
CORRA: Ja, er was een boom van CGI en lange tijd zag je meteen:
'dit is CIG of echt', in cameraeffecten of iets dergelijks.
Dat verschil is steeds kleiner en genuanceerder geworden,
want je ziet dat het ook niet...
En er werd wel gezegd: 'Practical effects are dead'.
Maar je ziet juist dat er soms een combinatie van gemaakt wordt.
Om het echt goed te doen is het veel genuanceerder
dan alleen maar zeggen: alles wordt CGI of alles moet practical effects zijn.
ROTMAN: Synthetische beelden?
-Ja, met computergegenereerde beelden.
ROTMAN: Nep.
-In feite wel.
VAN DOORN: Daarna zijn ze acteurs gaan vervangen
die halverwege de film overleden zijn.
En dan kom je meteen in een soort ethische vraagstelling:
heeft iemand wel toestemming gegeven? Maar je ziet het verschil niet meer,
maar dat is niet zo erg, want het is gewoon film.
ROTMAN: Deepfakes in de entertainmentindustrie.
Als wij het in de samenleving over de inzet van deepfakes hebben,
hebben we het niet over de nieuwe Terminator-film.
Waar heb jij het dan over in je boek? VAN DOORN: Huis-tuin-en-keukenspullen.
Je fototoestel waar AI in zit, zodat je beter de vakantiefoto's neemt.
Ik denk dat iedereen dat toejuicht.
ROTMAN: Dat is ook al deepfake?
-Ja.
Door kunstmatige intelligentie gemanipuleerd beeld, geluid of video,
dan wel volledig vanaf nul gemaakt.
Dus dan krijg je opeens mensen die nooit bestaan hebben
die door de computer gegenereerd zijn, maar geen basis hebben.
ROTMAN: Dat is niet mijn associatie met deepfake.
Als jij een foto van Alex maakt, ziet ie er misschien iets beter uit.
Z'n bril ziet er beter uit, z'n baard kleurt mooier.
Jij zegt: dat is een soort van deepfake. Een laagje photoshop eroverheen.
Maar bij deepfake denk ik: je laat een foto zien van Alex zien
waarin hij er anders uitziet dan hij zou willen.
Dat is voor mij deepfake.
Je zit me te besodemieteren.
-Nee, dat is een variant.
Er is altijd een definitiekwestie: wat versta je eronder?
Maar de mensen die in die synthetische mediawereld zitten,
zeiden wat ik net zei: dat is de definitie.
Dan heb je de face swap, leuk op feesten en partijen.
Dan zet je het gezicht van een beroemdheid op
en dan maak je er een videootje van.
En de meest kwaadaardige zijn wat ze noemen de non-consensual porno.
Daar is veel over te doen. Dus nogmaals, er zitten veel scherpe kanten aan,
maar de technologie op zichzelf is waardevol. Kan leuk zijn, zinvol.
Je kan er uitvindingen mee doen. Een palet van mogelijkheden
waar je overheen stapt, want als je 'deepfake' hoort,
dan krijg je meteen boegeroep.
ROTMAN: Ik ben blij dat je zegt 'een palet aan toffe toepassingen'.
Die wil ik straks allemaal horen,
want ik wil even dat beeld uit mijn hoofd verdrijven dat het vaak ludiek is.
Ik zie Mark Rutte in m'n kerstkaart voorbijkomen
die 'Rudolph, the red-nosed reindeer' zingt, grappig,
en die nare verhalen van meisjes die worden gechanteerd
omdat ze gedeepfaket worden.
VAN DOORN: Het gaat om de conventies van het spel.
Dus bij Rutte is het een prank. Het is de bedoeling dat je ziet dat 't niet echt is.
Dat is de lol ervan, terwijl bij andere dingen het gevaar is
dat ze je willen blijven laten geloven dat ze nep zijn
en daar zit de kwaadaardigheid in. Maar een prank is een grap, is leuk.
ROTMAN: Ben jij ook zo benieuwd naar dat palet aan positieve toepassingen?
CORRA: Jazeker. Kijk, wat we net al zeiden:
Als je 'deepfake' noemt, dan klinkt dat meteen al...
Dan schrik je een beetje.
ROTMAN: Een ongewenste toekomst. CORRA: Ja, terwijl wat net gezegd is:
manipulatie is van alle tijden.
Dat gebeurde ook toen net de eerste foto- en filmcamera's kwamen
Dus in die zin zijn we er ook wel wat meer aan gewend geraakt.
Maar wat nu wel is: er kan zoveel mee. Dus ik ben wel benieuwd wat er kan.
ROTMAN: We hebben neergezet wat deepfakes een beetje zijn.
Wat het is, is al breder dan wat ik in mijn hoofd had.
De toepassingen zijn veelkoppiger dan ik in m'n hoofd had.
Menno, alsjeblieft: positieve voorbeelden. VAN DOORN: Meteen 'n hele praktische,
één van ons eigen bedrijf. Wij maken deepfake röntgenfoto's van gebitten
die niet bestaan en nooit zullen bestaan
om systemen te testen, omdat dat privacygevoelige informatie is.
Dus elke organisatie die met privacy te maken heeft en systemen wil testen,
adviseer ik: gebruik deepfake- technologie en zorg dat het net zo echt is
als echt, dan hebben we die gevoelige informatie niet meer nodig.
Dat is puur praktisch en gebeurt steeds vaker.
ROTMAN: Wauw. Oké, dus dat is één ding.
We hebben in de entertainmentindustrie gezien:
je kan films maken, je kan acteurs tot leven wekken, dinosaurussen creëren.
Supertof. Een levensechte ervaring. Zweten in de bioscoop.
VAN DOORN: Behalve dat je mensen kan maken
die net zo echt lijken als ze zijn, maar ze zijn niet echt,
kan je ook uitvindingen doen.
Dus bijvoorbeeld met dezelfde technologie ontwerpen ze computerchips.
Dan wordt van scratch een ontwerp gepresenteerd
voor degene die ze moeten maken. Die denken: dat ziet er wel heel raar uit.
Google heeft het gedaan. En die geloofden er niet in
tot ze erachter kwamen dat het sneller was dan wat de mens kon uitvinden.
Dus in medicijnen in de toekomst en andersoortige uitvindingen
wordt dezelfde technologie gebruikt op een andere manier.
ROTMAN: Hoe bedoel je, medicijnen? Kun je straks medicatie testen
op jouw deepfake mensen?
VAN DOORN: Er zijn bedrijven die medicijnenmoleculen maken
die potentieel een oplossing zijn voor een bepaalde ziekte.
Maar in plaats van dat mensen dat doen,
laten ze een AI het doen en die rendert 100 oplossingen.
Dan gaan ze vanuit oplossingen kijken welke succesvol kan zijn.
ROTMAN: Maar dan rek je het begrip deepfake wel erg ruim op, denk ik.
VAN DOORN: Nee hoor, want of je nou een mens ziet
of een plaatje van een molecuul, röntgenfoto of gebit:
het zijn allemaal deepfakes. CORRA: Ik snap wel wat je bedoelt.
Het zijn allemaal een synthetisch gecreëerde objecten in feite,
want dat doe je met die AI.
Je genereert iets vanuit patronen die juist niet bij mensen op zouden komen,
maar vanuit de logica die het AI-model wel kan genereren.
Dus in die zin snap ik wel wat je bedoelt.
Alleen in de volksmond is het gauw:
'Deepfake is dat ene filmpje van iemand die zogenaamd...'
Volgens mij was het de woordvoerder van Navalny of zo
die dan zogenaamd met het Europees Parlement in gesprek was
en dat bleek iemand anders te zijn. Een combinatie van echte
en nepbeelden die ze samengevoegd hadden.
VAN DOORN: Het was niet eens de goede man zelf.
Dat is een voorbeeld van kwaadaardige deepfakes.
Goed, als je weer terug wil naar dat plaatje,
want we moeten jou een beetje helpen
om dat kwaadaardige beeld uit je hoofd te krijgen:
Je kan ook aan therapie denken.
Er gebeuren interessante dingen op het gebied van deepfake-therapie.
Dan zie je bijvoorbeeld jezelf in open water zwemmen.
Stel dat jij bang bent voor open water,
maar je ziet jezelf, je verplaatst je erin, je maakt nieuwe herinneringen.
Want je had ze niet om in dat open water te zwemmen.
Dat zijn interessante toepassingen waar meteen duidelijk is
dat een hele goede intentie is, want jij wil ervanaf.
Waar je op de rand gaat zitten, is bij deepfake-therapie bij rouwverwerking.
Dan kan je een gesprek aangaan met een overleden dierbare.
Kan je vrouw zijn, man, kind. Roshan Nejal doet dat in Nederland.
En hier is dan weer de vraag: is er consent?
Is degene die overleden is daar happy mee, heeft die toestemming gegeven?
Dat is wel een ethisch... ROTMAN: Superethisch.
Wat vind je zelf van dit specifieke voorbeeld?
Ik vind het eigenlijk wel oké, als ik heel eerlijk ben.
Liever zou ik hebben dat iedereen opschrijft dat men na zijn dood
wel of niet in welke situatie, beeld, geluid enzovoort mag gebruiken.
ROTMAN: Moeten we John Lennon terughalen?
VAN DOORN: ABBA is er, dat is toch fantastisch?
En die zijn nog niet eens dood. Daar ga je toch naartoe of niet?
ROTMAN: Ja, maar voor ABBA zelf is dat een PR-stunt.
John Lennon, Einstein? VAN DOORN: Waarom niet,
als ie inspireert en mensen les kan geven
en mensen zich meer willen verdiepen in de wetenschap.
ROTMAN: Dit vind ik leuk, Alex. Die eerste voorbeelden waren zeer zinvol,
moeten voldoen. En nu komen er een paar voorbeelden waarvan ik denk: nou...
CORRA: Er is volgens mij ook een discussie rond Amy Winehouse.
Haar familie heeft toestemming gegeven
om een holografische versie van haar te maken, terwijl in haar testament
daar niets over stond. En dat heeft een hele discussie opgeleverd.
Ik weet dat Elton John volgens mij in z'n contract heeft staan
dat er geen digitale versie van hem gemaakt mag worden.
Nou ja, dat is dan wel weer het interessante,
dat die nieuwe technologie nieuwe vraagstukken brengt
waar je normaal nooit over had hoeven nadenken.
Want ja, je bent overleden, dan is het gewoon het einde.
Dan kom je niet meer zo makkelijk terug. En nu kan je terugkomen
en misschien kom je wel heel anders terug dan jij zelf zou willen.
Moet je daar iets mee? ROTMAN: Dit vind ik wel heel gaaf.
Ik wil iets meer naar het hier en nu. Veel mensen die deze podcast luisteren,
komen uit de overheidshoek, ambtenaren en zo.
Heb je ook voorbeelden van hoe de overheid inmiddels
deepfake misschien omarmd heeft
op grote of kleine schaal? Heb je daar voorbeelden van?
VAN DOORN: Dat röntgenfotovoorbeeld was een overheidsorganisatie in Zweden.
De overheid is altijd keen op privacy. Terecht, natuurlijk.
Ik denk dat dat nummer 1 is. En in campagnes, kan je je bedenken.
Je kan de technologie beetpakken.
Het bijt niet, het doet je niks. Waarom zou je 't niet gebruiken?
Waarom zou een overheid daar anders in staan dan een andere organisatie?
Veel overheids- of semi-overheidsorganisaties
zijn juist bezig met het doen van fundamenteel onderzoek.
ROTMAN: En als je echt eventjes kan inspireren,
dat je zegt 'oké, als je mij binnenhaalt als adviseur van de overheid...'
We hebben nu een staatssecretaris van digitale zaken en die zegt:
'Menno, je hebt dat boek geschreven, 'Echt nep',
Ik heb je gehoord in die podcast. Jij bent een slimmerik.
Adviseer mij. Deepfakes,
hoe gaan we die voor de samenleving inzetten?' Waar zou je op inzetten?
VAN DOORN: Dat begint met probleem- definiëring. De samenleving is zo groot,
het zou aanmatigend zijn als ik hier zeg 'dit moet de overheid doen',
want dan krijg je mijn hele politieke agenda.
We eindigen het boek met een politieke agenda
en dat is hoe je een positief verhaal kan vertellen.
Alles wat je kan manipuleren, beeld en geluid, komt extra hard binnen.
Er zijn wel wat dingen aan de hand in de wereld,
niet in de laatste plaats klimaatopwarming, biodiversiteit,
de grote issues waar we ons meer druk over moeten maken
dan deepfake-technologie. Hoe mooi is het
als we synthetische media kunnen inzetten om een positief verhaal
te creëren, om mensen mee te krijgen in de omslag die we allemaal moeten maken.
ROTMAN: Hmm, Alex?
CORRA: Dat brengt ons bij een interessante ethische vraag:
welk doel heiligt de middelen?
Een van de vragen die ik zelf heel interessant vind,
gaat over manipuleren van mensen
en de inzet van technologie om te manipuleren
speelt heel erg bij sociale media en platforms zoals Facebook,
maar ook wel bij TikTok, denk ik.
Men probeert dat platform zo te bouwen
dat die aandacht optimaal gegrepen wordt.
ROTMAN: Advertenties, dat verhaal.
-En dat je steeds meer wil kijken.
Je kan natuurlijk ook zeggen: als wij die technologie gaan inzetten
om bijvoorbeeld het klimaatveranderingsverhaal
beter voor het voetlicht te brengen,
misschien kan dat net het druppeltje zijn wat ervoor kan zorgen
dat we uiteindelijk de actie ondernemen die we moeten ondernemen
om dat collectieve probleem goed aan te pakken.
ROTMAN: Maar de critici willen het tegenargument bewijzen.
VAN DOORN: Beeld komt altijd extra sterk binnen.
Dan laat je in zo'n postcodegebied zien hoe hoog het waterstijgingseffect
in jouw straat is. Zoom dan even uit en een paar jaar naar voren.
Een soort toggle, en dan kan je zien: verrek, dat is wel echt een issue.
ROTMAN: Dat was m'n volgende vraag, maar dat is het dus.
Je kan laten zien hoe het... Hoe noem je dat nou?
Dat scenario kan je gewoon in beeld brengen.
VAN DOORN: Levensecht, omdat het steeds echter wordt.
Beelden worden echt, geluiden worden echt
en het andere wat Alex brengt:
Er is wel wat aan de hand en ik denk dat de kwaadaardigheid
moet worden aangepakt via wetgeving.
Ik denk vooral op Europees vlak. Dat moet Nederland niet doen.
ROTMAN: Worden daar stappen gezet? De AI Act bijvoorbeeld?
VAN DOORN: 6% van je omzet voor die grote biotechbedrijven.
Dat is zo ongeveer 20% van je winst van Google.
Dat doet echt pijn. En ik denk dat je het systeem moet aanpakken.
Dus de fake chatbots bijvoorbeeld. Dat is heel kwaadaardig,
want die verspreiden al die mooie verkeerde beelden.
Je moet het systeem aanpakken, dat vind ik helemaal goed.
ROTMAN: Oké...
-Daar wil je niet heen, hè?
ROTMAN: Ik wil naar tips en oplossingen en dit is een mooi begin.
Laten we eerst kijken wat de overheid kan en moet doen
om de negatieve deepfakes aan te pakken.
Even kort en snel twee concrete dingen misschien.
Die regelgeving, maar wat voor regel? Verbieden? Wat is dan de regelgeving?
Daarna wil ik kijken: wat zijn de tips en oplossingen?
Je wil ermee gaan werken bij de overheid of een andere organisatie.
Je ziet een kans. Hoe doe je dat? Hoe pak je het aan?
Maar eerst nog even die negatieve deepfake, die valse informatie.
90% van de informatie op die socials die straks op me afkomt
die niet meer echt is. Wat moeten we eraan doen?
Wie? VAN DOORN: Alex, jij mag.
CORRA: Nou, het is... Ik zit er tweeslachtig in.
Aan de ene kant denk ik: wil je het beter kunnen herkennen,
wil je er beter mee om kunnen gaan, moet je eraan gewend zijn.
Het is vaak zo, en dat zie je door de tijd heen ook
met de ontwikkeling als het gaat om film en allemaal dingen
waar we doordat we het vaker zien ook meer de nuances misschien zien
van dit is echt of niet echt,
maar er is ook een punt waarbij je het misschien niet meer kan zien.
En ben je je er dan bewust van dat dat punt bereikt is?
Dus dat is denk ik lastig,
maar tegelijkertijd is volledig wegreguleren onmogelijk.
Want als het er is, dan gaat iemand het gebruiken.
VAN DOORN: Je krijgt ook technologische oplossingen.
Ik zal wat reclame maken voor Truepic, iProof, Sensity, Deepware AI,
DeepDetector, Microsoft Video Authenticator.
Dus dat is een booming markt in de techsector alleen.
Die zeggen: wij gaan wel zeggen of dat plaatje, geluidje of videootje echt is.
Dus foto's opsturen van je beschadigde auto,
dan wil de verzekeraar weten: zit er geen deepfake achter?
Voor een deel is het technologie,
maar ik denk niet dat technologie het hele probleem oplost.
Het is een palet van dingen. Het is wetgeving, technologie
en een beetje vertrouwen op de mensheid dat we niet naïef ter wereld komen,
maar dat we toch wel kijken om ons heen
en eerst willen weten of het wel een beetje klopt.
En natuurlijk... We hebben het niet over hele zware dingen gehad,
maar het allerkwaadaardigste is gewoon propaganda.
Propaganda is een staatssysteem, dat lossen we hier aan tafel even niet op.
ROTMAN: Doen we een andere keer.
Oké, dat zijn die deepfakes waar we ons zorgen over maken.
Je kan er iets mee, het gaat over vertrouwen,
maar dan toch even de deepfakes die we voor ons willen laten werken.
Hoe ga je aan de voorkant van zo'n proces dat je zo'n systeem wil bouwen
ervoor zorgen dat het daadwerkelijk voor ons werkt? Hoe pak je dat aan?
VAN DOORN: Afhankelijk van wat het doet.
Als je dat voor ons wil laten werken...
en ik ga het met jou hebben over het afmaken van de symfonie van Beethoven,
die die nooit heeft afgemaakt, of Philip Glass, waar ik een fan van ben:
je hebt een AI-generator Philip Glass-muziek.
Ga er eens naar luisteren. Fascinerend. Andere vormen van kunst.
ROTMAN: Er zijn nieuwe Beatles-liedjes gecreëerd.
VAN DOORN: Ik heb er eentje lang in m'n hoofd gehad.
Fijn dat je me er weer aan herinnert, want dat was echt een oorwurm.
Maar je mag ook een glimlach hebben.
Als je het voor je moet werken, mag het toch ook gewoon leuk zijn?
Zinvol ook, dat is ook belangrijk.
ROTMAN: Je noemt nu wat zaken uit de entertainmentindustrie.
Is het dan ook aan de voorkant nadenken over...
VAN DOORN: Entertainmentindustrie...
De stad Groningen heeft een digitale twin gemaakt van de hele stad.
Er is zoveel moois te doen waarbij je exacte kopieën hebt van de echte wereld
waardoor je met de buurtbewoners of projectontwikkelaars aan tafel kan zitten.
Dus het hele 'verfaking', wat wij dan echt nep noemen...
We zijn nog maar aan het begin en zijn er mooie toepassingen.
ROTMAN: Maar dan is het wat jij altijd zegt, Alex:
Je moet aan de voorkant goed nadenken: wat wil ik nou werkelijk?
In plaats van als een kip zonder kop met die tech aan de slag gaan.
En als je bedacht hebt wat je werkelijk wil,
zou een deepfake-technologie een oplossing zijn,
omdat het voldoet aan de waardes die je wil uitstralen, iets wat je wil bereiken.
Dan is het een tool die je ten goede
of kwade kan inzetten. CORRA: Dat geldt voor alle technologie.
Het zijn doorgaans altijd middelen voor een bepaald doel.
Je moet nadenken welk doel je ermee wil bereiken
en wat aan het begin ook gezegd werd, als het gaat om synthetische testdata:
ik denk dat daar veel mogelijkheden zijn.
Dat is in ieder geval bij de overheid en ook bij mijn organisatie
één van de lastigste dingen.
Hoe kan je nou goede realistische testdata vinden
en tegelijkertijd de privacy beschermen?
Dat is denk ik het begin van een applicatieveld
waar het denk ik heel nuttig kan zijn.
VAN DOORN: Misschien kunnen we filosofisch eindigen,
want we zitten een beetje... ROTMAN: We gaan naar het einde toe.
Ik zit even te broeden op mijn laatste vraag.
VAN DOORN: Een uitdagende vraag voor de toekomst is:
zijn we in staat om synthetische mensen te maken
die conversaties aangaan met de burger, die dus absoluut niet echt zijn,
die in staat zijn om het contact met de overheid menselijker te maken?
En ik stel het bewust als een vraag, want je kan twee kanten op.
Je kan zeggen: het is de ultieme ontmenselijking,
maar soms is het contact met de overheid niet erg menselijk.
ROTMAN: Een kwartier in de wacht.
-Ik denk dat daar
een spannende toekomstvraag zit: hoe zijn we in staat,
wat is er nodig als we dat willen bouwen? Onder welke voorwaarden zijn we in staat
om een menselijke computer contact te laten maken die wel menselijk is
en waar mensen blij van worden en beter geholpen door worden.
ROTMAN: Nu zit je toch aan tafel bij de staatssecretaris van Digitale Zaken.
Vind je dit een leuke kwestie, Alex?
-Een hele mooie.
Ik moet meteen aan de film 'Her' denken.
Kan je verliefd worden op een AI en is dat erg?
Maar de andere kant van het verhaal is een soort van individuele matrix
die voor ons geschapen wordt, die perfect bij ons past, en is dat erg?
Maar wat jij zegt... Een van de dingen waar ik ook mee bezig ben:
Die technologie moet je inzetten op een manier
die complementair is aan wat wij willen, als mensen en als maatschappij.
Daar moet je goed over nadenken en dat moet je proberen te bereiken.
Wat heb je nou nodig om die complementariteit te kunnen realiseren?
Welke randvoorwaarden horen daarbij? Welke designkeuzes moet je maken
om dat te stimuleren? Dat zijn denk ik vragen waarmee je aan de slag moet,
wil je dit op een goede manier kunnen doen.
VAN DOORN: Eens. Ik ben misschien nog net iets radicaler.
Je kunt de vraag stellen wat mensen zouden moeten willen.
Weer terug naar die grotere vraag.
We leven in een consumptiemaatschappij, allemaal leuk en aardig.
Die marketingjongens weten waar ze dit voor willen gebruiken,
namelijk meer consumeren.
Ik zou het ook interessant vinden om te kijken:
hoe krijgen we nou tussen de oren dat dat grote issue echt speelt?
Hoe creëren we nieuw narratief van economie waar we in willen geloven?
Dan kun je deze media daar perfect voor inzetten volgens mij.
ROTMAN: Dit is een leuke om mee af te sluiten.
Laat iedereen hier zelf ook over nadenken.
Wat is nou eigenlijk echt en wat is nep? Wie bepaalt er wat fake is of niet?
Wanneer het wel of niet mag. Iedereen neemt z'n verantwoordelijkheid:
op overheids-, bedrijfs-, ontwikkelaars- en individueel niveau.
Dat gaan we doen. Ik hoop dat deze podcast een bijdrage heeft geleverd.
Als afsluiter wil ik een beeld oproepen van die fictieve mens
die Menno net heeft ontwikkeld,
die de relatie tussen de mens en de overheid menselijker en mooier maakt
en dat we ondertussen allemaal een beetje verliefd worden,
als bijeffect, op die persoon en of we dat eigenlijk wel willen.
Mooi om met z'n allen over na te denken. Dank je wel, Menno van Doorn,
directeur Verkenningsinstituut Nieuwe Technologie bij Sogeti,
schreef het boek 'Echt nep', leuk en zinvol boek.
Alex Corra, beleidsadviseur recht en ethiek
en voorzitter van de domeingroep data-ethiek bij het CIP.
Dank jullie wel, beiden. Ja jongens, dit is een leuke podcast.
We hebben veel van dit soort afleveringen gemaakt. Wil je meer horen,
dan kan dat via cip-overheid.nl/uitgelicht of je favoriete podcastapp.
Dank jullie wel.