Er is niet te ontsnappen aan nieuws over AI. En vaak horen we dat AI ons erg veel werk uit handen kan nemen. Maar wat doet dat dan met ons mensen? Hoe zit het met onze rol in de creatie van waarde? Onze rol in de samenleving? Onze rol in de organisaties waar we werken? Samen met Nanda Piersma (Kroonlid SER) zoomen we uit naar de wereld waarin AI nu impact maakt. Wat verandert er? Wat verandert er niet? Waar moeten we meebewegen en waar moeten we ons standvastig verzetten? En hoe kijkt zij naar de toekomst met AI, wat geeft ons werk waarde? Bekijk de goodiebag met tips uit het webinar
Dit webinar is opgenomen in het kader van de Maand van de Digitale Fitheid 2026.

Er is niet te ontsnappen aan nieuws over AI. En vaak horen we dat AI ons erg veel werk uit handen kan nemen. Maar wat doet dat dan met ons mensen? Hoe zit het met onze rol in de creatie van waarde? Onze rol in de samenleving? Onze rol in de organisaties waar we werken? Samen met Nanda Piersma (Kroonlid SER) zoomen we uit naar de wereld waarin AI nu impact maakt. Wat verandert er? Wat verandert er niet? Waar moeten we meebewegen en waar moeten we ons standvastig verzetten? En hoe kijkt zij naar de toekomst met AI, wat geeft ons werk waarde? Host: Lykle de Vries. Sprekers: Nanda Piersma, kroonlid SER, en Femke Voorwinden, I-trainee bij RADIO.
[Logo Rijksoverheid. RADIO Webinar: AI en menselijk kapitaal. 30 maart 2026.]
LYKLE: Welkom bij het RADIO-webinar 'AI en menselijk kapitaal'. Mijn naam is Lykle de Vries, werkzaam bij RADIO: de RijksAcademie voor Digitalisering en Informatisering Overheid. Het is ons streven om zoveel mogelijk collega's digitaal wat fitter, vaardiger en kundiger te krijgen. Dit webinar is een van onze manieren om dat te doen. We vieren dit jaar voor de vijfde keer de Maand van de Digitale Fitheid. Net zoals je fysiek fit kunt zijn of fitter kunt worden en mentaal fit kunt zijn of fitter kunt worden, kan dat voor digitale dingen ook. Daar is in deze maand extra aandacht voor. Maar we hopen dat jullie de rest van het jaar ook blijven letten op je eigen digitale fitheid. Een van de onderwerpen die daarbij natuurlijk speelt, is AI. Generatieve AI, AI in allerlei vormen, soorten en maten. Wat moeten we daarmee? Je zou bijna denken: 'Het overkomt ons en er is niks meer aan te doen, want het is overal.' Maar dat is natuurlijk niet waar. Daar gaan we het nu over hebben. We gaan het ook hebben over: wat betekent dat voor onze rol als mens, als medewerker, als collega? Is het niet gewoon gereedschap en moeten we daar niet mee leren omgaan? Daarover gaan we praten met onze gasten van vandaag. Nanda Piersma, kroonlid bij de SER. Fijn dat je er bent. En Femke Voorwinden, mijn collega en I-trainee bij RADIO. Van harte welkom allebei. Wanneer je dit webinar live kijkt, dan kun je via de chat reageren en vragen stellen. We zouden het heel leuk vinden als je dat doet. Daarvoor zitten mijn collega's Marijke, Roy, Damiët en Marie Louise klaar om de leukste vragen eruit te pikken en bij mij hier aan tafel te brengen. Kijk je de opname van dit webinar terug, dan zul je het moeten doen met de reacties die eerder al gegeven zijn. Ik ben als eerste wel benieuwd, beste kijkers, hoe het met jullie zit. Daarvoor is de eerste poll. Gebruiken jullie generatieve AI eigenlijk al? Dat geeft mij de kans om nog even wat nader kennis te maken. Om te beginnen bij jou, Nanda. Hoe word je kroonlid van de SER? Dan bedoel ik niet de sollicitatieprocedure. Maar wat deed je en doe je nog steeds waarom je kroonlid werd?
NANDA: De kroonleden van de SER werken bij de universiteiten of hogescholen. En ik was de eerste lector, de eerste hogeschoolmedewerker, die gevraagd werd om kroonlid te worden bij de SER. Dat is in 2022. Dat doe ik nu vier jaar. En nu is er een officiële sollicitatieprocedure als je kroonlid wil worden van de SER. Maar voorheen was het zo dat je gevraagd werd. Ik ben een van de laatsten die gevraagd is: wil jij bij ons komen? Dat deed ik als lector van de Hogeschool van Amsterdam. Ik was lector Responsible IT daar. En ik hield me al heel lang bezig met AI. En ook als lector Responsible IT had ik een aparte groep die zich bezighield met AI. En we keken: wat bedoelen we nou eigenlijk met 'verantwoord'? En hoe kun je dat verantwoord laten zijn? En hoe staat de mens tegenover AI? En dat werd gezien door de SER: Eigenlijk moeten we zo'n iemand hier hebben. Dus ik was de eerste bèta, de eerste lector, die bij de SER in de kroonledengroep kwam.
LYKLE: Hartstikke fijn. En mooi dat dat gelukt is. En heel fijn om jouw kennis hier vandaag in het webinar erbij te hebben. Net als die van jou, Femke. Hoe en waarom werd je I-trainee bij de Rijksoverheid?
FEMKE: Dat is ook een uitgebreide selectieprocedure bij ons. Maar voor mij was het vooral een soort droom om iets te veranderen voor Nederland, iets bij te dragen aan de samenleving. Voor mij was dan de plek bij de overheid. Ik heb innovatiewetenschappen gestudeerd. Ik vond AI het interessantst. Maar de overheid is zo groot. Waar moet je dan beginnen? Hoe kun je dat doen? Waar kun je dat doen? Dan past een traineeship daar wel goed bij. En dan laat je het maar gewoon over je heen komen. Dan zie je wel waar het blijft kleven.
LYKLE: Ik zie nu al een parallel, namelijk dat jullie vrij jong in je carrière al vol in AI-achtige onderwerpen zaten. Ik heb reacties op de poll. Ik gaf de mensen vier mogelijke antwoorden. Nee, helemaal niet. Alleen voor m'n werk. Alleen privé. Of privé en voor m'n werk. Meer dan de helft zegt: Allebei. Privé en voor m'n werk. 15 procent zegt: Alleen maar privé. 6 procent zegt: Alleen maar voor m'n werk. En 23 procent zegt: Nee, helemaal niet. Dus we hebben een mooie mix in het publiek zitten van mensen die al meer of minder eigen ervaring hebben. Ik zie al meteen een vraag in de chat komen. Die laten we nog even wachten. Eerst nog wat inleidende verkenningen.
FEMKE: Het maakt veel los.
(GELACH)
LYKLE: Nanda, je vertelde dat je er vroeg bij was.
NANDA: Zal ik dat nog even vertellen?
LYKLE: Ik denk dat dat ook voor het begrip handig is voor mensen om te weten.
NANDA: Ik heb wiskunde gestudeerd aan de Universiteit van Amsterdam. En ik ben gaan promoveren. En terwijl ik aan het promoveren was, ben ik overgestapt naar de Erasmus Universiteit. Daar werkte ik bij het Econometrisch Instituut. Daar mocht ik lesgeven over wiskundige modellen voor economische transformatie. Toen was ik bezig met heuristieken. Een van de heuristieken ik deed, dat zijn niet-exacte modellen, waren neurale netwerken. Dan deed ik in 1992. Toen gaf ik daar les in. Toen werd ik door de directeur van het Econometrisch Instituut naar zijn kamer geroepen. Toen zei hij: 'Dat is geen exact model. Dat mag je niet geven aan deze studenten. Daar hebben ze niks aan als ze in het bedrijfsleven komen. We moeten wel exacte antwoorden hebben. Ik zei: 'Maar heuristiek geeft een mogelijke kans op een bepaalde oplossing. Dat moet je toch ook weten. Dat heeft waarde.' Eigenlijk dacht ik later: We hadden nog niet de computercapaciteit om dat massaal uit te rollen. Maar het gedachtegoed dat je met een bepaalde kans naar een bepaalde oplossing komt, is toch wel goed dat mensen dat weten. Ik kom heel af en toe nog oud-studenten tegen. En die zeggen: 'Daar hebben we het toen over gehad. En nu is het massaal aanwezig, omdat we nu alle data en computerkracht hebben. Ik ben blij dat we dat toen ooit een keer met elkaar besproken hebben. Maar we hadden er toen geen moer aan.'
LYKLE: Maar het raakt een van de meest essentiële kenmerken van chatbots met een Large Language Model erachter, zoals ChatGPT. Noem ze allemaal maar op. Die weet het antwoord niet, maar berekent het meest kansrijke antwoord. En dat is dit, toch? Heuristiek.
NANDA: En dat is eigenlijk wat nog steeds gebeurt. Omdat er zo ontzettend veel parameters in zitten, miljarden parameters, is de kans dat je het goede antwoord krijgt vrij groot. Maar we hebben het ook over hallucineren, dat het ook helemaal fout kan. Maar, jij hebt innovatiewetenschappen gestudeerd, als je wat nieuws wil doen, moet je niet een kansmodel hebben dat getraind is op allerlei oude situaties. Je wil wat nieuws doen. Hoe ga je dat dan doen? Hebben jullie het daarover gehad?
FEMKE: Vooral dat nieuwe wat je toen wilde bespreken, in die lessen. Als mensen je daarin tegenhouden, dan houd je innovatie tegen. Omdat het nog niet bekend is, denk ik niet dat het niet besproken moet worden.
NANDA: We hadden heel veel onderwerpen die ook in het curriculum hoorden, maar dat je zo'n discussie voert over het curriculum is ook nu actueel. We hebben het nu nog steeds over: moeten studenten een scriptie schrijven of kunnen ze dat met ChatGPT doen? Als ik kijk... Ik raad veel studenten aan: Gebruik ChatGPT als je het zelf niet weet. Dan heb je iets van: hoe word je nou beoordeeld op een scriptie? Dat is echt een groot vraagstuk nu voor hogescholen en universiteiten. Zelfs tot aan de lagere school toe.
LYKLE: Het is ook een voorbeeld dat met het voortschrijden van de technologie je ook wellicht je bestaande manier van werken opnieuw moet toetsen en je je mag afvragen: waarom deden we dit ook alweer? Is dit nog steeds de beste manier om het doel dat we nastreven te bereiken?
NANDA: Dat is echt de vraag. Als jij een goede monteur wil hebben om je koelkast te maken, wil je dan iemand die een scriptie heeft geschreven of wil je iemand die 7000 koelkasten uit elkaar heeft gehaald. Dan zie je dat de manier waarop wij opleiden toch ook wel gebaseerd is op het boek waarin de kennis stond en dat je die kennis dan tot je neemt. En als je de kennis tot je hebt genomen, dan mag je het gaan uitvoeren. Dat is toch wel iets waarvan je zegt: als je als jonge werknemer in het werk komt en je moet dan pas leren hoe het in de praktijk werkt, en dat er een schroevendraaier nodig is om die koelkast open te schroeven... Dat is wel iets wat je tijdens je opleiding liever erin had willen hebben.
LYKLE: We geven meteen al een soort verschil aan tussen de manier waarop je gereedschap gebruikt en hoe je daarin getraind wordt. We hebben ook al langlopende gesprekken over het belang van mbo-opleidingen en hbo-opleidingen versus wo-opleidingen. We kunnen niet allemaal alleen maar wo-geschoold zijn. Liever niet zelfs. Maar dat lijkt wel benadrukt te zijn als beter of belangrijker. Dat wordt nu een klein beetje bijgestuurd. Maar geldt het ook voor technologie, generatieve AI en AI als geheel? Toen je in 1992 daar les over gaf en ging promoveren, naar nu, daar zit een hoop tijd tussen.
NANDA: Dankjewel.
(GELACH)
LYKLE: Wat voor ervaringen en inzichten heeft dat opgeleverd?
NANDA: Het is allemaal in golven gegaan. Toen we alleen de theorie hadden en nog geen computers om daadwerkelijk een AI-model door te rekenen, bleef het bij het kansmodel en gingen we er wetenschappelijk over nadenken: wat betekent dit nou en hoe goed is het? Daarna kregen we de data en de computerkracht. Ik weet nog dat ik achter de eerste Macintosh zat met de flight simulator en dat dat hartstikke leuk was om te doen. Maar uiteindelijk kreeg je dus steeds meer mogelijkheden om AI-systemen daadwerkelijk te bouwen en te maken in een computertaal die steeds makkelijker werd. Toen we de eerste AI-modellen gingen draaien... Ik weet nog dat ik superhyper was en dat ik het helemaal geweldig vond dat we dat nu konden. En dat ik ook dingen niet ging doen, want dat liet ik AI doen. Dat was toen vooral voorspellingen. We waren niet zo goed in voorspellingen met exacte modellen. Dat waren allemaal trendanalyses en modellen. Toen had ik op een gegeven moment een AI daarvoor naast m'n ARIMA-model. Toen had ik zoiets van: Het werkt net zo goed. Waar zeuren we over? Toen was het vooral de opluchting dat ik heel snel door kon met het onderzoek dat ik wel wilde doen en veel minder bezig was met: hoe goed is die AI eigenlijk? Wat voor negatieve effecten? Wat gaat dit betekenen voor de mensheid? Het was vooral makkelijk. Vooral fijn. En ik denk dat er daarna, sinds 2015, een enorme hype is gekomen dat allemaal mensen zeiden: Dit werkt er niet goed aan. Het discrimineert, het hallucineert. We hebben het toen zoveel over de nadelen gehad, dat als je nu aan mensen vraagt 'waarom gebruik je geen AI?', 25 procent hierzo: Dan weten ze alles van me. Dan wordt al mijn data gejat. Data en AI zijn twee verschillende dingen. Maar in heel veel software zit het gewoon gekoppeld. Je kan iets niet doen zonder dat je data geeft. En dan is de app 'gratis', maar je geeft al je data. Betaal je dan niet met je data? En als je dat dan niet bewust kan, dan wordt het nog moeilijker om een goede keuze te gaan maken. We hebben het nu over digitale fitheid. Met fitheid zit er toch ook iets in, van: voel ik me nog wel comfortabel bij wat ik aan het doen ben? Ik voel me uiterst comfortabel met AI-gebruik. Ik voel me uiterst oncomfortabel met data, die altijd en overal maar is, gehackt wordt en weet ik veel wat. Dan hebben we weer het Odido-hack. Er is van alles aan de hand met die data. Maar ik hoor bij AI eigenlijk alleen maar dat het af en toe hallucineert of met een bepaalde kans een fout geeft. Dat kan ik wel handelen. Ik weet niet hoe jullie daarin zitten, maar ik kan dat wel handelen.
LYKLE: Je hebt er natuurlijk ook op die manier naar gekeken. Vanuit je opleiding ook. Maar ondertussen werk je niet meer bij het Erasmus.
NANDA: Nee, ik ben naar de Hogeschool van Amsterdam gegaan.
LYKLE: Daar hebben jullie een Centre of Expertise Applied AI.
NANDA: Het heet officieel, de langste titel die ik ooit gehad heb: wetenschappelijk directeur van het Centre of Expertise Applied AI aan de Hogeschool van Amsterdam. Hoe lang kan je hem hebben?
LYKLE: Maar dan zijn we van wetenschappelijk onderzoek naar de toepassing gegaan. Applied AI betekent dat je het gebruikt en kijkt wat er in de praktijk mee kan. Wat voor soort dingen hebben jullie daar de afgelopen jaren dan gezien?
NANDA: Wat we gezien hebben: AI-systemen op zich zijn geweldig, zijn voor een kleine groep mensen hartstikke leuk en daar kunnen ze aan finetunen. Maar als je naar de toepassing kijkt, zien we dat we heel vaak big tech-oplossingen implementeren zonder te weten wat het doet. Dat wordt gezegd. AI-systemen doen iets, neurale netwerken, je weet niet wat er gebeurt. Dus ik hoef me er ook niet in te verdiepen, dus ik pas het gewoon toe. Maar in die toepassing zit ook wel een moment dat je kunt gaan nadenken. De overheid is daar nou best wel slachtoffer van geweest met de toeslagenaffaire. Dan heb je dus een algoritme dat je zomaar inzet. Je weet niet wat het doet ongeveer. Maar je hebt wel zeggenschap over waar je het voor inzet. En dat is wat wij op de Hogeschool van Amsterdam, samen met studenten moet ik er nadrukkelijk bij zeggen, steeds aan het bekijken zijn. Waar zet je dit nou voor in? En daar kunnen we wel over nadenken. Wil je mensen allemaal een aanvraag laten doen, bijvoorbeeld voor brandstoftoeslag, en vervolgens ga je met software controleren of ze het juist hebben ingevuld. Als ze één foutje hebben gemaakt, ga je ze straffen.
LYKLE: Dat is het model van de toeslagenaffaire.
NANDA: Als je nou al die data al hebt en je weet welke mensen de brandstof niet kunnen betalen, waarom laat je ze dan een aanvraag doen? Hebben we geen software waarin je de dingen al invult? O, de Belastingdienst. Als je nu een belastingaangifte doet, staat alle data al ingevoerd. Dus waarom zetten we nu steeds software in die beschikbaar is, waarin allemaal data heen en weer vloeit, en gaan we niet kijken naar: wat heb ik nou echt nodig? En dat soort onderzoek doen we aan de Hogeschool van Amsterdam. We hebben daar het AI, Media & Democracy Lab voor. Daar denken we samen met de Universiteit van Amsterdam na over in de media automatisch gegenereerde content. Wanneer ben je als mens nog de schrijver en wanneer heb je het helemaal geautomatiseerd? Ondertitels. Geautomatiseerde ondertitels zijn overal. Als je een Netflix-film kijkt...
LYKLE: Supermakkelijk.
NANDA: Wie let er op of er af en toe iets fout staat? Er staat af en toe een -dt fout in. Ja, oké. Er staat af en toe een gek woord in. Oké. We vinden het allemaal oké. Maar waar we niet over nadenken is dat er heel veel gediscrimineerd wordt in die ondertitels. Dat er heel veel geprofileerd wordt. Automatisch nagedacht. Een vrouw is altijd blond en een man is altijd stoer. Zo is dat taalgebruik ook in die vertalingen. En dat is eigenlijk niet oké.
LYKLE: En dat is dan een gevolg van de manier waarop die AI getraind is, toch? Dat is echt 'garbage in, garbage out, quality in, quality out'?
NANDA: Niemand discrimineert meer dan de mens. Dat hebben we jarenlang zo hard gedaan. Kijk maar naar de jaren 70. Kijk maar eens een film uit de jaren 70. Verschrikkelijk hoe seksistisch die zijn. Daar is allemaal op getraind en een AI is dat nu allemaal aan het produceren. Een AI is geen mens. Het is gewoon een geautomatiseerde productie van tekst. Geautomatiseerde productie van tekst getraind op hele seksistische teksten.
LYKLE: Als het referentiemateriaal laat zien dat dit is hoe je erover praat, dan is dat wat een LLM je voorschotelt.
NANDA: Ja, tuurlijk. Dan zijn we nu aan het nadenken. In Nederland hebben we GPT-NL. Die is gaan nadenken: we willen niet al die gegevens die overal maar zijn weggehaald van het internet, maar we willen zelf een database geven. Ze hebben twee jaar lang lopen zoeken naar databases. Welke database hadden ze als eerste tot hun beschikking? Van het Forensisch Instituut. Van alle criminele teksten die heen en weer gestuurd werden. 'Hé, mattie. Hij moet gaan slapen.' Als je alleen daarop traint, is het niet goed. Gelukkig heeft toen Beeld & Geluid gezegd: Wij geven jullie het materiaal van alle oude tv, radio. Al het materiaal dat we hebben. Maar ik weet niet of we nog een keer naar 'Zeg 'ns Aaa' willen kijken en wat voor teksten daar ingepraat werden.
LYKLE: Bassie en Adriaan.
FEMKE: Dat is eigenlijk precies wat je zegt. Niemand is zo discriminerend als de mens. AI is altijd getraind op menselijke data, trainingsdata. Dus ook bij een GPT-NL. Hoe goed je er ook over nadenkt wat de trainingsdata is, dan zal dat altijd blijven bestaan.
NANDA: Ik weet het niet. Ik hoop dat we niet van die moraalridders worden die zeggen: Deze tekst mag wel en deze tekst mag niet.
FEMKE: En wie beslist dat dan weer?
NANDA: Dat is de menselijke waardigheid.
LYKLE: Zo goed als we discrimineren, zo goed is ook onze capaciteit om ons te realiseren dat we iets aan ons gedrag moeten doen. Of dat we niet zomaar moeten zeggen of zomaar moeten schrijven, maar dat we dat in een groep doen en met peer-reviews zorgen dat dat wel oké wordt bijvoorbeeld. Dat kunnen we als mensen ook.
NANDA: Peer-review zetten we ook een AI op. Wist je dat?
(GELACH)
LYKLE: Ik denk dat we op dit moment ook gewoon overal aan het uitproberen zijn. Is het nuttig om het hier te gebruiken?
NANDA: Dat is wat wij zeggen vanuit het Center of Expertise Applied AI. Experimenteer ermee. En kijk wat je bevalt, kijk wat je niet bevalt. En ga naar je interne morele kompas. Wat vind je oké, wat vind je niet oké? Wat wij nu oké vinden, vinden we morgen weer niet oké. Dat is ook zo lastig om dat mee te vangen. We hebben gepraat over verantwoorde AI. Wat is verantwoord? Als je daarover nadenkt, wat verantwoord is... Dat is een werkwoord, hebben we gezegd. Verantwoord is een werkwoord. Wat vandaag verantwoord is, is morgen niet meer. Dat betekent dat we continu willen aanpassen. En wij hebben het erover gehad, ook bij de SER, daar komen we zo op: wat is nou eigenlijk het voordeel van alle software met AI? Dat het continu updates krijgt.
LYKLE: Dat is het voordeel?
NANDA: Ik vind het een voordeel, want dat betekent: je hebt altijd de nieuwste versie, maar we zouden moeten proberen om mee te praten over welke AI we nou willen hebben. En waarom? En wat er allemaal wel in moet en wat er niet in hoeft. We hadden het een tijd geleden over Word-documenten. Word-documenten zijn gemaakt om te printen, maar je print nooit. Dan wil ik liever een update waarin die printfunctie wat minder nadruk krijgt, waardoor er minder kb's nodig om een document op te slaan.
FEMKE: Dan wil je zelf invloed hebben in wat er in die nieuwe update zit. Dat vind ik wel een grote vereiste.
NANDA: Dat is dan wel een vraag. Ik vind voor onze Rijksoverheid een hele interessante vraag: hoe kun je zeggenschap krijgen over het soort software dat ter beschikking komt door big tech of door alternatieven? En als we updates hebben, lang leve de update, maar kunnen we hem dan ook de goede kant op duwen. Dat is onze vraag als mens.
LYKLE: Je stipte het al aan. Op een gegeven moment werd je lid van de SER. En jullie hebben vorig jaar als SER ook een rapport uitgebracht, AI en werk, waarin jullie geprobeerd hebben een beetje in beeld te brengen, van: wat speelt er en wat zouden we ermee moeten? Want heel plat horen we al vanaf het begin, met name vanuit de big tech: Dit gaat zoveel werk schelen. Al die mensen kunnen naar huis. Die kunnen lekker vakantie vieren, maar ik weet niet van welk geld. Je bedrijf wordt er effectiever en efficiënter van. Maar heel veel mensen zullen zich afvragen: wat betekent dit eigenlijk voor mij en voor de organisatie waar ik werk? Wat betekent het voor m'n buren? Ja, automatische ondertiteling is misschien heel makkelijk voor mensen die dat graag gebruiken, maar dan moet je erop kunnen rekenen. Maar als het automatisch gaat, hebben we ook allerlei mensen die dat werk vroeger deden niet meer nodig. Hoe... Grote vragen. Hoe ging het maken van het rapport bij jullie?
NANDA: Dat was een heel intensief proces. Toen ik bij de SER kwam in 2022, toen hebben we vrij snel een commissie Digitalisering opgericht, omdat we wisten: digitalisering op de economische omgeving, maar ook in de sociale omgeving, is een hot topic en moeten we wat mee. We moeten kennis verzamelen. We hebben het eerste jaar alleen kennis verzameld. Samen met het Rathenau Instituut die vertegenwoordigt, samen met de ministeries, samen met de vakbonden en met de werkgevers. Toen hebben we ook echt bedrijven uitgenodigd: Kom maar vertellen. Waar loop je tegenaan? Wat zijn je keuzes? Waarom heb je die keuzes gemaakt? In verschillende sectoren. Toen hebben we onder andere met de sector retail gesproken. En die zeiden: We zijn eigenlijk best ver, want robots hebben we al mee geëxperimenteerd. Wij geloven in het experiment. En andere bedrijven, zoals de chemie, zeiden: We willen daar helemaal niet nu mee bezig, want het is allemaal onbetrouwbaar. Als wij één foutje maken, hebben we een grote explosie en een groot probleem. Dus dat kan niet. En vanuit daar is er een opdracht gekomen vanuit het ministerie van Binnenlandse Zaken. Alexandra van Huffelen vroeg: Kunnen jullie nou advies geven wat we als overheid als beleid kunnen gaan doen om AI in werk enigszins te kunnen voelen en wat beleid over te kunnen maken? Toen zaten we elkaar letterlijk aan te kijken.
FEMKE: Grote vraag.
NANDA: Het is echt heel moeilijk. Maar we zijn er wel mee aan de slag gegaan. We hadden wel het idee: als iemand hier nu over na moet denken, is het gesprek tussen de vakbonden en de werkgevers, samen met de mensen uit de wetenschap en van het Rathenau Instituut en het segment dat zich daarmee bezighoudt, is het wel belangrijk dat wij hier met elkaar over nadenken.
LYKLE: Was het laat? Want de ontwikkeling van AI beslaat al decennia. Of was het vroeg? Want we zijn nog maar net begonnen met het gebruiken van Large Language Models met een chatinterface. Hoe ervoeren jullie dat?
NANDA: Wij ervoeren het als dat wij precies op tijd waren, want de Large Language Models, de generatieve AI, was in december 2023 beschikbaar voor iedereen. Iedereen ging het opeens gebruiken. Ik had het niet verwacht. Ik had ChatGPT 2.0 en 3.0 al gebruikt, wetenschappelijk dan. Maar daar zat je zo naar te kijken: superinteressant. Ik heb nog een kunstwerk daar gemaakt, de Quantumcat, waarin we ook ChatGPT gebruikt hadden. Mensen hadden zoiets van: een tooltje dat je erbij gebruikt. Maar opeens was het overal en ging het werk afnemen van de vertalers, van de mensen die op de stations teksten leverden van wanneer een trein kwam. Er gingen mensen bij mediabedrijven eruit. Het werd opeens heel veel en heel groot. Ook in het onderwijs. Alle studenten gingen massaal naar de gratis versie van ChatGPT. Ik weet dat ik naast Ed Nijpels zat, die ook kroonlid was, en dat hij zei: Laat mij eens zien hoe dat werkt. Dus ik pak het ChatGPT-tooltje erbij en hij typt in: wie is Ed Nijpels? Ed Nijpels is een oud-politicus van het CDA. We lagen echt in een deuk van het lachen.
LYKLE: Bijna goed.
NANDA: Maar toen hadden we ook meteen een soort realitycheck, van: dit is niet helemaal correct. Hij heeft wel door dat het een politicus is en dat hij nu uit de politiek is. Hij zei: Ik ben hartstikke actief. Ik zei: Nee, je bent niet van het CDA. Hij zei: Ik ben hartstikke actief. Daarin hadden we dus wel al een heel klein experimentje, waarvan ik zei: Ga ermee experimenteren en kijk wat je ervan vindt.
LYKLE: En kom erachter waardoor het komt. In dit geval ging het waarschijnlijk over de periode van data waarmee dit model getraind was voor een deel, waardoor het model dacht: hij is gestopt. En een incorrecte voorspelling, omdat er misschien niet genoeg data was.
NANDA: Er was ergens data, van: Ed Nijpels geeft het stokje over aan de volgende generatie bij de VVD. Logisch. Ik hoop dat hij het niet erg vindt dat ik het hem vertel, maar het was echt heel erg grappig dat we daar met z'n twee naar zaten te kijken. Maar dan ben je er dus op een bepaalde manier vitaal mee om aan het gaan, omdat we erom moesten lachen. Maar hij zei: Maar wat als ik straks als kroonlid wordt vervangen door een chat? Gaan we dan onzin produceren of niet? Toen zijn we daarover verder gaan praten. En ik vind dat we best een eind zijn gekomen, want we hebben een drieslag gedefinieerd: we moeten kansen pakken, mensen meenemen en misstanden voorkomen. Linda Kool van het Rathenau Instituut heeft dat als eerste op die manier gezegd. En kansen pakken, daar zijn we niet zo goed in.
LYKLE: Nee? Wie zijn 'we' in dit geval?
NANDA: Als Nederlandse bedrijfsleven. We zijn heel goed in het duiden van misstanden, en dan vooral misstanden in het maatschappelijk domein. 'Er wordt gediscrimineerd, de software neemt mensen over en de digitale autonomie is weg.' Je wordt steeds banger gemaakt. Ik durf amper nog tv te kijken als ik er af en toe naar kijk. Dan denk ik: Zo erg is het toch allemaal niet. Kansen worden nu vooral gedefinieerd in generatieve AI. We hebben net gevraagd aan mensen: wie gebruikt generatieve AI? Het lijkt wel alsof dat de enige AI is. Maar als je nu met een voorspelmodule kunt voorspellen wanneer in Rotterdam de grote evenementen zijn volgend jaar, dan kun je je middellangetermijnplanning van de RET er al op afstemmen.
LYKLE: Dan hebben we het niet over generatieve AI.
NANDA: Nee, helemaal niet.
LYKLE: En dat lijkt een hele nuttige toepassing.
NANDA: Die kansen pakken we dan niet, maar we gaan wel een persbericht sturen met een taalmodel. RET, ga eens kijken wat je nog meer kan doen met AI. En dan kom je dus op voorspelmodules. Je komt op betere capaciteitsplanning. Je komt op het inschatten welke metro wanneer onderhoud nodig heeft. Preventief onderhoud. Dat zijn precies de dingen die in de Centers of Expertise aan de hogescholen, Fontys is er goed mee bezig, Vlissingen is er goed mee bezig, eigenlijk iedereen wel, maar ook Amsterdam, waarin we dat soort toepassingen samen met bedrijven proberen door te werken. Dat zijn kansen. En dan krijg je daarna een heel lang iets, dat bedrijven zeggen: Hartstikke leuk dat we het hebben gedaan. Topexperiment. Nu weer aan het werk. Mensen meenemen is dus ook een onderdeel daarvan. En we hebben het met de vakbonden heel veel gehad over waardig werk. Sorry, mag ik nog even doorlullen? Amsterdammer, hè. (FEMKE LACHT) Want we hebben het heel veel gehad over: hoe zorg je nu dat als je hebt aangetoond dat het werkt, dat het dan ook gaat werken? Dan kom je bij de mensen. Mensen willen waardig werk. En waardig werk betekent dat je je goed kunt verhouden tot de systemen waarmee je werkt. Als je bedrijf het verbiedt of je bedrijf verplicht het, heb je bij alle twee iets van: En ik dan? Wanneer heb ik hierover meegepraat? En met 'mensen meenemen' hebben we iets van een uitwerking gevonden in de gesprekken tussen werkgevers en werknemers via de medezeggenschapsraden. Medezeggenschapsraden, wat doen die eigenlijk? Hoeveel mensen heeft een medezeggenschapsraad? Wat voor onderwerpen zet je erin? We hebben gezegd: Die zouden best wel eens mee kunnen praten over: welke AI-systemen zetten we waar voor in?
LYKLE: Femke. Jij hebt denk ik niet een hele uitgebreide analyse gemaakt voordat je AI-tools ging gebruiken op het moment dat je ze tegenkwam, zoals een overheid dat doet. Dat hoef je misschien wel helemaal niet, want ieder mens mag voor zichzelf kiezen. Maar Nanda schetst net: een organisatie kan het helemaal verbieden of verplichten. Hoe heb je het tot nu toe binnen de Rijksoverheid ervaren in de tijd dat je I-trainee bent? Krijg je de ruimte om te experimenteren?
FEMKE: Dat is natuurlijk een groot verschil. Dit was mijn eerste baan. Daarvoor mag je natuurlijk alles privé. Toen waren er binnen het onderwijs ook nog weinig regels. Dus als je het hebt over kansen pakken, grijp je alle kansen die je kan vinden. De structuur van m'n scriptie bijvoorbeeld is wel met behulp van.
NANDA: Gelukkig.
FEMKE: Zo zie ik het zelf ook. Bij mij is het een manier om met behulp van zelf verder te komen. Binnen de Rijksoverheid... Dat is altijd een beetje het beeld ervan: een grote bureaucratische organisatie. De regels zijn veel beperkter. Ook omdat de overheid graag vanuit een voorbeeldfunctie wil fungeren. Daar sta ik ook heel erg achter. Anders was ik hier niet gaan werken. Maar daardoor zijn de opties wel erg beperkt. Dus wat ik hiervoor privé deed heb ik terug moeten schalen in m'n werk. Ik wil daar zelf ook niet een te grote mismatch in creëren. Als je dan privé wel nog veel verder zou gaan en dat niet op je werk mag gebruiken, kan dat ook heel frustrerend werken.
LYKLE: Dan zie je mogelijkheden en dan zou dat je motivatie voor werk misschien negatief kunnen beïnvloeden.
FEMKE: Ja, dat kan.
NANDA: Als je dan over kansen pakken praat: je bent een aantrekkelijke werkgever als je mensen de ruimte geeft om te innoveren en om te kijken en te experimenteren met AI.
FEMKE: Heel interessant dat je dat zegt. Dat merk ik ook bij veel van mijn mede-trainees. Die werken bij de overheid omdat ze iets aan Nederland willen bijdragen. Maar in de private werkomgeving zouden ze veel meer met AI kunnen doen. Dan moet je toch zelf die afweging maken: ga ik dan nu hier in de beperkte functies iets bereiken of ga ik ergens anders waar er veel meer mogelijk is?
LYKLE: Het klinkt als iets waar je wel ook over nadenkt en wat je niet zomaar lukraak doet. Ik denk dat dat winst is. Ik denk dat dat ook voor een deel is wat jullie vanuit de SER graag zien dat er gebeurt. We kunnen niet de hele Rijksoverheid bespreken in dit webinar, maar je had het over kansen, mensen meenemen en misstanden.
NANDA: Misstanden voorkomen.
LYKLE: Ik krijg daar twee vragen over. Het is nu de Maand van de Digitale Fitheid. Dan is het wel nuttig om de voor- en nadelen van AI beter te begrijpen. Valt dat wat jou betreft onder AI-geletterdheid?
NANDA: Zeker. Meer nog dan die knoppencursus. 'Weet je hoe je ChatGPT kan downloaden?' Dat interesseert me veel minder dan de voor- en nadelen.
LYKLE: Snap je dat je een LLM gebruikt?
NANDA: En weet je de voor- en nadelen ervan? Goede vraag.
LYKLE: En iemand anders zegt: waarom kan AI niet de bronnen gebruiken in plaats van op basis van kansberekening een versie van de bronnen presenteren? Zou je dat als eis moeten stellen aan een AI-systeem? We hebben wel drukte gehad over dat sommige bronnen helemaal niet bleken te bestaan. Dus dat tegenwoordig veel modellen er beter zijn geworden om te zeggen: Dit is de URL, zodat je kunt verifiëren dat ze zich baseren op iets wat echt bestaat. Maar we zien op dit moment ook Google in de zoekresultaten de informatie van een wegpagina af halen en zelf herformuleren en aan jou presenteren, zodat je niet eens meer op de webpagina terechtkomt. Dan wordt het allemaal wel heel troebel misschien.
NANDA: Ik vind dat wel een hele spannende. Ik heb met Marleen Stikker van Waag... Zij heeft het over: Het internet is stuk, maar we kunnen het repareren. Ze heeft het over het waarheidsgehalte van internet. En als je nu internet... Zoekmethodes, wat een beperkte set is van alles wat beschikbaar is... Je krijgt nooit Chinees te zien of Swahili. Je krijgt een beperkte set van: dit is wat ik denk dat jij zoekt. En dat wordt dan ook nog met een taalmodel geformuleerd tot iets waar geen bron meer aan vastzit. Zij zei ook van: wie is nou verantwoordelijk? Welk soort recht valt dit onder? Ik zat te kijken vanuit de praktijk, toegepaste AI, van: wat kun je nog geloven? Als ik het telefoonnummer wil hebben van een goede sleutelmaker in Rotterdam en ik zoek 'sleutelmaker, betrouwbaar, Rotterdam' en ik krijg daar een AI-gegenereerd telefoonnummer, dan is het internet als bron om iets te zoeken kapot. Dan is internet kapot en is het niet meer te fixen. Want als we het alleen nog maar kunnen benaderen via zo'n AI-tool, dan is het weg. Aan de andere kant zie ik dan iets als Perplexity. Perplexity is een AI-tool die meteen de bronnen eronder aangeeft. Als je het wil opzoeken, hier, hier en hier staat het. Top. Dus het is weer de toepassing.
LYKLE: Je eigen zoektocht verfijnen.
NANDA: Je kunt zelf doorzoeken, je kunt zelf meegaan.
FEMKE: Maar over die betrouwbaarheid is bij mij altijd wel weer de vraag: zijn er bepaalde adverteerders die een bedrag hebben neergelegd om hoger in die zoekresultaten naar voren te komen?
NANDA: Dat is met Google zeker een model. Ik vond het ook wel interessant dat ik hoorde op de radio: Wij zorgen ervoor dat je hoger in de AI-zoekresultaten komt. Toen dacht ik: hoe ga je dat doen?
FEMKE: Dat lijkt me complex.
NANDA: Maar er is dus een bedrijf die een service aanbiedt aan bedrijven waardoor je hoger in de AI-zoekmethodiek komt. Ik ben heel benieuwd.
LYKLE: Ik wil wel een volgende pollvraag aan onze kijkers stellen. Dat is de vraag of het inzetten van generatieve AI een onderwerp van gesprek is op jouw werk op dit moment. Daar ben ik benieuwd naar. Dan wil ik in de tussentijd nog even terug naar jullie rapport. Jullie zijn de Sociaal-Economische Raad. Je zegt: We moeten zorgen dat we de kansen beter zien. Als we die zien en we proberen dingen uit, moeten we mensen meenemen. Daar heb je met name met werkgevers en werknemers een gesprek over en daar kan die medezeggenschapsraad een veel belangrijkere rol in spelen dan veel mensen misschien gedacht hadden.
NANDA: We hebben het als mogelijkheid gegeven. Denk daar eens aan.
LYKLE: Nou hebben we sinds kort een nieuw kabinet. Digitalisering is naar Economische Zaken gegaan voor een groot deel. En de verstandige bedrijfsvoering, mijn woorden, is bij BZK gebleven. Dat is dan digitalisering bij economie, niet noodzakelijkerwijs bij sociaal. Er was een Rapport Wennink dat ook heel erg op economische kansen zat. Het toekomstig verdienvermogen. Er is een commissie waar je ook in zit, bij de SER. Ik vind het niet een onbelangrijk antwoord, maar wordt het niet wat eenzijdig als we alleen maar over economische kanten praten?
NANDA: Ik vind eigenlijk dat we er soms wel te weinig over praten. Er is een vermenging van het maatschappelijke, het sociale en het economische gedeelte, waarin we heel veel weten over wat we niet willen, maar we weten niet wat we wel willen. Ondertussen roepen mensen uit het bedrijfsleven: We hebben meer eigen infrastructuur nodig, digitale soevereiniteit nodig. En ik vroeg me echt af bij de AI-fabriek in Groningen: wat is het businessmodel? Ik ben niet de enige die zich dat afvroeg, maar ook in internationale publicaties. Dan zie je dat bij Economische Zaken hebben we nu het thema 'digitalisering' neergelegd. Wat kan Economische Zaken doen? Die kan innovatie stimuleren. Daar kunnen ze ook financieel ondersteunen.
LYKLE: Dat is ook een deel van het verhaal van de AI-fabriek.
NANDA: Ik wou het niet zeggen, maar jij zegt het nu. Dan krijg je dus nu: wie gaat er gebruikmaken van die AI-fabriek? Wie wordt eigenaar? Wie gaat dit verder brengen? Wie maakt dit tot een succes? Wordt dit onze nieuwe tak van sport vanuit Nederland waar we heel goed in zijn en waar we Europees en wereldwijd beroemd om worden? Wat is het businessmodel? Een simpele vraag. Wat is het businessmodel van de AI-fabriek? Dat vraag ik me bij heel veel AI af.
LYKLE: Als antwoord op mijn vraag over 'wordt het niet te eenzijdig?', zeg je: we moeten vaker dat economische gesprek hebben.
NANDA: We zouden dat economische gesprek scherp moeten voeren. En daarom ben ik blij dat digitalisering nu bij Economische Zaken op het vizier staat. En ik zou ze dus eigenlijk willen vragen: Ga nu goed nadenken over: wat zijn de kansen dan precies? En vertaal die kansen dan ook in toekomstig verdienvermogen. En niet: maak dit één grote subsidiepot en laat het weer wegstromen als de subsidie op is. Dan is het zonde van het geld.
LYKLE: Je weet nooit helemaal zeker wat ervan komt.
NANDA (LACHEND, NAAR FEMKE): Jij bent de innovatie-expert, maar als je goede innovatie hebt, heb je experimenteerruimte nodig heb ik altijd geleerd, en je hebt nodig dat het toekomstbestendig wordt gestabiliseerd. Wat is jouw mening hierover? Lukt dat met AI-initiatieven?
FEMKE: Ik hoor wel iets interessants bij jou over dat toekomstbestendig businessmodel. Daar gaat mijn brein meteen naartoe. Dat het misschien niet het traditionele businessmodel zou moeten zijn. Vooral in Europa dat we nu gesprekken voeren over de verantwoordelijkheid en Europese soevereiniteit, dan zie ik hopelijk een manier opkomen dat een businessmodel zou zijn dat je een ethisch model zou ontwikkelen. En dat dat is wat wij zo belangrijk vinden, dat we daar ook geld voor vrij zouden willen maken vanuit de overheid. Dat is iets wat Economische Zaken wel kan doen.
LYKLE: Ik heb m'n economie op de middelbare school laten vallen, maar ik herinner me dat ik toen leerde dat economie niet alleen maar guldens waren, maar ook allerlei andere dingen van waarde. Je benoemde het al: we willen waardig werk. Dat is een meer gevoelsmatig aspect, maar voor sommige mensen heel concreet en iets waar je ziek van wordt als je het niet hebt. Dus als jij het hebt over een ethisch model en jij over een businessmodel, dan hebben we het dus ook niet alleen over de euro's.
NANDA: Ik denk dat we ook in een andere tijd leven. Dan weer even 'oma vertelt'. Maar ik ben wel opgegroeid in een tijd waarin er hele hoge werkloosheid was en dat de beroepsbevolking... Je kon zo kiezen. Je kon zo je baan kwijtraken. Dat moest heel erg beschermd worden. En nu hebben we een arbeidspopulatie waar we heel zuinig op moeten zijn, want ze zijn niet met zoveel. Steeds minder. En we zien een heel hoogopgeleide beroepsbevolking in Nederland in vergelijking met andere landen. We hebben alle kansen om die mensen bij de juiste sectoren te helpen, Leven Lang Ontwikkelen-trajecten, om ze beter te laten worden in hun huidige werk, innovatiever te laten worden. En we zijn toch heel terughoudend, want we denken nog in dat systeem van: er is een hele hoge werkloosheid, baanzekerheid, weet ik veel wat. Terwijl jongeren, mijn dochter, die doet dat helemaal niet. Die heeft zoiets van: werk, hartstikke leuk, maar het moet een leuke werkgever zijn, ze moeten een beetje innovatief zijn, en als het saai wordt, toedeledokie, dan heb ik weer een nieuwe baan.
LYKLE: De nieuwe generatie stelt een hoop eisen, vindt de oudere generatie.
NANDA: Maar is dat erg? Ik vind dat ze hartstikke gelijk hebben. We moeten heel zuinig zijn op die beroepsbevolking. Dat is onderdeel van je ethisch businessmodel.
LYKLE: In antwoord op de poll zegt bijna 80 procent: Ja, het al dan niet gebruiken van generatieve AI is onderwerp van gesprek op mijn werk.
NANDA: 80 procent? Mooi.
LYKLE: 12 procent zegt 'Nee'. En 10 procent schat in: nog niet, maar komt eraan. Ik weet niet wat die gesprekken inhouden en hoeveel vrijheid daarin is. Misschien is het gesprek wel: Gaan we Cowork aanzetten of niet? Maar je mag hopen dat het een wat inhoudelijker gesprek wordt over: op welke manier is het dan voor ons waardevol?
NANDA: Omgekeerd. Iedereen die nu kijkt, luistert of in de toekomst hiernaar kijkt: stel die vraag meteen terug. Het is niet zo: 'zetten we Copilot aan?' of 'we zitten nu eenmaal in de Amerikaanse cloud. En het komt er allemaal bij. Gaan we het mogelijk wel of niet gebruiken?' Maar veel meer: willen we het gebruiken en waarvoor gaan we het gebruiken? En hoe gaan wij de beste service leveren? Hoe zijn wij de beste mensen, de beste afdeling, de beste organisatie die we zouden willen zijn? Wat is onze kerntaak? En wat is mijn rol als mens in die kerntaak? Ik zou echt aan iedereen die luistert willen vragen: denk na over waarom jij zit op die werkplek en wat je dan wil bijdragen. Jij had het over: Ik wil Nederland beter maken.
LYKLE: Ik ging hem ook meteen aan jou doorgeven. Want je vertelde ook: je hebt jezelf wat gematigd in je AI-gebruik, privé. Maar met alle ervaring die je al opgedaan hebt en wat we om ons heen horen en wat je weet van wat jouw werk inhoudt, wat zou je je kunnen voorstellen op hoe jouw werk effectiever, krachtiger wordt met dit soort gereedschap?
FEMKE: Ik zie daar wel een stukje regie dat je teruggeeft aan de werknemer. Dat je je zelf afvraagt: waar zou ik het zelf toepassen? En idealiter is dat dan niet op een manier dat het hele mensengroepen hun baan overneemt en volledig weghaalt, maar meer een samenwerking met zou zijn. Dat is ook hoe ik het zelf voor me zie. We hadden het zelf ook al een keer over de wasmachine of de vaatwasser. Daardoor kan ik weer andere dingen doen en heb ik meer tijd over voor m'n hobby's. Zo zie ik dat met AI in mijn werk ook een beetje. Als ik zelf AI gebruik voor wat meer tijdrovende taken die ik zelf niet zo leuk vind om uit te voeren, dan zou ik daar graag voor kiezen. Als AI ook andere dingen kan overnemen van mij die ik wel leuk vind om te doen, dan zou ik zelf de regie willen hebben om hem niet op die manier te gebruiken. Maar het is nu nog echt aan de werkgever om jou die ruimte te geven.
LYKLE: Ik kan me bij die laatste overweging voorstellen dat de werkgever dan denkt: Femke, leg maar uit. Waarom wil je het zo graag zelf doen als ik het sneller, goedkoper, makkelijker door een AI zou kunnen laten doen?
FEMKE: Dat is denk ik ook weer dat businessmodel. Misschien net een andere, maar daar sluit dat ook wel goed op aan. Eigenlijk dat je dus niet alleen maar denkt vanuit: wat is de meest kosteneffectieve manier om AI in te zetten? Hoe kunnen we ervoor zorgen dat het een bedrijf het meeste oplevert? Maar dat je hem juist iets meer omvormt naar: wat vinden mensen leuk om te doen? En is dat niet misschien op een gegeven moment belangrijker? En dat je dan dus kijkt: doe dan de taken die je niet leuk vindt met AI. En de taken die je wel leuk vindt moet je ruimte voor creëren, ook in een businessmodel, om een werknemer zelf die ruimte te geven.
LYKLE: Dus het zijn meerdere dingen uit het verleden die ons nu misschien in de weg zitten. Jij zei al: De arbeidsmarkt is heel anders. Dat zou werkgevers, en met name ook werknemers, zich goed tussen de oren moeten knopen als je dit gesprek hebt. Er is een andere situatie dan die waaruit je reflexen misschien geboren zijn. En het voorbeeld dat jij geeft is net zo. Als business alleen maar euro's is, dan zijn we snel klaar. Als het dat niet alleen is en als organisatie ook andere doelen nastreeft, de meeste organisaties hebben ook Sustainable Development Goals omarmd, dan hoor je andere gesprekken te hebben met je collega's, met je medewerkers. Ik ga de vraag meteen ook aan het publiek stellen, want ik heb voor hen ook nog een poll die hierbij aansluit. Denk jij dat generatieve AI je zou kunnen helpen in je werk? Op basis van wat je zelf ervaren hebt of wat je erover gehoord hebt, denk je dat het je kan helpen? Maar er is ook dat verschil tussen die ervaring die je hebt als consument en als werknemer?
NANDA: Mag ik nog wat daarover zeggen?
LYKLE: Graag.
NANDA: Wat je ziet is dat je als consument op een soort Marktplaats of Amazon zit te zoeken naar: wat is er beschikbaar? En als werknemer ben je toch afhankelijk van wat jouw bedrijf heeft gekozen om te gaan gebruiken. Dan ben je heel passief en moet je maar zien wat er op je afkomt. Eigenlijk vind ik dat je ook als consument heel passief wordt gemaakt. Bepaalde software is er beschikbaar, maar heel veel software is er niet. Dat realiseren we ons niet. Je ziet niet wat je niet weet.
LYKLE: Dat is een feit.
NANDA: En voor mij was het grootste inzicht: ik heb eigenlijk helemaal geen behoefte aan een taalmodel. Ik zou eigenlijk heel graag een robot willen die de luiers van de kinderen verschoond.
LYKLE: Daar kan ik me wat bij voorstellen.
NANDA: Maar dat is er niet. Dat bestaat niet. En zo is er nog veel meer software niet. Als jij praat over 'dit werk vind ik leuk en wil ik zelf doen, dit werk vind ik niet leuk en wil ik niet zelf doen'... Ik kom heel vaak tegen... Ik merkte het toen ik een artikel moest schrijven en daar moest ik weergeven wat er daarvoor al over geschreven was. Ik zocht me rot. Al die artikelen, printen, lezen, weet ik veel wat, samenvatten. En nu is daar software voor. Maar die software werkt klote, eerlijk gezegd. Het werkt gewoon slecht. Ik ben er helemaal niet tevreden over. Dan zeg ik: Dan ga ik het zelf maar doen. Dan neem ik weer een week van mijn tijd om dat zelf te gaan doen. Die software is dus nog niet goed genoeg. Dan krijg je dus dat de software, wat mij betreft, er dus niet is. Wij denken nu heel vaak in: dit is de beschikbare software. Uit al die opties kan ik dat gebruiken, dat gebruiken, dat gebruiken. En de rest gooi je aan de kant. Maar als je ziet hoeveel verschillende software nu op de markt wordt gepusht. We worden echt overstroomd met software waar we helemaal niks aan hebben. Een collega van mij, Jesse Weltevreden, had 30 apps waarmee je een PowerPoint-presentatie kon maken vanuit een tekst. 30! Ik vroeg hem: Wat is het businessmodel? Hij zei: Ja, dat vroeg ik me ook af. Want hoe ga je geld verdienen? Toen hebben we alle 30 apps getest. Geen enkele maakte een goede PowerPoint. Dan is het weer: wat ik goed vind, wat jij goed vindt of wat jij goed vindt is heel verschillend.
LYKLE: Het is ook in mijn herinnering... In mijn oren herinnert het me aan de periode waarin het maken van muziek ook gedemocratiseerd werd, omdat computers steeds krachtiger werden. We hebben er laatst weer een nieuwe versnelling in gezien. Dat er allerlei AI-gegenereerde muziek op Spotify gezet wordt en dat mensen bots programmeren om daarnaar te luisteren en geld te verdienen, maar daarvoor was er ook al een vergelijkbare ontwikkeling van: Zelfs als ik geen instrument heb leren spelen, kan ik nu met mijn computer iets maken. Een aantal mensen trok daar de neus voor op. En nu zijn een paar van die mensen wereldwijd beroemde muzikanten die fantastische muziek maken zonder een instrument te leren spelen. Het geldt trouwens ook voor de originele The Beatles die bijna geen muzikale opleiding hadden. Maar dat is je persoonlijke, menselijke creativiteit die misschien ook wel gevormd wordt door gebrekkig gereedschap.
NANDA: Maar ook vooral door een visie dat je ziet dat er ergens een gat in de markt is en dat je er geld mee kan verdienen of een toegevoegde waarde kan hebben. Laten we het niet alleen over geld en goede businessmodellen hebben, maar over waarde creëren. Jij ziet dat jij een menselijke waarde kunt creëren met het gebruik van tools. Heel veel tools zijn er nog niet. Dan kun je ze zelf maken. Maar waar we het nu vanuit de SER veel over hebben gehad, is dat het niet schaalt. Dat je ziet dat er een paar unicorns zijn, grote bedrijven, iedereen gebruikt het. Neem even Microsoft. Iedereen heeft dat. We gaan allemaal in de cloud. Waarom willen we in de cloud? Dat weten we niet meer, maar we moeten.
LYKLE: Dat kan niet anders, lijkt het.
NANDA: Maar waarom was de cloud belangrijk? Dat was precies een lobby die zei: 'Het is veiliger.' Het is niet veiliger. 'Het is handig, want je kan er overal bij.' Vaak niet als je ziet wat er allemaal moet gebeuren. Cybersecurity niet veilig. En ondertussen zit iedereen in de cloud. Daar zijn een aantal bedrijven heel groot van geworden. Maar heel veel dingen willen we niet in de cloud hebben en hoeft niet. Zo kunnen we dus nu opnieuw kijken: menselijke waarde creëren is soms heel klein, is soms juist afschermen, is soms juist kijken: hoe kunnen we nu een nieuw model bouwen? Dat vragen we aan onze eerstejaarsstudenten. Kun jij een internetconnectie bouwen zonder dat je in de cloud gaat? Kan dat?
LYKLE: Dat is een experiment?
NANDA: Een experiment. Ga maar bouwen. Engineering-studenten. Hartstikke leuk. Die gaan hartstikke goed aan de slag en het lukt ze bijna altijd.
LYKLE: Meer dan 80 procent van de mensen die antwoord heeft gegeven denkt: Ja, generatieve AI zou mij kunnen helpen in het werk. Er heeft niemand 'Nee' gezegd. Een paar mensen, 14 procent, hebben gezegd: Nog geen idee. Dat was de derde optie die ik ze gaf. Wat jij nu schetst is dat we voor een deel verleid en gestuurd worden door de grote bedrijven, de big tech, die het ook in hun eigen voordeel zien om ons in een bepaalde richting te duwen. Laat ik het even makkelijk uitleggen. En jij doet een pleidooi: we zouden er wat bewuster over na moeten denken. Maar kunnen we dat ook allemaal? Want we zijn niet allemaal digitaal even vaardig. Laat staan we dan toe kunnen komen aan AI. Is dat niet weer een digitale kloof?
NANDA: Dat is waar je als persoon... Wat kan ik zelf doen? Ik kan één keer stemmen en dan heb ik een nieuw kabinet gekozen, of ik kan één keer op m'n werk zeggen: Ik ben niet eens dat we in de cloud gaan. Dat heeft niet zoveel zin. Je zult dus echt met elkaar dat gesprek moeten gaan organiseren. En ga dan praten over waar jij expert in bent, waar jij goed in bent. Jij bent de expert op de job waar je aangenomen voor bent. Je hebt samen een team en een afdeling, en jullie hebben met elkaar een klus te klaren. Als je dat centraal stelt, en je gaat vanuit daar praten 'wat voor AI-ondersteuning, wat voor data hebben we hierbij nodig?', dan heb je een veel krachtiger gesprek dan wanneer je praat over: Ik vind. 'Ik vind' is een mening. 'Ik weet' is een feit, misschien. Vaak ook een mening. Maar als je met elkaar gaat zeggen: Wij willen dit werk voor iedereen interessant maken die hier werkt. Wij zijn met z'n twintigen, met z'n honderden, met z'n duizenden. Dan ga je met elkaar kijken: wat is er beschikbaar? Dan is de keuze die misschien als hele overheid wordt gemaakt om Microsoft-clouds te omarmen misschien niet de meest logische. Dan kun je met elkaar gaan praten over: wat zijn de alternatieven? Als je die alternatieven kan laten zien, zoals via de medezeggenschapsraad, dan kun je met elkaar naar een nieuwe situatie toe. En dat lukt sommigen wel. En ik zeg niet dat we allemaal van Microsoft af hoeven. Bij de hogeschool probeer ik dat wel, maar dat is me ook nog niet gelukt in vijf jaar. Dus het heeft wel lange termijn nodig. Maar het feit dat je weet dat er een alternatief is en dat je nadenkt over wat je precies wel nodig hebt en wat je niet nodig hebt, dat gaat schelen.
LYKLE: Dus: medewerkers, verenigt u. Probeer dat gesprek te starten. Zie je daarin nog een andere rol voor medewerkers van de overheid dan voor medewerkers in het bedrijfsleven? Of is dat dezelfde?
NANDA: Niet alleen medewerkers. Ik heb het ook over ondernemers. En ondernemer zijn doe je toch ook vanuit een bepaalde passie. Je wil wat goeds gaan doen, je wil een product neerzetten, het verkopen. Er zijn weinig ondernemers die alleen maar rijk willen worden. Dat zijn vaak de fraudeurs of andere mensen, maar ondernemers, daar heb ik wel een warm hart voor. Als je die meekrijgt om te zeggen: We kunnen innoveren. We worden een aantrekkelijke werkgever. Mensen willen hier gaan werken. Samen gaan wij een heel mooi product neerzetten waarin we echt een transitie maken naar een digitale toekomst. Dat helpt. Dus als je zegt 'waar wil ik graag werken?'... Bij de overheid kun je in een hele grote organisatie werken en toch je eigen initiatieven wel laten aanslaan. Dat vind ik zo fijn aan de overheid, die een fijne werkgever is. Als je dat in een bedrijf doet dat heel conservatief is, dan kom je denk ik niet zo ver. Dan zou je zeggen: Er is een probleem op de arbeidsmarkt. Kijk waar jij tot je recht komt, waar je het beste kunt zijn. Als overheidsmedewerker zit je best goed. Ik hoop het. En zorg dat jij wat in gang gaat zetten. En zoek daar de partners bij met wie je dingen echt kunt gaan doen, echt in de activiteit kunt komen.
LYKLE: Dat vooral. Naast dat het handig is om door te hebben dat er verschillende vormen van AI zijn, je kunt ze niet allemaal over één kam scheren, is jouw oproep en die van de SER: Ga vooral met elkaar in gesprek en ga dingen proberen.
NANDA: Ga het proberen en doe dat vanuit je eigen expertise. Jij bent de expert in het werk dat je aan het doen bent.
LYKLE: En kijk of je het gereedschap kunt gebruiken. Kijk of het zich laat ontwikkelen tot iets wat nog nuttiger kan zijn.
NANDA: Welk gereedschap heb je precies nodig? Wanneer is het meerwaarde? Hoe definieer je die meerwaarde? En dan kom je ook naar hele ongezegde dingen waar je nog nooit aan gedacht hebt. Bijvoorbeeld de luiers laten verschonen met een robot. Kijk in je eigen werk waar je nog nooit aan gedacht hebt, maar wat heel handig zou zijn als dat overgenomen kon worden.
FEMKE: Ik heb daar toch wel een vraag over. Jij noemde net al even kort een eventuele AI-kloof. Dat vind ik een heel interessant idee. AI is heel nieuw en het is de vraag hoe het zich in de toekomst gaat ontwikkelen. Maar ik zie zelf heel veel parallellen met de opkomst van digitalisering. Daar is ooit 'digitale kloof' als term aan toegewezen voor mensen die het moeilijk vinden om die verandering te adopteren. Zou dat ook nu bij AI een probleem kunnen vormen? Want ik hoor in jouw verhaal veel verantwoordelijkheid voor een werknemer om zelf in te schatten: ik wil het op deze manier gaan gebruiken. Maar wat als iemand daar weerstand tegen heeft of niet weet hoe die dat moet doen?
NANDA: Als je het niet weet, dan mag je van de werkgever verlangen dat je met elkaar dat gaat verkennen. Dat experiment, dat je daaraan mee mag doen. En dat het ook op jouw tempo gebeurt en met jouw behoeften. En dat kan met AI, want dat kan heel individueel ingesteld worden. Maar omgekeerd denk ik dat die AI-kloof wel kan plaatsvinden als we allemaal stil blijven zitten of als je niet flexibel naar je eigen werkomgeving kijkt. Er zijn heel veel mensen die hetzelfde willen blijven doen. Hartstikke goed. Maar dat betekent wel... Je had het net over 'dan gaan banen verdwijnen, dat moeten we niet willen.' Ik denk van wel.
LYKLE: De aanstekers van de gaslicht-straatverlichting is z'n baan ook kwijtgeraakt. De poepschepper ook. Daar zijn we niet per se slechter van geworden.
NANDA: De ondertitelaar is ook kwijt. Dat is wel iets. Ook mensen die reclamefilmpjes maken zijn hun baan kwijt. Juist in de creatieve sector is er nu een enorme push om AI in te zetten uit geldgraaierij, vind ik dat. Ik denk dat dat wel weer terugkomt en dat de mensen die nu hun baan kwijt zijn geraakt... Godzijdank: je kan eens nadenken over wat je echt leuk vindt. En als dat wel weer die creatieve sector is, dan vind je wel weer een nieuwe manier om je waarde te gaan creëren, hoop ik. Daar zouden we als overheid mee kunnen helpen.
LYKLE: Ik denk dat we 'm daarmee afronden. Dan zijn we aan het einde gekomen van dit webinar. Ik wil heel graag ICTU bedanken voor het gebruiken van hun studio. Ik wil Elvin en Martijn van KraatsAV bedanken voor 't bedienen van de techniek. Mijn collega's Marijke, Marie Louise, Roy en Damiët, heel erg bedankt voor het bewaken van de chat. Dit webinar is onderdeel van de Maand van de Digitale Fitheid. Die vieren we dit jaar voor de vijfde keer. En ik hoop dat we je hebben geïnspireerd om ook de rest van dit kalenderjaar, tot en met maart volgend jaar, voor jezelf zo nu en dan wat extra tijd te nemen om digitaal fit te blijven of fitter te worden naar wat je zelf belangrijk vindt. Heel veel dank aan mijn gasten voor vandaag: Nanda Piersma en Femke Voorwinden. Fijn dat jullie erbij waren en dat we jullie gedachten mochten delen. Jullie allemaal bedankt voor het kijken, voor de reacties en de vragen. En tot de volgende keer. Dag.
[Bedankt! Bezoek onze website om dit webinar later terug te kijken: it-academieoverheid.nl. RADIO, leren is netwerken.]