In het webinar spreekt gastheer Lykle de Vries met Daniël Tijink, programmaleider Ethiek en Joris Krijger, techniekfilosoof. Daniël geeft een nadere toelichting op de Begeleidingsethiek, een aanpak waarmee je ethische kwesties van nieuwe technieken bespreekt. En dat doe je weer met de mensen die het raakt. Maar zijn we eigenlijk wel voorbereid op de grote maatschappelijke uitdagingen die dit met zich meebrengt? Vanuit deze invalshoek kijkt Joris met ons naar de ontwikkelingen rondom AI. Want levert het eigenlijk wel vooruitgang op? Bekijk ook de tips en linkjes uit het webinar

In het webinar spreekt gastheer Lykle de Vries met Daniël Tijink, programmaleider Ethiek, en Joris Krijger, techniekfilosoof. Daniël geeft een nadere toelichting op de Begeleidingsethiek, een aanpak waarmee je ethische kwesties van nieuwe technieken bespreekt. En dat doe je weer met de mensen die het raakt. Maar zijn we eigenlijk wel voorbereid op de grote maatschappelijke uitdagingen die dit met zich meebrengt? Vanuit deze invalshoek kijkt Joris met ons naar de ontwikkelingen rondom AI. Want levert het eigenlijk wel vooruitgang op?
[Logo Rijksoverheid. RADIO-Webinar: Ethisch kompas bij inzet Generatieve AI. 27 oktober 2025.]
LYKLE: Van harte welkom bij dit RADIO-webinar: Ethisch kompas bij de inzet van generatieve AI. Mijn naam is Lykle de Vries, en ik ben werkzaam bij RADIO, RijksAcademie voor Digitalisering en Informatisering Overheid. En ons doel is om alle collega's zonder IT-achtergrond een beetje digitaal fitter, vaardiger en kundiger te krijgen. We hopen dat ook dit webinar daar weer een beetje bij helpt. Ik doe dat natuurlijk niet alleen, want ik zit in dit webinar met mensen met verstand van zaken. In dit geval zijn dat Daniël Tijink, programmamanager Ethiek en Digitalisering bij het ECP, Platform voor de InformatieSamenleving, en auteur van 'De techniek staat voor iets'. Welkom, Daniël. Leuk dat je er bent.
DANIËL: Dankjewel.
LYKLE: En Joris Krijger, AI-ethicus en ook auteur. Jij hebt ook een prachtig boek: Onze kunstmatige toekomst. Jullie gaan met mij praten over ethiek, de inzet van generatieve AI en hoe dat handig kan. En jullie, beste kijkers, hopen er wat van op te steken, maar je bent ook van harte uitgenodigd om je vragen in de chat te stellen. Mijn collega's Femke, Damiët en Titus zitten daar klaar. Die zullen proberen om zoveel mogelijk van jullie vragen te beantwoorden, maar ze filteren ook de leukste en meest uitdagende vragen die ik dan hier in de studio nog aan Daniël en Joris kan stellen. Uiteraard kun je dit webinar ook op een later moment nog terugkijken., maar dan lukt het je niet meer om in de chat vragen te stellen. Maar dat is maar even voor de volledigheid. Wij zijn eigenlijk wel benieuwd waar jullie mee bezig zijn, lieve kijkers. Dus we hebben als eerste een vraag voor jullie. De eerste vraag is: heb jij al gebruikgemaakt van generatieve AI in jouw werk voor de overheid? Als het goed is krijg je die nu in de interactie te zien, en dan krijgen wij zo de resultaten van jullie antwoorden te zien. Want het is natuurlijk ondertussen al lang niet meer nieuw. Het wordt al lang gebruikt. Daardoor kunnen we er met ervaring over praten vandaag. Maar wat zegt ons publiek? Hij loopt natuurlijk anderhalve minuut en dan zien we de resultaten. Dus we hebben ruim de tijd om jullie antwoorden te verzamelen. Wanneer was jouw moment, Daniël, dat je voor het eerste generatieve AI gebruikte? Niet per se voor de overheid.
DANIËL: Ik denk bijna twee jaar geleden. Ik heb wel wat gebruikt, maar het was voor mij belangrijker dat ik gevraagd werd om bij anderen te kijken hoe zij het gebruikten. Dus de overheid vroeg mij hoe dat ging in andere sectoren. Dus niet bij zichzelf. Toen ben ik bij de media geweest, RTL bijvoorbeeld, of bij een school, en toen hebben we gekeken: hoe wordt het daar gebruikt?
LYKLE: Wel recent, hè?
DANIËL: Ja.
LYKLE: Nou... 70 procent van de mensen zegt: 'Ja hoor, dat heb ik al gedaan. Ik heb al generatieve AI gebruikt in mijn werk voor de overheid.' 23 procent zegt: 'Nee, dat mag ik niet.' En de laatste groep van 7 procent zegt: 'Nee, dat durf ik nog niet.' Allebei twee hele voorspelbare en voorstelbare sentimenten. Er komt meteen een tweede vraag achteraan, lieve kijkers. Zou je de vorige vraag eigenlijk wel eerlijk beantwoorden? Want ik heb genoeg mensen om me heen gehoord die de afgelopen jaren dachten: 'Ja, maar dat mag toch helemaal niet?' En als ze begrepen dat het wel mocht, maar onder voorwaarden, dat ze dachten: 'Ja, maar dat is allemaal zoveel werk, zo ingewikkeld. Dat kan ik niet overzien. Misschien dat ik het maar even niet aan de grote klok hang.' Ik zie nu de reacties lopen. De meerderheid van de mensen zegt: 'Ja hoor, ik zou hem eerlijk beantwoorden.' Ik had voor de zekerheid de optie 'Wat denk je zelf?' toegevoegd. Die wordt door 4 procent gebruikt. En 2 procent van de mensen is heel eerlijk dat ze de vorige vraag niet eerlijk zouden beantwoorden: Nee. (GELACH) Voor wat het waard is. Want dat is het hele punt met ethiek, Daniël. Het gaat over wat je belangrijk vindt, wat je normen en waarden zijn, maar dit is ook nieuw en hip en iedereen heeft het erover. Er worden allerlei vergezichten bij geschetst. Hoe doen we dat eigenlijk: ethisch goed handelen bij inzet van technologie in z'n algemeenheid? Kun je een voorbeeld geven?
DANIËL: We hebben voor dit webinar, misschien ook voor de drie als geheel, bedacht: 'We gaan gewoon beginnen met een case, zodat we daar gevoel voor krijgen.' Want de vraag die je stelde is enorm. Daar proberen wij wat over te zeggen in dit webinar. Maar het is ook goed om te beginnen met iets dat er gewoon is. Zelf ben ik de maker van een bepaalde methode: de Aanpak Begeleidingsethiek. Ik wil eigenlijk die twee tegelijkertijd met jullie behandelen. Als het goed is komt zo een sheet in beeld van die methode. Die begint eigenlijk heel erg in de praktijk. De grote vragen laten we even de grote vragen. Maar we gaan toe naar een case. De case die ik heb, daar hebben we echt een sessie mee gehad. De sessie over begeleidingsethiek duurt ongeveer een dagdeel. Dus een middag of een ochtend. We waren te gast bij de Nederlandse Arbeidsinspectie en die hadden een generieke AI-toepassing gemaakt voor het ongevallen-handboek. Zij, de professionals, de inspecteurs, gebruiken een ongevallen-handboek om te inspecteren wat er gebeurt bij een arbeidsongeval. Daarin staan dan adviezen, richtlijnen, wettelijke kaders. Tot nu toe was dat via een document. Dat kon je doorzoeken. Op het intranet stond dat ook. En nu hebben ze een demo gemaakt. Daar hebben we over gesproken. We merkten vanaf het begin: die is niet alleen te gebruiken voor ongevallen, maar ook voor allerlei andere dingen die ze daar doen, bijvoorbeeld: het beoordelen van inspectieformulieren of het schrijven van adviezen. Er is gekozen om deze case te maken omdat het helder en duidelijk was, maar ook als de meest veilige. Een relatief eenvoudige en veilige toepassing. Wat was er aan de hand? Er was een 'large language model', LLM, gebruikt, en daar was een toevoeging op gemaakt door de Nederlandse Arbeidsinspectie op basis van dat handboek. Die werd ook gepresenteerd, van: hoe werkt dat? Je kunt een vraag intypen en je krijgt een antwoord terug. Dus aan de hand van een prompt krijg je antwoorden in het Nederlands op basis van de kennis van dat handboek. Dat is waar we over gesproken hebben. Jullie zien nu een plaatje. Dat is de begeleidingsethiek. In principe is het altijd drie delen. We kijken naar de casus. Die heb ik net toegelicht. Daar kom ik zo nog op terug. Dan gaan we de dialoog aan met elkaar. En dan gaan we kijken: wat kunnen we doen? Wat zijn de handelingsopties? Nog even naar de case. Wat we hier zien, heel klein: er staat een technologie. Dat is die LLM, gemaakt met extra's vanuit het handboek door de NLA. En de context is de arbeidsinspectie en de mensen die ermee aan de slag moeten. Dus dat is dan voor nu helder. Normaal wordt dan toegelicht hoe het precies werkt. Dat laat ik nu even gaan. Tweede fase. Wie wordt er dan geraakt en wie is er betrokken? We hebben in de afgelopen jaren meer dan 100 van dit soort sessies gedaan en geleerd dat er vier groepen zijn. De groep die op de een of andere manier daar last van heeft of blij van wordt als eindgebruiker. Dat zijn misschien de geïnspecteerden hier, of de professionals, hier de inspecteurs. Dat kan ergens anders een politieman zijn of een verpleegster. Dat zijn de mensen die juist met die data bezig zijn. Hier heet dat Data Science Lab. Die heeft dat gemaakt in deze case. En alles rondom bestuur. De bestuurder, bijvoorbeeld de directeur-generaal, de hoogste bestuurder. Maar ook mensen die daaromheen in de staf zitten, over privacy en dat soort partijen. Dus die zitten allemaal aan tafel, zodat we allemaal verschillende beelden krijgen. De volgende stap is: effecten. De vraag is: wat maakt het uit? Wat is het effect dat je dat ongevallen-handboek nu via een LLM hebt? Welke effecten heeft dat? Het heeft verschillende effecten op verschillende personen. We stellen die vraag altijd dubbel in de zin van: wat zijn de positieve effecten, hoe helpt dat, en wat zijn de negatieve effecten? Ik noem er een paar om het beeld te schetsen. Positieve effecten werden benoemd als: het maakt het werk makkelijker. Een concrete vraag leidt direct tot een concreet antwoord. Je hoeft niet te scrollen, dingen uit te zoeken. Je krijgt een antwoord. Ook werd gezegd: 'Dit levert een hele goede samenwerking op. Ik kan mijn dingen als inspecteur doen en de generatieve AI pakt de dingen op waar generatieve AI goed in is.' En een laatste voorbeeld: Zo'n generatieve AI kan heel mooi laten zien hoe hij aan het antwoord komt. Welke wet er eigenlijk achter zit, enzovoort. Het leuke is dat dit antwoord ook op de negatieve lijst terechtkwam, want soms laat generatieve AI helemaal niet zien hoe hij dat doet en hallucineert hij een beetje. Dus dat is een negatief effect. Sowieso is de vraag: hoe goed is generatieve AI? Hoe betrouwbaar? Maakt hij de onderscheiden die we willen maken? En ook: hoe raakt dat de Arbeidsinspectie? Als je weet dat je misschien door een AI wordt beoordeeld, ga je er dan anders naar kijken? Vind je het dan nog een betrouwbare organisatie? Tot slot, nog een laatste voorbeeld: het gebrek aan eigenaarschap. Dus je bent inspecteur. Wie gaat er nou eigenlijk over? Jij of dat ding? Voel jij je nog wel verbonden met het oordeel dat eruit komt? Dat is dan de input uit die effecten. Dat zijn er veel meer nog. Daarna vragen we ons af: wat zijn de waarden die erachter zitten? Dan is dit een hele bewuste, heldere stap tussen die effecten. Eigenlijk achter elk effect zit wel een waarde. Bijvoorbeeld als mensen zeggen 'Ik voel me gevolgd', dan is privacy een waarde, of 'Dat is niet eerlijk', dan is de waarde rechtvaardigheid. In dit geval zijn er vijf hoofdwaardes naar boven gekomen, van de 18. Arbeidsvreugde werd genoemd. Kan ik m'n werk nog wel met lol doen? De kwaliteit van de handhaving. Doen we het nog wel goed? Efficiëntie. Scheelt het geld, gaat het sneller? Vakmanschap. In hoeverre kunnen we dat vasthouden, ook als er niet meer geleerd wordt of anders geleerd wordt? En betrouwbaarheid. In hoeverre is dat model betrouwbaar, en in hoeverre zijn wij daarmee, als Arbeidsinspectie, betrouwbaar? Dan heb je dat. Dan gaan we naar de volgende fase. We hebben 'dialoog' gehad.
LYKLE: Je vat het kort samen, maar dit zullen heel uitgebreide sessie zijn, omdat je ook afhankelijk van de context heel veel verschillende mensen daarbij aan tafel wilt hebben.
DANIËL: Het is echt belangrijk dat je goede, verschillende mensen krijgt. Er zijn allemaal trucs die we doen, maar onder andere dat iedereen de tijd krijgt om zijn ding te vertellen, dat iedereen gehoord wordt. Niet alleen zeggen, maar ook luisteren. Dat is ook belangrijk. Dat zal ik straks nog toelichten. Het is belangrijk dat je juist als manager ook hoort: wat is er bij de Inspectie of wat is er bij de geïnspecteerde? En daar komen altijd verrassingen uit. Ook dingen die je verwacht, maar ook altijd verrassingen. Dat is heel waardevol. In mijn hele simpele definitie van ethiek, is ethiek 'het goede doen'. In deze fase hebben we het goede voor elkaar. We weten welke waarden we in dit geval belangrijk vinden. Hoe gaan we dat nou doen? Daar hebben we een driedeling gemaakt. Je hebt ethische ruimte bij de technologie. Je kunt dat LLM op een bepaalde manier maken. Je kunt hem anders maken. Je kunt hem meer maken naar de waarden die wij belangrijk vinden. En je maakt afspraken. Ik heb het de omgeving van de technologie genoemd. Je maakt afspraken met elkaar dat je zegt: Hoe gaan we dat dan doen met elkaar? Dat kun je ook op een goede manier doen, volgens die waarden. Tot slot kun je nog als individu het wel of niet goed doen. Dan kun je denken aan opleiding en training, maar ook aan goed gedrag, bewustzijn. Je kunt de boel vernachelen, maar je kunt iets ook netjes behandelen. Dus op die drie terreinen zijn er handelingsopties. En ook die zijn genoemd.
LYKLE: En is de groep in dialoog ook betrokken bij de handelingsopties?
DANIËL: Ja, we splitsen dan de groep. We hebben een groep van 15 tot 20 mensen normaal gesproken. We splitsen dan per onderwerp, dus per technologie. Als ik hem even pak. In de technologie is bijvoorbeeld gezegd: 'Integreer ook voice. Dat is handig. Dan kan ik ook praten in plaats van dat ik steeds moet lezen.' Maar ook: doe een test onder inspecteurs. De helft gebruikt het wel, de ander gebruikt het niet: de A/B-test. En hoe werkt-ie dan en wat maakt dat goed? En eigenlijk ook: pak het uitgangspunt dat het een assistent is en niet de inspecteur zelf. Dat het een hulp is en niet iets anders. Dat kwam bijvoorbeeld uit die technologiegroep. En die omgevingsgroep zei: 'Mensen zijn anders, dus mensen zullen ook anders prompten.' Hoe gaan we daarmee om? Is dat juist de bedoeling of niet? En hoe gaat die AI zich daar dan weer op aanpassen, of niet? En zorg ook dat je checkt op echte efficiëntie. Niet 'is die vraag sneller beantwoord?', maar 'wat doet het met het hele systeem?' En ook werd nog gezegd: Zorg ook dat je heel goed een feedbacksysteem maakt. Wat doet het nou met inspecteurs? Maakt het mensen gelukkig? Welke wel en welke niet? Hoe gaat dat en wat doet dat met het werk? Dat zijn bijvoorbeeld dingen die uit die tweede groep kwamen. Nog even naar de derde. Dan is ook de basisvraag: wat maakt wie nou blij? Wat is nou de behoefte van de gebruiker of verschillende soorten gebruikers? Ook werd gezegd: Als je het doet, maak het onderdeel van opleidingstrajecten. Zorg dat het vanzelfsprekend erbij hoort. En ook nog wel een aardige: Als je dat echt wil doen, zorg dan ook dat je ambassadeurs hebt, want geen enkele technologie gaat vanzelf, niet alle mensen zijn even snel. Dus als je het netjes doet, zorg dan dat die ambassadeurs snappen waar het om gaat, weten waar we naartoe willen en laat die helpen om het project een succes te maken. En tot slot: de menselijke maat. Altijd. Laat de mens uiteindelijk oordelen over wat er gebeurt. Dat is heel snel. Overal heb ik iets uit geplukt. Er is veel meer gezegd in al die groepen. Maar zo loopt zo'n Aanpak Begeleidingsethiek-sessie.
LYKLE: Precies. Dat is een korte samenvatting. In de digitale goodiebag die jullie als kijkers ook krijgen zit een linkje naar het hele verslag van deze workshop waar alle details ook in staan. Maar in de basis is het: Niet hard in je eentje vooruitrennen, maar pauzeren en bedenken: Wie zijn hierbij betrokken? En met die mensen een open gesprek aangaan.
DANIËL: Grotendeels helemaal eens. Ik mag er straks nog iets meer overkoepelend over zeggen, maar het is deels wel weer een manier om dat wel wat sneller te doen dan we gewend zijn. Dus als je zegt: 'We maken een pas op de plaats.' Uitstekend. Maar sommige passen op de plaats zijn voor mij zo lang geworden dat je de plaats verloren bent. Ik zoek een betere metafoor, maar in ieder geval: dit is niet een heel juridisch traject dat je doorgaat. Dus het is wel een pas op de plaats, maar met elkaar en relatief vlot, en dat kun je dus nog een keer doen, en nog een keer, zonder heel veel gedoe.
LYKLE: Iemand die zegt: 'We hebben hier geen tijd voor, want de ander gaat zo snel', daar kun je zeggen: 'Dit is in de tijd best een compacte manier om toch veel beter alle aspecten die aan de orde horen te komen een podium te geven.'
DANIËL: En als laatste: ik heb ook wel een keer teruggekregen van iemand: 'Dit scheelt ons acht overleggen, want nu zitten we met z'n allen bij elkaar en in één keer is dat heel snel gedaan.' Dus dat tijdsargument is hier eigenlijk...
LYKLE: Tijd, en dan hoor ik ook geld en de kosten die het allemaal heeft. (GELACH) Fijn, dank. We komen straks nog in wat meer detail terug op dat model. Joris, ik ga bijna naar jou toe, maar eigenlijk wil ik dan eerst het publiek een stelling laten beantwoorden. De eerste stelling die ik voor jullie heb, is: verantwoorde AI is voldoende geborgd in mijn organisatie. Ben je het daarmee eens, oneens of kies je voor de derde optie? Ik was niet zo lang geleden bij de Tweede Kamer over AI en het gebruik daarvan. En de griffier zei: 'Vorig jaar, 2024, won Nederland op Europees niveau de prijs voor het beste beleid op het gebied van AI. Maar we bungelen achteraan in de daadwerkelijke toepassing.' Dat is misschien een voorbeeld van die pas op de plaats die uit de hand loopt. Dat je alles probeert door te denken voordat je de volgende stap zet.
DANIËL: Dat denk ik ook. Je kijkt naar mij, dus ik beantwoord hem. (GELACH) Ik denk dat we inderdaad heel vroeg begonnen zijn en heel goed. We hebben ook daaraan mogen bijdragen, gekeken naar een praktische wijsheid. Maar inderdaad, soms zet het een rem op dingen terwijl dat ook weer niet nodig is en dat dat zonde is.
LYKLE: De antwoorden zijn binnen. Er is een groep van 8 procent die zegt: 'Ja, het is bij ons wel geborgd.' Maar de andere twee groepen, die 'Nee' en 'Weet ik niet' zeggen, die zijn samen toch wel significant groot. Joris, is dit wat jouw betreft een accurate weergave voor de stand van zaken in besturend en ondernemend Nederland?
JORIS: Dat durf ik niet te zeggen, maar het is niet raar. Ik kom dat vaker tegen. En het is ook helemaal niet gek. Wat je ziet in de onderzoeken naar verantwoorde AI en hoe breng je dat nou in de praktijk, we hebben het hier over ethiek en GenAI, is dat er heel veel hoog-over frameworks zijn en uitgangspunten voor principes, maar in elk onderzoek zie je dat die heel lastig hun weg vinden naar daadwerkelijk de organisatiepraktijk. En dat is iets wat mij intrigeerde, waar mijn onderzoek en boek over gaat: hoe zorgen we nou dat we van die kloof af komen tussen de principes waarin we allemaal uitspreken het goede te willen doen naar daadwerkelijk ook die systemen op een verantwoorde manier gebruiken. Deze bevindingen zitten helemaal in de lijn waar we nu op zitten. Er is wel een soort bewustzijn, maar als je vraagt: 'Heb je het goed geregeld in je organisatie?', dan zeggen mensen: 'Dat denk ik toch niet.' Dat zie je hier ook terug.
LYKLE: En is dat dan omdat ze het ook nog niet geregeld hebben of omdat het binnen de organisatie nog niet genoeg bekend is?
JORIS: Mijn lezing daarvan, en daar kunnen we de slide ook voor op het scherm zetten, is dat we heel vaak naar die technologie kijken, en dat als we daarnaar kijken ofwel nadenken over het stukje techniek en ontwerp waar Daniël het over had. Ik zie dat de slides een beetje achterblijven.
LYKLE: Ik doe het zelf verkeerd, maar ik wou hier zijn. Dankjewel.
JORIS: Ja, perfect. Dat we ofwel naar de techniek kijken, ofwel kijken naar de context en de waarden die we mee willen geven. Dan hebben we een mooi beleidskader of een manifest. Maar wat we eigenlijk vergeten in die stappen is de organisatie daaromheen. Ik werk nu zes jaar voor ASN Bank. Ik doe zes jaar onderzoek bij organisaties: hoe gaan ze om met verantwoorde AI? Ik heb gemerkt dat die organisatie een cruciale link is tussen de waarden die je met elkaar ambieert en de manier waarop je die technologie inzet. Zo'n ontwerpsessie als begeleidingsethiek is hartstikke belangrijk om te hebben, maar wat je wilt, is dat het goede gesprek structureel gevoerd wordt en dat iedereen die daar iets in te zeggen heeft of iets in te doen heeft ook betrokken is en een stem heeft. En dat organiseren, daar zijn we vaak nog niet. Dus we hebben het bewustzijn van: die technologie komt eraan. Aan het begin zeiden mensen ook: 'Ik gebruik het wel' of 'Ik vind het toch te spannend'. Dat gevoel hebben we allemaal wel. Maar om dat op organisatieniveau vorm te geven, daar moeten we nog een stap voor zetten.
LYKLE: Als je dat hebt onderzocht, heb je ook ideeën over hoe dat beter kan.
JORIS: Absoluut. En waar wij op uit zijn gekomen, dat is de volgende slide. Fingers crossed dat hij gewoon normaal op het scherm komt.
LYKLE: Ik laat het aan de techniek.
JORIS: Wat wij gezegd hebben, is als je kijkt naar organisaties die dit goed doen, dat hebben we 'ethische volwassenheid' rond AI genoemd, dan zie je dat ze dingen hebben ingeregeld. Dit is helemaal vanuit organisatieperspectief bedacht, dus het gaat niet over: heb je privacy als waarde wel meegenomen, of fairness of bias? Dit gaat over: welke bouwstenen heb je in je organisatie om te zorgen dat je op structurele manier over die ethiek van AI nadenkt. Dan kom je bij thema's als awareness en culture. Wordt er ruimte voor gemaakt in je organisatie of is het heel gefragmenteerd? Zijn er een paar mensen die hier iets van weten, maar die weten niet van elkaar dat ze hiermee bezig zijn? Het management geeft er geen ruimte voor, enzovoort. Dan heb je het over beleid en kaders. Heb je goede uitgangspunten, goede waarden geformuleerd? Dan heb je het over governance. Dus heb je toetsmomenten bijvoorbeeld? Daar kan begeleidingsethiek een van zijn. Heb je een goed toetsmoment om te kijken: hoe gaan we hiermee verder? Dan heb je het stuk communicatie en training. Communiceren we intern dat we ook de maatschappelijke aspecten van deze technologie belangrijk vinden? Leiden we niet alleen de mensen in de uitvoering goed op, maar ook bijvoorbeeld de managers of het bestuur? Zodat ze weten: Als we met deze technologie aan de slag gaan, komen er dilemma's op ons bord waar we iets van moeten gaan vinden. Dan heb je het stukje ontwikkel- en inkoopprocessen. Hoe zorg je ervoor dat zo'n ethische reflectie niet een soort ad hoc, eenmalige toets is, helemaal aan het einde, voordat je iets gaat inkopen of iets gaat gebruiken, maar dat in het hele proces de hele levenscyclus van zo'n model je de vraag blijft stellen: Past dit bij onze waarden? En de laatste is instrumenten of tooling. Daar kan begeleidingsethiek ook een onderdeel van zijn. Heb je methodieken, Mensenrechten Impact Assessment, een bias-toets, om dit ook bespreekbaar te maken en op tafel te krijgen? Misschien nog een laatste puntje. Wat ik heel vaak zie bij organisaties is dat ze op een aantal dimensies goede stappen aan het zetten zijn, maar dat ook een aantal dimensies nog blinde vlekken zijn. Het verhaal is: je moet het holistisch aanpakken. Dus wil je volwassen worden, moet je op alle zes dimensies stappen zetten.
LYKLE: Ik hoor je van alles noemen wat op het niveau van de overheid al wat langer voorhanden is. We hebben allerlei soorten assessments op het gebied van privacy en dergelijke al langer. Toen de AI-tools zich aandienden, waren er vrij vlot assessments op dat vlak. Maar dat zijn meer de losse onderdelen en in de praktijk voelt het misschien nog wel te vaak als: 'Laten we dan deze keer begeleidingsethiek doen.' Als een soort extra in plaats van dat het meer fundamenteel onderdeel is van het handelen dat je zegt: 'Over dit nieuwe idee moeten we met mensen een goed gesprek voeren.'
JORIS: Exact. Proportionaliteit is daarin heel belangrijk. Ik denk dat elke organisatie herkent dat er nu allerlei AI-toepassingen verschijnen. Ook bestaande producten en services die ze gebruiken waar ineens Copilot in zit als je met Microsoft werkt. Dus om te zorgen dat je voor de juiste toepassingen de juiste afwegingen maakt, moet je zorgen dat die ethiek structureel is ingebed en niet: 'Laten we nu eens een mensenrechtentoets doen.' Maar zorgen dat naast die toetsen je een goed proces hebt, goed beleid hebt. Dus dat je alles in samenhang benadert in plaats van losse onderdeeltjes waar je wat op doet.
LYKLE: Hoe weet een organisatie of ze dat al een beetje kunnen? Hoe kan een organisatie een medewerker vertellen hoe goed ze er al in zijn?
JORIS: Je kunt dit toetsen. Dit is onderdeel van een volwassenheidsmodel. Dus je kunt kijken: waar staan we? Van niveau 1, volledig gefragmenteerd, niks aanwezig, tot 5, volledig geïntegreerd en business as usual. Dan kun je op die manier niet alleen toetsen waar je staat, maar ook bepalen: waar zouden we moeten zijn volgend jaar? Het is ook een soort strategisch middel om te kijken: waar moeten we op inzetten eigenaarschap aan gaan toekennen, enzovoort.
LYKLE: Wordt dat volwassenheidsmodel al toegepast? Zie je dat al gebruikt worden?
JORIS: We hebben vorig jaar een mooie pilot gedaan met elf onderwijsinstellingen. Met SURF samen was dat. Met mbo's, hbo's en wo's. En onderwijs is een interessante sector, want die worden op allerlei manieren geraakt door kunstmatige intelligentie. Studenten die hun thesissen en essays ermee schrijven, maar ook docenten die het willen inzetten voor lesvoorbereiding. Daar hebben we gekeken: is dit model geschikt om onderwijsinstellingen inzicht te geven in waar ze staan? En waar staan ze daadwerkelijk? Daar kwam uit dat het heel goed helpt bij het verbinden van mensen intern en het schetsen van de prioriteiten die de organisatie zou moeten hebben. En ook dat onderwijsinstellingen nog niet heel ver zijn in die volwassenheid, wat niet gek is gegeven de complexiteit van het onderwerp. Daar komt heel duidelijk uit: werk aan de winkel.
LYKLE: Daniël, herken jij dit in de praktijk? Zijn er 'clubs' waar je langskomt waarvan je merkt: hier gaat het makkelijker en zijn ze veel meer eraan gewend.
DANIËL: Jazeker, dat herken ik wel. Soms doen we een eenmalige actie, een sessie. Soms doen we dingen op overheidsniveau, maar ook op organisatieniveau. Dan merk ik dat we een aantal partijen hebben die zeggen: 'Die begeleidingsethiek omarmen wij. Dat willen wij wel doen.' Twee ziekenhuizen hebben dat gedaan en een provincie. Dan merk je: voor de een is dat makkelijker, want die hebben al op orde dat ze weten waar misschien iets aan de hand is. Dan gaan we ook die stapjes maken. Stukje awareness. Zo valt het makkelijker. Bij een ander is dat meer: 'Leuk, gaan we doen.' Even enthousiasme en dan valt het weer weg. Dat is best een struggle waar we ook nog echt van elkaar kunnen leren. Wij komen heel dichtbij in zo'n organisatie, maar het is niet zo dat je daarmee direct een organisatieoverkoepelend beeld hebt.
LYKLE: En zo'n volwassenheidsmodel bestaat op allerlei vlakken. Is er voor dit volwassenheidsmodel een specifieke naam?
JORIS: Het AI Ethics Maturity Model heet het. Of het AI-ethiek volwassenheidsmodel. Ik stel voor dat we hem in de goodiebag doen voor degenen bij dit webinar. (GELACH)
LYKLE: Prima. Ik ben wel toe aan de derde vraag voor de deelnemers. Dat is een open vraag. Die mogen jullie in de chat beantwoorden. Hij komt zo op het scherm. Als je dit nu hoort en je kijkt naar de praktijk die je in je eigen organisatie op dit vlak al hebt gezien, wat zijn dan volgens jou belangrijke ethische acties bij de introductie of het toepassen van AI en andere digitale nieuwe toepassingen? Welke ethische actie vind je belangrijk bij digitale of AI-toepassingen? Probeer het antwoord in de chat te geven. Dan gaan mijn collega's die als een haas bij elkaar vegen en kijken wat ze daarin opvalt. Ik was nog wel even aan het kauwen op ethische actie.
DANIËL: We hebben het gehad over ethische waarde of ethische actie. Toen heb ik gezegd 'ethische actie', omdat ethische waarde noemen is niet zo heel moeilijk. Dat is ook een van de redenen waarom begeleidingsethiek ontstaan is. We willen niet alleen maar een waarde hebben en 'zet hem op met die waarde'. De stap naar actie is heel belangrijk. Het gaat over het doen. En het moet waardegedreven doen zijn. Dat is belangrijk. Daarom heb ik net ook allerlei handelingsopties, in principe betekent dat 'ethische acties', benoemd die in zo'n geval naar voren zijn gekomen. Dus ik ben heel benieuwd hoe dat in andere organisaties is en of mensen die slag kunnen maken tussen 'ik vind het heel belangrijk dat...' Rechtvaardigheid, noem maar op. Maar dit betekent dus wat we gaan doen.
LYKLE: Het toetsen van grondrechten wordt genoemd. Zoals het verbod op discriminatie. Iets toetsen is een actie, maar in de context van de casus die jij noemde aan het begin, is toetsen aan de grondwet een actie zoals jij hem bedoelt?
DANIËL: Nee, eigenlijk niet. Eigenlijk is het een fantastische opening voor mijn verhaal. Wat ik net al zei... De Aanpak Begeleidingsethiek bestaat nu een jaar of zes, zeven, en is begonnen omdat verschillende partijen zeiden: 'Er is echt wel wat aan de hand met die ethiek en die technologie, dus we moeten daar wat mee.' Ook techbedrijven, overheden, enzovoort. Die hebben gezegd: 'Kunnen we daar nog iets meer mee doen? Nu lijkt het een beetje een stopzetmachine, of we komen er niet goed uit. Laten we daar samen over nadenken.' Toen hebben we Peter-Paul Verbeek, hoogleraar Techniekfilosofie, erbij gehaald. Daar komt de term begeleidingsethiek vandaan. Hij zegt: 'Het is geen poortwachtersethiek, maar hoe begeleiden we die technologie?' Daar zit weer het idee achter: mens en techniek, samenleving en techniek, altijd samenwerken. Dus niet: de mens gaat over de techniek of we worden platgeslagen door de techniek. Er zit iets tussen. Ik zeg altijd: We dansen samen of we worstelen samen. Het hangt ervan af hoe het gaat, maar in principe doe je dat niet met een ander. Wat er vaak was, waren veel waardenkaders. Eigenlijk is 'grondrechten' ook een waardenkader. Meer juridisch, maar toch. En steeds duidelijker werd dat het maken van een kader relatief makkelijk is. Er is ook echt onderzoek naar gedaan of dat werkt. Het werkt niet. Het geeft wel een fijn gevoel. En er is een heel specifieke groep die dat kader maakt. Dat zijn experts en mensen die boven in organisaties werken, of juristen. Dat is allemaal prachtig voor een deel. Het recht van de mens is niemand tegen. Maar vertaal die maar eens naar zo'n case. Dat is heel ingewikkeld. Dat is al een punt. En dat is bijna niet te doen, want ze zijn generiek. Dat kan haast niet anders. Wij hebben gedacht: Die route is er, maar er is ook een andere route: bottom-up. Dus je begint met een case met mensen die daar iets van weten en iets bij voelen. Dat zijn niet mensen die ergens veraf grote rechten hebben bedacht. Nee, die voelen en merken daar direct iets van. En we hebben ook geleerd: die groep weet eigenlijk verdomd veel. Dus het is heel vervelend als jij werkt en je bent met een project bezig en die mensen hebben ook ethische waarden. Bijna elk vakman heeft dat. Dat er dan van bovenaf iets opkomt waar jij in één keer aan moet denken. Daar denk je al aan en waarschijnlijk ook aan andere dingen die daar niet in staan, maar wel belangrijk zijn. Anders krijg je op je kop of vind je het zelf niet goed. Dat is eigenlijk een beetje arrogant zou je kunnen zeggen. Het werkt soms wel, maar het is ook een beetje... Dus als je die nou de stem geeft en dat op een nette manier doet, kom je eigenlijk veel verder. Mensen samen hun issues brengen. Ik heb meer dan 100 van dit soort sessies gezien. En als je ziet welke waarden daar benoemd worden, dan scheelt het heel weinig van die officiële waarden. Dus dat heb je nauwelijks nodig. Je kunt nog een keer checken, maar dat hoeft niet eens. Dan zit er direct veel meer power in. En zij zijn de mensen die het wel kunnen vertalen naar iets concreets. Daarom is het ook interessant, want die mensen komen soms met hele simpele, waar je nooit op zou komen. Als voorbeeld: als er iets in de zorg is waarvan mensen zeggen: Kun je daar een aan- en uitknop op zetten, want ik wil hem ook uit kunnen zetten? Dat is niet moeilijk, maar wel een enorm ethisch ding dat je oplost. Dat ding geeft autonomie. Soms is het ook wel moeilijk, maar het gaat erom... Daar zit heel veel energie die we gemist hebben en naar boven proberen te krijgen.
LYKLE: Ik zie in de reacties ook... Er wordt gezegd: Check of er geen auteursrechten worden geschonden. Het bepalen van de verantwoordelijkheid. In het beleid opnemen om altijd uit te leggen hoe je het toepast, of je het gebruikt hebt en in welke vorm. Maar dat zijn allemaal reacties die toch een beetje tegen die bovenkant aan hangen. Meer beleidsmatig. Dus de uitdaging en uitnodiging is om het heel concreet te maken naar bij wijze van spreken het niveau van knopjes of handelingen.
DANIËL: Precies. Probeer het maar naar je eigen werk te vertalen. Van wie wil je dat hij tegen jou zegt met welke waarden je meer rekening moet houden? Dat is moeilijk. Terwijl als je samen nadenkt, dan kom je op concrete... Ik heb ze ook genoemd in de case. Daar komen dingen naar voren. Soms wat abstracter, maar ook heel concreet. En dat is de dynamiek die je zoekt, want volgens mij is elke technologie, ook AI, een worsteling met ons. Wij moeten samen bepalen: hoe gaan we daarmee om? En dat doe je dus ook op het moment dat het gebeurt. En dan het liefst met een groep, samen en verstandig, en je gaat dat delen. Misschien goed om even te zeggen van begeleidingsethiek: Het is een methode, maar het is ook een soort platform. Dus we delen alle resultaten en verslagen van sessies. We proberen echt te delen en dat we daar samen slimmer van worden. We proberen ook samen te leren, dus mensen kunnen zelf die begeleidingsethiek gaan doen na een opleiding. En dan samen proberen we ook te kijken: hoe kunnen we dit beter doen? Hoe werkt dat?
LYKLE: Dat is dan ook een manier om het meer in de cultuur van de organisatie te krijgen. Je laat getrainde mensen achter die het zelf kunnen, dus die hoeven jou niet de volgende keer weer te bellen.
DANIËL: Precies. Het kan zich verspreiden. We hebben zelfs nog geleerd... Er hebben 300 mensen dat al gedaan. We hebben een soort basistraining. Een deel wil graag moderator worden, maar een deel heeft een andere functie in die organisatie. Die moet zorgen dat die sessies ontstaan of die moet coördineren dat ze op de goede plek terechtkomen. Dus dat hebben wij als onderdeel gemaakt van die opleiding. En wat we ook doen, dat past ook heel goed bij het verhaal van Joris, is dat we soms samenwerken met anderen. En als mooiste voorbeeld... Ik zit bij de ICTU. We werken ook samen met de IBDS, de Interbestuurlijke Datastrategie, en die wilde ook een wat minder statische vorm van ethiek. Toen zijn ze bij ons uitgekomen. Dus hebben we iets gemaakt, de Datadialoog in jargon, met een paar hele belangrijke elementen uit de begeleidingsethiek. Ook nog iets aan toegevoegd over een waardenkader van de WAR. Maar het is een heel mooi product geworden in hun taal dat precies past bij wat zij doen, namelijk over data praten. Hetzelfde hebben we met kwantum. Kwantumtechnologie is een heel ander veld. Die hebben een EQTA gemaakt, een technology assessment voor kwantum. Daar in het hart zit die begeleidingsethiek. Dus dan ga je in gesprek en ga je kijken of je samen iets kan doen wat past bij die organisatie of sector.
LYKLE: Misschien kunnen we er nog een bij pakken. Sandra zegt: 'Door bij de basis te beginnen. Maak duidelijk welke GenAI-tools medewerkers mogen gebruiken en hoe. Dus spelregels met focus op de kwaliteit van de output, en die kan je beoordelen, en niet op de euro's in relatie tot de taakstelling.' Ik snap dit, ik vind het allemaal best heel logisch, maar kwalificeert het nou als ethische actie? Welke handeling zou hier wat jou betreft uit voortvloeien?
DANIËL: Daarom... Ik zou beginnen omgekeerd. Heel aardig wat Sandra zegt. Ze bedoelt de tooling. En dan lijkt het alsof iemand zegt welke tooling. Bijvoorbeeld twee, drie weken geleden, hadden we een sessie met AZ, de communicatieafdeling. Die wilde een tool gaan gebruiken. Gewoon een schrijfhulp. Simpel. Dan heb je een verhaal. Voor hen zitten daar allerlei haken en ogen aan voor hun eigen baan, maar ook voor de communicatie voor de hele overheid. Wat kunnen we dan doen, wat niet, wat helpt het ons? Dan krijg je dat gesprek. En dan krijg je direct daarna... Eén anekdote daarover nog is leuk. Ze had dus ook een naam, Iris. Ten eerste: waarom weer een vrouwennaam? Dat was al de vraag. Eigenlijk hebben we toen bedacht: Het moet gewoon schrijfhulp heten. Eventueel AI-schrijfhulp. Maar dat is het dan ook. Dat is een van de kleinste oplossingen, maar dat is een concreet ding. Blijkbaar wil je het niet een leuke vrouwennaam of mannennaam noemen. Nee, je moet het noemen wat het is. Heel minimaal.
LYKLE: Voor dat gesprek was dat een belangrijke uitkomst.
DANIËL: Er waren er nog veel meer. Dus dat is... Dan wordt het echt precies.
LYKLE: Dankjewel. We hebben nog een stelling voor jullie. De tweede stelling. Die kun je ongetwijfeld wel beantwoorden op basis van wat je net allemaal gehoord hebt. Onze inzet van AI, dus in de organisatie waar jij werkt, sluit aan bij de bredere toekomstvisie en koers van de organisatie waar ik werk. Ja, nee of weet ik niet zijn weer de opties. Dit is op papier snel bij elkaar geveegd. Op enig moment denkt een directie: 'Dit onderwerp is zo belangrijk. We moeten er in onze visie iets over zeggen, of we moeten er een visie aan wijden, of het moet een plek in onze missie krijgen.' Maar dan is het weer boven in de boom. Dit gaat natuurlijk ook letterlijk over: hoe wordt het daadwerkelijk in de organisatie ingezet? Welke mogelijkheden zijn er wel en niet? En de antwoorden geven dat wel een beetje weer. 31 procent zegt 'Ja'. Ik vind dat al best een hoog percentage voor zoiets wat nog zo jong is. Maar een derde zegt ook 'Nee, dat is nog zeker niet aan de hand.' En misschien nog wel veel erger, 35 procent zegt: 'Dat weet ik eigenlijk niet.' Dit gaat weer over wat jij ook zei. De communicatie en het in de organisatie rond laten gaan van het gesprek over nieuwe technologie en onderwerpen die daarbij horen.
JORIS: Klopt, dat gaat over visie. Ik had het over ethische volwassenheid. Dat is: hoe regel je het in? Maar daar zit de discussie onder van: waar willen we met deze technologie naartoe? Wat voor skills hebben onze werknemers nodig om over vijf jaar relevant werk te blijven doen? Hoe zien onze werkzaamheden eruit over vijf jaar, gegeven wat die technologie nu al kan? Ik merk dat dat bij veel organisaties ontbreekt. Dat het toch is van: dit is er en het kan me helpen met een mailtje. Maar als je vervolgens vraagt: 'Wie profiteert daar dan van?' 'Eigenlijk geen idee.' We gaan steeds meer taken uitbesteden aan dit soort systemen. Dat klinkt natuurlijk goed. Maar zonder de keuzes, en dat stipte Daniël ook aan, zonder die keuzes weloverwogen te maken. Ik denk dat je naast zo'n ethische infrastructuur waar ik het over had, dus hoe richt je je organisatie in, welke mechanismen heb je, ook een plan moet hebben van: waar gaan we naartoe? Wat betekenen die publieke waarden in het AI-tijdperk en hoe zorgen we dat we daar op een goede manier invulling aan blijven geven? Omdat je anders steeds van hype naar hype rent. Nu kan het weer dit, dan komt er agentic AI en dan kan dat ineens ook. Als daar geen doordachte visie achter zit, dan is de ethiek ook heel lastig, want dan regeert de waan van de dag.
LYKLE: En beluister ik dan bij jullie allebei een soort van omkering dat je in die benadering misschien beter kunt vertrekken vanuit 'wat doen we, wat maken we, wat leveren we, wat is onze dagelijkse praktijk en hoe kan een nieuwe technologie daarin verschil maken?' Versus: wat is onze verantwoordelijkheid als organisatie, welke aansprakelijkheid hebben we en welke Sustainable Development Goals streven we na? Of is het een van allebei?
DANIËL: Nee, dat klopt. Verantwoordelijkheid vind ik ook al... De echte verantwoordelijkheid is de mensen die het doen. In die zin ligt die ook daar. En verder helemaal eens. Ik noem het zelf weleens praktische wijsheid. Dat is een term van Aristoteles. Die heeft ook gezegd... Verschillende soorten kennis zette hij op een rij. Er is maar een die echt met wijsheid en moreel te maken heeft: de praktijk. Filosofie, zei hij, en wetenschap is allemaal prachtig, maar dat is meer kennis. En dit is wijsheid. Ik probeer hier dus praktische wijsheid te maken die naar boven doorborrelt of naar boven stijgt. Natuurlijk wil je zo nu en dan een algemene regel maken of het in je strategie opnemen, maar wel met die link naar boven dus. Echt voor praktische wijsheid.
JORIS: Misschien om nog aan te vullen. We hebben het heel vaak over AI en heel vaak voelt dat als iets abstracts, als een soort natuurkracht die over ons heen komt van: het is ineens overal. Maar wat ik vooral uit mijn onderzoek heb gehaald, is dat 90 procent van hoe AI ons leven gaat beïnvloeden is via de organisaties die het gaan inzetten. Via je verzekeraar die het gaat gebruiken, je lokale gemeente, de overheid. De keuzes die daar gemaakt worden bepalen uiteindelijk de rol die AI speelt in onze samenleving. Daarom hamer ik ook zo op dat organisatiestuk. Ik denk dat we daar heel veel kunnen winnen. Daar ethiek een plek geven betekent dat we veel meer grip houden op de keuzes die we maken met deze technologie.
LYKLE Daarin is ook dit webinar, en het publiek van dit webinar aanspreken op niet hun burgerschap, maar juist op hun rol in een overheidsorganisatie die dat gaat doen, of van plan is te gaan doen of daar openheid over moet geven.
JORIS: De boodschap is ook dat je geen datascience gestudeerd hoeft te hebben om deze thema's op de agenda te zetten. Dit is iets wat het werk van iedereen gaat beïnvloeden. Als je kijkt naar de prognoses rond automatisering en de rol van AI in organisaties, dan gaat iedereen hiermee te maken krijgen in een vorm. Ofwel omdat het een deel van jouw taken gaat doen, ofwel omdat je veel meer gaat samenwerken met AI-systemen. Dus het is heel zinvol om nu al na te denken over: wat vind ik daarvan, hoe zorg ik dat mijn werk betekenisvol blijft? En dat je dat op organisatieniveau goed bespreekt met elkaar.
LYKLE: Heb je de indruk dat organisaties door beginnen te krijgen of doorhebben?
JORIS: Steeds meer, ja. En daar ben ik ook heel blij om. Je merkt op een gegeven moment: met die waardenkaders loop je tegen een muur aan. Maar ook als je zegt: We hebben deze impact assessments, maar we gaan niet op de 20 toepassingen die deze maand weer live staan... Dat houden we niet bij. Dus je merkt dat dat praktisch een enorm vraagstuk is. En daarin merk je echt van een ontwikkeling dat organisaties doorkrijgen: 'We moeten dit groter aanpakken en we willen ons ook echt focussen op die ethische infrastructuur.'
LYKLE: En wat doen ze dan? Wat doen organisaties dan als ze dat belangrijk gaan vinden?
JORIS: Stap 1 is organiseren. Breng de mensen bij elkaar voor wie dit relevant is. Soms zie je dat de privacy officers of de FG's dit onderwerp op hun bord hebben gekregen, en die lopen ermee te lurven van: wat moeten we hiermee? Maar dit raakt alle aspecten van de organisatie, dus breng die bij elkaar. Zorg dat je met elkaar ook een plan maakt voor: hoe gaan we hiermee om? En vanuit daar kun je ook de mechanismen gaan bedenken van: hoe zorgen we dat de keuzes die we maken aan blijven sluiten. bij waar wij voor staan als organisatie? Dat is een beetje... Als je het hebt over het goede gesprek: ik ben iets meer van een soort realisme van machtsverhoudingen. Wie heeft er een stem? Wie mag er daadwerkelijk beslissen? En ik denk dat je daar heel goed moet kijken: wie laten we nou meebeslissen bij de inzet van deze technologie? Is dat uiteindelijk altijd dezelfde bestuurder of zijn we dat met z'n allen? En hoe zien die mechanismes eruit om uiteindelijk die keuzes te maken?
LYKLE: Daar moet een organisatie een soort van zelfbewustzijn en zelfreflectie ontwikkelen van: heb je alleen maar ja-zeggers om de leidinggevende heen of is er echt een dialoog?
DANIËL: Ik kan nog een voorbeeld geven. Ik zit zelf in de ethische commissie van de gemeente Eindhoven. Daar komen nog een paar gemeentes bij, zoals Den Bosch en Helmond. Maar waar het om gaat: daar hebben ze een ethische commissie gemaakt waarbij we proberen op proces te sturen. Niet van 'wij weten het wel', maar 'hoe zorg je dat het in die organisatie werkt?' Iemand die verantwoordelijk is voor de ethiek bij de gemeente die dat ook zo doet. Dus er is een ethisch team gevormd de afgelopen jaren van mensen die daar iets mee wilden, op allerlei afdelingen. Dus er zitten nu zelfs twee teams van 15 tot 20 mensen die ergens in die organisatie zitten en zeggen: 'Ik wil wel meepraten over de ethische kant van de zaak.' Dat is een heel mooi voorbeeld. Dat kan vast nog anders. Maar een mooi voorbeeld waarin dat heel goed gelukt is. Aan de ene kant heb je iets... De commissie is om ervoor te zorgen dat je op het niveau van de gemeenteraad of het gemeentebestuur zo nu en dan wat kan zeggen, maar hier heb je ook... Eigenlijk wil je dat alleen maar, dat er ethische teams zijn bijvoorbeeld die dus met elkaar hierover in gesprek gaan.
LYKLE: En wat een organisatie op dat vlak te doen heeft en doet, is dat uniek voor iedere organisatie of zitten daar heel veel overeenkomsten tussen organisaties?
JORIS: Hele goede vraag. Ik denk dat er best veel gemeenschappelijke delers zijn. De dimensies die we net op het scherm lieten zien, zijn dingen die allemaal in organisaties aanwezig zijn. Alleen denk ik dat je wel, om het goed aan te laten sluiten op je eigen organisatie, waarden, je team, dat die vertaalslag naar een concrete context belangrijk is. Er zit een stuk aan dat uniek is. Maar ik denk dat de gemeenschappelijke deler, van: hoe ga je dat fundament om die ethiek in je organisatie te krijgen aanleggen, dat dat voor veel organisaties gelijk is.
LYKLE: In de voorbereiding op dit webinar is het ook ter sprake gekomen. Er hebben zich her en der allerlei gemeenschapjes, platforms en community's gevormd,en daar zijn eigenlijk heel veel van de voorbeeldtoepassingen, van de dingen die goed gelukt zijn voortgekomen daar waar mensen elkaar opzochten. Dat is zich nu aan het verzamelen in het Platform AI & Overheid. Dus, kijkers, Platform AI & Overheid is een plek waar je je eigen ervaringen kwijt kunt, maar vooral ook: je kunt laven aan de ervaringen van anderen. Want daar zit die overlap. Daar kun je je voordeel doen met die overlap.
JORIS: Ja, en wat wij hebben gemerkt, want we doen dat volwassenheidsmeten met publieke instellingen, private instellingen... En wat je merkt is, omdat die uitdagingen best veel op elkaar lijken, een bank heeft 'n fraudedetectiesysteem, maar een sociale verzekeringsbank ook, dat je ook veel kennis kunt uitwisselen. Sommige partijen zijn wat verder op risicomanagement en governance, maar de overheid is veel beter in inkoopvoorwaarden en de kaders. En daar kun je elkaar op vinden, ook als overheid en niet-overheid. Ik denk dat daar nog heel veel kennisdeling te doen is.
DANIËL: Misschien nog ter aanvulling. Dus Platform AI & Overheid is interessant. Dat komt nu goed op. Maar we hebben ook een 'community of practice' op ethiek en digitalisering. Daar ben ik ook bij betrokken. Daar proberen we alle ethici in overheid Nederland bij elkaar te trekken. Niet alleen ethici, maar mensen die daarmee bezig zijn. Daar focussen we deels op instrumenten, deels op 'hoe doe je dat in je organisatie?' Dat gaan we zeker nog eens vragen aan Joris. Maar ook op moresprudentie, heb ik het maar genoemd. Wat leren we nou echt? Wat hebben we nou gedaan? Dus probeer van alle organisaties te kijken: jullie hebben een ethisch traject doorlopen. Wat heb je daarvan geleerd en wil je dat bij ons in de bibliotheek zetten? Dus dat zijn dingen die nu...
LYKLE: En dat is algemeen dan alleen maar de ethische verantwoorde toepassing van AI-technologie. Dat gaat eigenlijk over ethisch verantwoord handelen of het ethisch verantwoord introduceren van nieuwe technologie.
DANIËL: Ja, daar gaat het om.
LYKLE: Mooi. Dan zijn we al een heel eind gekomen met een soort van overzicht. We hebben het al gehad over 'wat heeft een organisatie te doen?', Joris. Op welke manier moeten we dit met z'n allen verder richting geven. Wat kunnen we daaraan doen?
JORIS: Dat gesprek is enorm belangrijk. Maar wat mij op dit moment het meeste zorgen baart, is het kennisniveau over de technologie zelf. We hebben in dit webinar ook niet uitgebreid stilgestaan bij: hoe zit die technologie nou in elkaar? Maar het is heel belangrijk dat we zien: wat kan het daadwerkelijk wel en wat niet? En welke nieuwe problemen gaat het bij ons introduceren? Dat zijn de drie vragen die je moet stellen als je hiermee aan de slag gaat. Wat lost het op? Er zijn vaak hele goede oplossingen. Wat lost het niet op? Welke problemen blijven er welke nieuwe problemen krijg je? Vanuit dat perspectief moet je gaan kijken naar die technologie. Ik denk dat als we ons daar veel bewuster van zijn, dan kun je wat beter de lijn uittekenen van: wat gaat dit betekenen voor mijn functie, voor mijn organisatie? Maar belangrijker: wat gaat dit betekenen voor de wereld waarin ik mijn werk doe? Want AI is niet alleen binnen de overheid aan het opkomen, maar op allerlei plekken. Burgers gebruiken het ook. Die hebben ook verwachtingen van hoe de overheid opereert en hoe snel alles werkt. Dat zie je sowieso met digitalisering. Ik denk dat die vraag en dat basisbegrip heel belangrijk zijn om over na te denken.
LYKLE: Heb je een voorbeeld van een nieuw probleem dat erbij komt door het gebruik van generatieve AI-tools?
JORIS: Zeker. Wat je krijgt, is dat we zeker met agents… Agents zijn taalmodellen die ook dingen kunnen doen. Waar je voorheen vroeg: 'kun je voor mij een reis plannen naar Stockholm?', kreeg je van ChatGPT een mooi reisprogramma. Een agent boekt ook de tickets, reserveert je hotel, reserveert het restaurant en geeft je dieetwensen door. Dus die kunnen daadwerkelijk dingen doen. Wat je merkt is dat we steeds meer taken gaan delegeren aan dit soort systemen, maar dat de verantwoordelijkheid voor die taakuitvoering steeds diffuser wordt. Dus je merkt dat het steeds lastiger is om te zeggen: Er gaat hier iets fout. De verkeerde dieetwensen doorgegeven. Ik noem maar wat. Maar wie is daar nou verantwoordelijk voor? Die agent heeft van alles zelf berekend. Jij hebt alleen maar een instructie gegeven. Jij weet niet precies hoe dat systeem werkt. Dit is nog betrekkelijk onschuldig, maar als het gaat over de zorg of een uitkering... Als er in dat soort processen iets misgaat en de verantwoordelijkheidsmechanismen werken niet, dan is dat een enorme knauw in het vertrouwen voor de betreffende instelling. Ik denk dat we daar heel scherp op moeten zijn.
LYKLE: Dat is een goed voorbeeld.
DANIËL: Heel mooi voorbeeld. Jij noemt verantwoordelijkheid. Dat is natuurlijk belangrijk. Maar eigenlijk is nog belangrijker, soms: hoe los je dat snel op? Het gevaar bij verantwoordelijkheid is dat je er een enorm juridisch systeem omheen gaat bouwen door te zorgen: wie is er precies verantwoordelijk? Misschien verstandig. Maar aan de andere kant is het soms: lukt het om heel snel te zorgen dat je dat oplost? Heel oud voorbeeld, maar wel leuk. Dat was de creditcard. Een 'onveilige' technologie, want raak je hem kwijt, gaat een ander ermee shoppen. Maar er zat een polis achter waardoor je gecompenseerd werd. Dan is het niet zo erg meer. Dat soort spanningen... Dus hier ga je spelen met wat techniek kan en doet, wie precies verantwoordelijk is en hoe je die oplossingen gaat zien. Dat is volgens mij in deze fase heel belangrijk.
LYKLE: Je benoemde aan het begin van het webinar de casus van...
DANIËL: De Arbeidsinspectie.
LYKLE: Dankjewel. Ik raak altijd in de war van de afkortingen. Er zit een letter in die ik niet kan plaatsen. Maar iemand die zich aansluit bij jullie op het platform krijgt dus ook toegang tot de lessen uit al die andere sessies?
DANIËL: Gekker nog: we doen het zonder toegangscode. Als je naar de website begeleidingsethiek.nl gaat, dan klik je aan 'Verslagen' en staan ze allemaal op je te wachten. Dus dat is het idee. En we hopen dan ook... Niet alles, want sommige organisaties durven dat niet. Maar soms hebben ze daar een hele goede reden voor. We hebben bijvoorbeeld een sessie gedaan rondom de gevangenis in Vught, het zwaarste gevang in Nederland. Ik snap dat je die niet op de site zet. Soms vind ik overheden een beetje bangelijk, maar wij gaan er helemaal voor om het wel openbaar te doen en we krijgen de meesten mee. Dus er staan zeker 70, 80, 90 op.
LYKLE: Leuk. Ik zit ondertussen te scannen, want het wordt al bijna tijd om te checken of de kijkers nog afrondende vragen hebben. Sandra vraagt: wie zou het gesprek over technologie moeten voeren in een organisatie? Ik vermoed dat ik jullie antwoord wel weet, maar ik hoor het graag jullie zelf zeggen.
DANIËL: Zeg maar, wat is het antwoord?
JORIS: Iedereen. Dat is een beetje flauw, want iedereen is dan eigenlijk niemand. Maar het is belangrijk dat mensen doorhebben dat iedereen dit op de agenda kan zetten, omdat je in een vorm met AI gaat werken. We hebben vaak zoiets van: GenAI is iets nieuws, iets technisch. Maar als je het zou vervangen voor het internet. Wie moet het gesprek daarover in een organisatie voeren? Daar hebben we allemaal iets van te vinden, allemaal mee te maken. Dat straalt af op iedereen die in die organisatie zit. Dat is voor AI niet anders. Ik zou je op dezelfde manier inspannen om te zorgen dat, als het niet al gevoerd wordt, dat je het op de agenda zet.
DANIËL: Helemaal eens. Daarom vanuit begeleidingsethiek die vier groepen ook. En in m'n boek heb ik ook gezegd: Eigenlijk zou je aan een touwtje moeten kunnen trekken, of je nou patiënt bent, of een arts, of een manager, van: 'Wacht even. Nu begin ik me ongemakkelijk te voelen. Nu is er iets aan de hand.' Ook juist techniekmensen, want heel vaak komt ethiek ineens op hun bordje. Dan moeten zij maar iets doen en een keuze maken. Dus dat die aan een touwtje kan trekken: Nu doen we 'n begeleidingsethiek-sessie. Want het is wel zo: je kunt niet in je eentje dat doen. Iedereen kan het gesprek aangaan, maar het is wel fijn als dat gesprek binnen je organisatie goed georganiseerd wordt, zodat je er niet alleen voor staat, maar je dat echt gaat doen.
LYKLE: Dat is waar een organisatie zich op kan inrichten. Dat dat beter gefaciliteerd wordt dan het misschien nu is. Latisha vraagt ook nog: Kun je het ethisch volwassenheidsmodel ook breder dan AI inzetten? Is er een digitale ethiek in het algemeen?
JORIS: Ik zeg dat weleens vaker, maar ik voel me soms het paard van Troje, want ik kom dan binnen voor ethiek en AI, maar je hebt het al gauw over de praktijk waarin dat AI-systeem wordt ingezet en welke keuzes daarin gemaakt zijn. En dan gaat het over de strategie waar die werkpraktijk onderdeel van is. Dus je kunt hem absoluut breder trekken.
LYKLE: Eigenlijk moet het wel vanzelf over meer dingen dan alleen AI gaan. Je kunt het niet in het luchtledige bespreken.
JORIS: Als je het goed doet wel, ja. Meestal de waarborg- of handelingsopties die eruit komen gaan ook over meer dan alleen deze data wel, deze niet, dit model wel, dit niet, maar ook: hoe instrueren we onze medewerkers? Wat doen we met eventuele escalaties rond zo'n model? Dus je moet het over meer hebben en je kunt het zeker breder inzetten.
LYKLE: De makkelijke 'ja, maar' die dan komt is: Ja, maar wanneer dan? Daar hebben we toch helemaal geen tijd voor?
JORIS (INSTEMMEND): Ja...
LYKLE: Jij gaf net al aan dat zo'n sessie begeleidingsethiek niet echt even stilstaan en pauzeren is. Het is een hele effectieve manier om met weinig tijd veel kwalitatief resultaat te verzamelen.
DANIËL: Vanaf het begin hebben we daarop gestuurd. Dit moeten we proberen in een dagdeel. En dat is hard werken, maar mensen vinden het ook leuk. Dat was ook nog een doel eigenlijk. Dat is heel goed gelukt. Ethiek is vaak (ZUCHT) moeilijk, zwaar, maar hier is het gewoon: je bent fijn met elkaar bezig en je bent echt iets aan het doen. En het is dus klein gehouden. Dat betekent: je kunt het vaker doen. En de vraag wanneer, ik hoor hem heel vaak: moet ik het aan het begin van het proces doen, of? We hebben alles gedaan, dus het kan op alle momenten. Het is goed om over na te denken. Als je aan het begin zit, heb je iets meer fantasie van het scenario. Zou dit soort toepassing het worden en daarom daar toepassen? En verderop heb je meer ervaring. Dan weet je: dit is het ding, daar zijn we al mee bezig en we merken zus of zo. Dat is allebei heel interessant.
LYKLE: Misschien dat je het in een proces ook meer dan eens zou kunnen doen om goed het stuur in handen te houden.
DANIËL: Ja, want het verandert natuurlijk. Het is dynamisch. Daarom is het misschien ook goed om nog even te benoemen: Het is zo'n dynamische wereld. Ik vergeet het vaak omdat het zo gewoon is. Heel veel beleid of wetgeving kan met die dynamiek heel weinig, omdat het te snel gaat. Dan heb je net iets afgerond, anderhalf jaar keurig mee bezig geweest, en drie updates verder is het product niet meer hetzelfde en moet je opnieuw beginnen. Je zoekt iets waar je om kunt gaan met de enorme dynamiek die de technologie geeft en die de mensen weer teruggeven. Dus dat is ook belangrijk.
LYKLE: Nou horen we als mensen al best wel lang dat we een leven lang moeten leren. Het is niet meer zo dat je een vak leert en dat je dat dan tot je pensioen ongewijzigd kunt blijven toepassen. Dit is toch ook de nieuwe realiteit voor organisaties? Dat eigenlijk juist ook dankzij digitalisering je van het ene op het andere jaar niet alles helemaal hetzelfde doet. Dit zou toch eigenlijk een continu proces moeten zijn?
DANIËL: Ja, dat is het ook.
JORIS: Zeker. En volgens mij had je eerst digitale vaardigheden, en dan moesten mensen leren om een e-mail te maken en internet te gebruiken. AI wordt... Het voelt misschien nog niet zo, omdat het nog nieuw is en onwennig, maar het wordt de volgende systeemtechnologie. Het wordt de volgende onmisbare vorm van technologie die een grote rol speelt in ons leven. Dus net als dat je digitale vaardigheden aangeleerd krijgt, ga je ook AI op die manier je eigen maken.
DANIËL: Ik heb ooit een programma 'Digitale vaardigheden in de zorg' opgezet. Dat bestaat nog steeds. Daar heb je meerdere categorieën: de klassieke vaardigheden van leren typen tot aan innovatieachtige vaardigheden van: wat betekent dit nou voor mijn plek, mijn organisatie, mijn afdeling? Voor mij horen die vaardigheden er ook bij. Snap ik hoe het werkt, weet ik wat de gevaren zijn, de voordelen, maar ook: wat doet dit met ons? Dat is een vaardigheid die bij AI nog belangrijker is dan in de vorige generatie. Als je nou als medewerker van een overheid dit webinar bijwoont en je hebt misschien in het begin 'nee' geantwoord op de vraag: heb je het al toegepast? 'Nee, want ik durf het niet.' Kan het advies dan zijn, op basis van wat we hier gezegd hebben: Eigenlijk zou iedereen dit gesprek moeten kunnen beginnen in z'n organisatie. Als-ie daar onzeker over is, pakt-ie de begeleidingsethiek als aanpak erbij. 'Kijk maar, dit wordt al langer gedaan. Ik ben niet de enige die dit vindt, maar dit is een betrouwbare manier van werken. En als we dit fijn vinden, kunnen we zelfs met een volwassenheidsmodel een soort koers uitzetten om de komende jaren hierin te groeien.' Zou dat een hele korte samenvatting van dit uur zijn?
JORIS: Ik zou zeggen 'moeten' in plaats van 'kunnen'.
LYKLE: Want het is onvermijdelijk. Als jij zegt: het is een systeemtechnologie, dit gaat niet meer weg, dan heeft een organisatie geen tijd meer om de boot af te houden.
JORIS: Ik zou het onverstandig vinden. Je wilt als overheid vertrouwen uitstralen, je wilt dat burgers je kunnen vertrouwen. Dan is deze technologie, die nu al zo'n groot onderdeel van onze samenleving is, essentieel en essentieel om het goed te doen.
LYKLE: Ik zie in de comments ook AI-geletterdheid nog ter sprake komen. De Rijksoverheid heeft daar in ieder geval nu al iets over afgesproken. We moeten AI-geletterd raken of worden. Alleen er staat niet precies bij wat dat dan is. Op basis van jullie eigen ervaring, hoe zou je het invullen als je het mocht zeggen voor een organisatie?
JORIS: Dit is een verplichting vanuit de AI Act. Dus ik hoop dat sinds augustus vorig jaar de meeste mensen al AI-geletterd zijn. Sinds februari dit jaar moet ik zeggen.
LYKLE: Maar is het dan een cursus over: hoe werkt een large language model, of wat is een algoritme, of is het iets anders?
JORIS: Het is een basisbegrip van: hoe zit die technologie in elkaar. Maar wat je ziet, en dat is wat AP ook heeft aangegeven over AI-geletterdheid, is dat je ook moet kijken naar: hoe raakt AI aan mijn werk en hoe kan ik me kritisch verhouden tot die technologie? Het is niet alleen een basisbegrip van 'zo zit het in elkaar', maar, ik werk met fraudezaken, dan weet ik dat het systeem deze fouten kan maken, dat ik op deze manier kritisch moet reflecteren op dat systeem. Dus ook een soort gespecialiseerd begrip van die technologie in jouw context.
LYKLE: Moeten we ook meer ethiek-geletterd raken?
DANIËL: Goede vraag. Ik vind dat altijd dubieus, laat ik het zo zeggen. Met dit soort vormen, die wij dan gemaakt hebben met begeleidingsethiek, krijg je eigenlijk die AI-geletterdheid op een specifieke case. Ik ben huiverig om te zeggen dat... Ik vind mensen eigenlijk al heel ethisch, laat ik het zo zeggen. Niet van: we moeten mensen leren om te weten welke waarden belangrijk zijn. Daar kun je wel iets aan doen, maar ik heb heel veel vertrouwen in wat er is en wat we als organisaties hebben. Dus we moeten leren die stap naar praktische ethiek te maken. En dat is niet altijd hetzelfde als ethisch leren denken. Ik heb allemaal mensen gezien aan tafel die geen ethische opleiding hebben, maar die waanzinnig ethische uitspraken deden. Ik zou dat vertrouwen meer teruggeven en meer daarop varen. Dat zou ik het belangrijkste vinden.
LYKLE: Kom ik nog even terug op jouw casus. Iemand wil nog graag weten: welke GenAI werd er dan gebruikt? Weet je dat nog? Of staat dat in het verslag?
DANIËL (PEINZEND): Het zal in het verslag staan. Ik weet het niet zeker.
LYKLE: De link naar het verslag van de workshop zit straks in de digitale goodiebag. Daar kun je dat hopelijk in terugvinden. Weer een interessante vraag: welk systeem gebruik je dan? Waar staat het? Staat het in Nederland of binnen een EU-gebaseerde GPT-engine? Het bewustzijn en de bewustwording op het gebied van 'Dit is niet zomaar gereedschap, maar het is gereedschap dat getraind is op een bepaalde manier, wat bepaalde culturele implicaties heeft, privacy-implicaties', is dus klaarblijkelijk wel aan het groeien. Daniël en Joris, ik moet naar de klok kijken en besluiten dat het voor vandaag voldoende is geweest. Ik wil jullie heel erg bedanken voor alles wat jullie met ons gedeeld hebben. Er komen nog twee webinars aan in deze reeks. Op 13 november van het jaar 2025, zeg ik erbij, want dit wordt opgenomen en ik weet niet wanneer je het terugkijkt, is er het webinar over werken met generatieve AI als collega. Dat kwam eigenlijk al een beetje ter sprake. En wat voor collega is het dan? En op 27 november 2025 gaan we heel specifiek praten over concrete successen. We hebben het genoemd: De reis naar resultaat met generatieve AI. Daar ga je horen hoe bijvoorbeeld Sammie en de OmgevingsChat uiteindelijk werkelijkheid zijn geworden en wat daar de succesfactoren in waren. Ik wil heel graag ICTU bedanken voor het mogen gebruiken van deze mooie studio. Ik wil Joost en Chiel heel graag bedanken voor het faciliteren van alle techniek. Mijn collega's Femke, Titus en Damiët voor het bewaken van de chat. En natuurlijk heel veel dank aan jullie, Daniël Tijink en Joris Krijger om hier vandaag te zijn. Wil je meer weten, of de ervaringen van vandaag nog eens zelf doornemen? Er zijn plekken waar je heen kan gaan. Een aantal hebben we al genoemd. Er is de website over bewegings… Bewegingsethiek ging ik zeggen. Dat bestaat vast ook. (GELACH)Begeleidingsethiek.nl. Er is platformaioverheid.nl waar je veel collega's kunt vinden die al dingen gedaan hebben op dit vlak en waar je je hopelijk aan op kunt trekken, maar mensen die ook heel benieuwd zijn naar wat je zelf ervaren hebt. Daarmee zijn we aan het eind van dit webinar. Voor nu heel erg bedankt voor het kijken en voor alle vragen en reacties. We hopen dat jullie er wijzer van zijn geworden. Veel succes met het uitproberen en inzetten van generatieve AI. Tot de volgende keer. Bedankt.
[Bedankt! Bezoek onze website om dit webinar later terug te kijken: it-academieoverheid.nl. RADIO. Leren is netwerken.]