Hoe verder met ethiek en AI?

Wat voor maatschappij willen we? Dat is een vraag die we ons moeten stellen als het gaat over de implementatie van AI. We hebben veel zien langskomen, van wetgeving tot aan mogelijke toezichthouders, tot aan zelfregulering, codes of conduct - en een soort van ethische declarations die we als techneuten zelf kunnen ondertekenen - tot aan ook het betrekken van verschillende stakeholders om dit gezamenlijk op te pakken.

LEZING TJERK_6
 
(Intro met abstracte beelden met daaronder een korte begintune.)

(In beeld verschijnt de tekst: 
microlearnings
Ethiek)

(De heer Tjerk Timan staat voor de camera in een verder lege kantoorruimte en begint een monoloog.)

 (In beeld verschijnt de tekst:
Tjerk Timan
TNO, afdeling Strategy, Analysis & Policy)

TJERK TIMAN: Wat voor maatschappij willen we? Dat is een vraag die we ons moeten stellen als het gaat over de implementatie van AI. We hebben veel zien langskomen, van wetgeving tot aan mogelijke toezichthouders, tot aan zelfregulering, codes of conduct - en een soort van ethische declarations die we als techneuten zelf kunnen ondertekenen - tot aan ook het betrekken van verschillende
stakeholders om dit gezamenlijk op te pakken. De vraag is daarachter nog: Wat willen we precies gaan ontwikkelen? Waar liggen de kansen, waar liggen de risico's? Daarvoor zullen we niet alleen in abstractie moeten redeneren. We zullen ook veel moeten ophalen uit de praktijk. Waar wordt AI ingezet? Waar zien we dat het goed gaat? Wat zijn best practices? Hoe kunnen we van elkaar leren, et cetera. De vraag die we daarbij stellen, is: Hoe kun je zo'n goed experiment, als die wetgeving er eenmaal is en als we dat inclusief willen doen, hoe kunnen we dat nou inregelen?

(In beeld verschijnt een afbeelding met drie punten onder de titel: 
Hoe richt je het experiment in?)

Wat we zagen bij 'privacy by design' en ook in veel discussies rondom ethiek in AI, is dat de verantwoordelijkheid bij de ontwikkelaar gelegd wordt. Als de data scientist maar goed opgeleid wordt
in ethiek, komt het vanzelf goed. Echter, we weten dat het in de praktijk niet zo werkt. Als iets een leven heeft, en als AI in de wereld z'n ding gaat doen, of haar ding gaat doen, dan zien we dat er allerlei veranderingen gaan plaatsvinden. Er komt nieuwe data in, misschien vinden we nieuwe gebruiken, nieuwe toepassingen. Misschien zijn er externe of interne ontwikkelingen. We moeten gaan nadenken over hoe we op de lange termijn zo'n experiment kunnen inrichten. Naast de uitdaging om ethische normen in de technologie op een of andere manier in te bouwen of mee te nemen in een ontwerp, zijn er nog grotere uitdagingen, namelijk het meenemen van juridische en sociale normen in de  ontwikkeling van AI. We doen dat via wat wij ELSA noemen: 'Ethical, Legal and Social Analysis'. Oftewel: het meenemen van niet alleen de ethische normenkaders, maar ook de wettelijke kaders en de sociale normen - om te kijken of je via die manier toch nog inclusievere AI kunt ontwikkelen. We lopen in Nederland voorop, omdat we als een van de eerste landen zijn gestart met een hele serie ELSA-labs waarin we verschillende stakeholders, burgers, AI-ontwikkelaars, beleidsexperts, juristen,
meenemen in een experiment om te zorgen dat we al die waardes meenemen vanaf het begin van de AI-ontwikkeling...

(In beeld verschijnt een afbeelding met vijf punten onder de titel: 
Volgende stappen
Een methodiek in praktijk)

en ook op lange termijn proberen te kijken wat de impact is van zo'n AI-ontwikkeling op diezelfde groep stakeholders. 

(Outro met abstracte beelden en korte eindtune.)

(In beeld verschijnt de tekst:
microlearnings
Ethiek)

(Het laatste beeld bevat het logo van de Rijksoverheid met daaronder de tekst:
Deze microlearning is tot stand gekomen door een samenwerking tussen de Leer- en Ontwikkelcampus (LOC) van UBR, de directie CIO Rijk van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BKZ) en de Rijksacademie voor Digitalisering en Informatisering Overheid (RADIO))