Hoe kunnen we AI en ethiek in de praktijk brengen?

Hoe kunnen we AI en ethiek in de praktijk brengen? Dit is een van de grote uitdagingen om de stap te maken van mooie ethische discussies en kaders naar de praktijk van AI-ontwikkelingen. Eén manier waarop we dat doen, is via normenkaders. We hebben gezien in de afgelopen tijd dat zowel private als publieke partijen ontzettend veel normenkaders hebben gepubliceerd.

LEZING TJERK_5
 
(Intro met abstracte beelden met daaronder een korte begintune.)

(In beeld verschijnt de tekst: 
microlearnings
Ethiek)

(De heer Tjerk Timan staat voor de camera in een verder lege kantoorruimte en begint een monoloog.)

 (In beeld verschijnt de tekst:
Tjerk Timan
TNO, afdeling Strategy, Analysis & Policy)

TJERK TIMAN: Hoe kunnen we AI en ethiek in de praktijk brengen? Dit is een van de grote uitdagingen om de stap te maken van mooie ethische discussies en kaders naar de praktijk van AI-ontwikkelingen.
Eén manier waarop we dat doen, is via normenkaders. We hebben gezien in de afgelopen tijd dat zowel private als publieke partijen ontzettend veel normenkaders hebben gepubliceerd.

(In beeld verschijnt een afbeelding met vier punten onder de titel: 
Een overload aan normenkaders en principes
Wat is het effect van handleidingen en kaders?)

In normenkaders staan een serie regels of afspraken waarin een bedrijf of een organisatie zegt: Dit zijn onze grenzen waarin wij zeggen: Op deze manier willen we AI ontwikkelen en op deze manier ontwijken wij bepaalde risico's die aan AI vastzitten. Een probleem van deze normenkaders is dat ze op dit moment ontwikkeld worden...

(In beeld verschijnt een afbeelding met vier punten onder de titel: 
Waar het aan ontbreekt in de normenkaders)

in bepaalde sectoren, dus vaak thematisch zijn en toch nog vaak de burger vergeten te betrekken in zo'n normenkader. Daarnaast is het ook voor de data scientist of de ICT'er lastig om die normenkaders te vertalen in de praktijk. Dus wat kun je zelf doen? We zien vanaf de kant van IT, ICT, data science, dat er veel aandacht is naar zogenaamde 'soft law' of 'self-regulation'.

(In beeld verschijnt een afbeelding met vier punten onder de titel: 
...maar ook aan professionele integriteit
In CoC's onderwijs, en ontwerpmethodiek)

Dus eigen initiatieven om die ethische kaders in te bouwen in de werkpraktijk. Een voorbeeld daarvan
is de Montreal Declaration, waarin heel veel AI-ontwikkelaars in Amerika hebben gezegd: We stellen zelf een manifest op, waarin we zeggen: Wij, met onze kennis en kunde als AI-ontwikkelaars tekenen hierbij dat we alleen AI willen inzetten voor het goede en onze kracht en onze kennis dus niet inzetten
om verkeerde of slechte toepassingen van AI te ontwikkelen. Dit is door heel veel AI-ontwikkelaars ondertekend en wordt gezien als een baken van zelfregulering. Daarnaast kun je met je team natuurlijk
een soort 'codes of conduct' ontwikkelen. Je kunt zelf bedenken: Wat zijn de regels waaronder wij met AI willen werken en hoe bespreken we dat, et cetera. Daarnaast zien we ook dat er veel aandacht is
naar 'by design'-methodiek. Hoe kun je in de ontwerpfase van een AI-gebaseerde dienstverlening,
eigenlijk die ethische principes meenemen aan het begin? Dit heet ook wel 'ethics by design', 'ethics for design' of 'ethics in design'. We zien daar een sterke connectie met eerdere ontwerpmethodieken,
zoals 'privacy by design' en 'value-sensitive design'. Het idee daarbij is dat je als ICT'er, als AI-ontwikkelaar, als data scientist, niet alleen kijkt naar de code, maar kijkt naar het doel van de service,
wie daarbij betrokken is, wie er het meeste impact of consequenties van jouw dienst gaat ervaren 
en eigenlijk ga je de hele service-designlijst af om te kijken: Waar raakt eigenlijk mijn ethische principe
aan bepaalde ontwerppunten in die dienst? Dat is een belangrijke ontwikkeling. Verder zien we nog dat er naast de connectie tussen ethiek en technologie, eigenlijk meer aan de hand is als het gaat om dit soort digitale diensten. We moeten ook wettelijke en sociale normen meenemen, naast alleen die ethische normen. Dat gebeurt in wat men ook wel ELSA-onderzoek noemt. 'Ethical Social Legal Assessment'.

(In beeld verschijnt een afbeelding met drie punten onder de titel: 
Ethiek gekoppeld aan wetgeving en sociale normen
Methodieken vanuit ELSA / ELSI onderzoek)

Daarin zien we dat die mix van ethische, sociale en juridische wettelijke normen wordt meegenomen om te kijken: Hoe kun je vanaf het begin, maar ook op lange termijn, nadenken over de effecten van AI-ontwikkeling? Nederland is daarin echt voorloper en voortrekker, omdat we een heel aantal van dat soort ELSA-labs aan het opzetten zijn in bepaalde sectoren, maar ook binnen de overheid zelf, om te kijken: Hoe kunnen we nou AI goed inzetten met het betrekken van alle stakeholders die van belang zijn in zo'n proces.

(Outro met abstracte beelden en korte eindtune.)

(In beeld verschijnt de tekst:
microlearnings
Ethiek)

(Het laatste beeld bevat het logo van de Rijksoverheid met daaronder de tekst:
Deze microlearning is tot stand gekomen door een samenwerking tussen de Leer- en Ontwikkelcampus (LOC) van UBR, de directie CIO Rijk van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BKZ) en de Rijksacademie voor Digitalisering en Informatisering Overheid (RADIO))