Is AI te reguleren?

Is AI te reguleren? Dit is een vraag die we ons met z'n allen stellen en waar Europa een eerste stap heeft genomen om te zeggen: Ja, we kunnen dit reguleren. Er is een groot beleidsplan gemaakt, vanuit Europa en ook door vele lidstaten, om twee kanten te belichten van AI-ontwikkeling. 

LEZING TJERK_4
 
(Intro met abstracte beelden met daaronder een korte begintune.)

(In beeld verschijnt de tekst: 
microlearnings
Ethiek)

(De heer Tjerk Timan staat voor de camera in een verder lege kantoorruimte en begint een monoloog.)

 (In beeld verschijnt de tekst:
Tjerk Timan
TNO, afdeling Strategy, Analysis & Policy)

TJERK TIMAN: Is AI te reguleren? Dit is een vraag die we ons met z'n allen stellen en waar Europa een eerste stap heeft genomen om te zeggen: Ja, we kunnen dit reguleren.

(In beeld verschijnt een afbeelding met zes punten onder de titel: 
Wat is EU-beleid omtrent AI?)

Er is een groot beleidsplan gemaakt, vanuit Europa en ook door vele lidstaten, om eigenlijk twee kanten te belichten van AI-ontwikkeling. De ene is het investeren en het aanjagen van innovatie om echt een Europese markt rondom AI te ontwikkelen, waarin je ook kunt zeggen: Als we bepaalde ethische vragen en dilemma's hebben, kunnen we die zelf ook oplossen, in plaats van afhankelijk te zijn van derde partijen buiten Europa - en de andere is: Hoe kunnen we eigenlijk die ethische vragen en die normenkaders die we willen of die we hebben, inbouwen in ietwat hardere, stevigere wetgeving? Dat hebben ze gedaan door de AI Act voor te stellen.

(In beeld verschijnt een afbeelding met drie punten onder de titel: 
De AI Act
Een voorstel tot regulering)

Dit is nog geen wetgeving, dat duurt nog wel even, maar er is een voorstel op tafel gelegd, waarin er eigenlijk drie soorten AI-toepassingen worden onderscheiden. Eén is een verboden-lijst. Dat is een heel interessante nieuwe ontwikkeling waarin de wetgever eigenlijk zegt: Deze toepassingen van AI sluiten we categorisch uit. Dat grijpt weer een beetje terug naar deontologie. We zetten bepaalde regels en daarvan zeggen we: Dit willen we sowieso niet, als een soort geboden van bepaalde toepassingen van AI. Denk hierbij aan 'social scoring', automatische gezichtsherkenning, vormen van biometrie, waarin we met z'n allen hebben gezegd binnen Europa: Daar willen we... Hoe efficiënt het ook kan zijn, die kant willen we gewoon niet op. Een tweede categorie is de soort van hoog-risico-categorie, zoals die genoemd is. Hierin wordt gezegd: Dit zijn toepassingen die wel kunnen, maar die een dusdanig risico hebben voor mensenrechten, dat we daar speciale zaken voor moeten gaan inregelen. Denk dan aan extra controle, het noemen in een register, het beter betrekken van toezichthouders. Hoe dat er precies uit gaat zien, weten we nog niet helemaal, maar het hoofd van die AI-regulering richt zich echt op die hoog-risico-toepassingen. De derde categorie is de laag-risico-toepassingen. Daarbij kiest de wetgever eigenlijk om te zeggen, net als in de AVG: Dit laten we over aan zelfregulering. Het is aan 't bedrijfsleven en aan AI-ontwikkelaars zelf om de juiste stappen te zetten om te zorgen dat ethische normen niet overschreden worden. Dat is een heel interessante verschijning, of interessant voorstel ten opzichte van wat we eerder zagen, omdat hier de wetgever op de inhoudelijke stoel van technologieontwikkeling gaat zitten - en dat heeft een bepaalde functie. Dat is om te zorgen dat die ethische principes, die ethische kaders, niet alleen blijven bij procedurele rollen of verantwoordelijkheden, maar ook echt inhoudelijk iets zeggen over de richting die we met deze technologie op willen. De vraag is natuurlijk daarna, als je wetgeving hebt, hoe ga je die wetgeving bekrachtigen - en hoe ga je dat controleren? Eén manier om dat te doen in de overheid rondom digitalisering, bijvoorbeeld, is het doen van een zogenaamde impact assessment. Een effectenbeoordeling, in het Nederlands.

(In beeld verschijnt een afbeelding met drie punten onder de titel: 
Ex ante en ex post impact assessment
En het Collingridge dilemma)

Daarbij wordt er gekeken, zowel aan de voorkant als aan de achterkant, wat zijn de verwachtingen van die technologie? Hoe heeft het impact op bijvoorbeeld de publieke sector zelf of op de maatschappij?
En hoe kunnen we bepaalde indicatoren gaan meten om dat effect ook echt op te vangen? Dit soort impact assessment doen we eigenlijk al tientallen jaren voor allerlei digitaliseringsontwikkelingen binnen de overheid en de publieke sector. Voor AI echter is het nog een groot vraagstuk hoe we dit gaan doen, maar ook wie dit gaat doen. Het kan natuurlijk zijn, zoals er nu ook gedacht wordt, dat dat bijvoorbeeld bij een AP terechtkomt, de Autoriteit Persoonsgegevens, die waakt over onze privacy, 
echter, we zien dat AI risico's met zich meedraagt, die verder gaan dan alleen individuele privacyvraagstukken.

(Outro met abstracte beelden en korte eindtune.)

(In beeld verschijnt de tekst:
microlearnings
Ethiek)

(Het laatste beeld bevat het logo van de Rijksoverheid met daaronder de tekst:
Deze microlearning is tot stand gekomen door een samenwerking tussen de Leer- en Ontwikkelcampus (LOC) van UBR, de directie CIO Rijk van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BKZ) en de Rijksacademie voor Digitalisering en Informatisering Overheid (RADIO))