Digitale dilemma 1: Algoritmen en sociale cohesie, podcast met Siri Beerends

In de eerste podcast in de serie 'Het digitale dilemma' praat Robin Rotman met Siri Beerends, cultuursocioloog en onderzoeker bij MediaLab SETUP, die de impact van digitalisering op de samenleving onderzoekt. Zij spreken elkaar over de informatiebubbel waarin wij ons bevinden. Wellicht heb je gehoord over de door Arjan Lubach geïntroduceerde term ‘fabeltjesfuik’. Wat is dat eigenlijk? En wat kunnen we leren van de Netflix-documentaire ‘The Social Dilemma’? Laat je bijpraten over de ‘filterbubbel’, polarisering en de vraag hoe we technologie meer kunnen inzetten voor sociale cohesie.

Digitale dilemma 1: Algoritmen en sociale cohesie, podcast met Siri Beerends

Het digitale dilemma #1
BEERENDS: We schuiven de schuld makkelijk af op het grote boze algoritme
maar wij stoppen uiteindelijk zelf ook de indicatoren in die systemen.
Daar zijn wel onderzoekers mee bezig.
Die zeggen: we hebben een algoritme nodig wat algoritmische bias oplost.
Ik ben daar heel sceptisch over.
ROTMAN: Welkom bij 'Het digitale dilemma'. Ik ben Robin Rotman
en ik praat met deskundigen over ethische vraagstukken rond digitalisering.
Dit is een podcastserie van de ministeries van EZK en LNV
in samenwerking met de RADIO.
BEERENDS: Als je op groepsniveau kijkt, zie je wel dat doordat iedereen
heel erg in z'n eigen informatiesfeer zit, wordt het ook steeds moeilijker
om met anderen te praten, want zij zitten in een hele andere bubbel.
ROTMAN: Ik praat met Siri Beerends over informatiebubbels, over polarisering
en over de vraag hoe je technologie meer kunt inzetten voor sociale cohesie.
Je bent cultuursocioloog én onderzoeker aan het MediaLab SETUP.
BEERENDS: Dat klopt.
ROTMAN: En daar heb jij een data profiling-spel gecreëerd.
Wat is dat?
-BEERENDS: Dat heb ik niet gecreëerd,
maar ontwerpers en kunstenaars hebben dat gecreëerd. Het is een spel
waarbij je zelf in de huid van een profiling-algoritme kan kruipen.
En het is om mensen ervan bewust te maken wat profiling op basis van data is,
hoe dat werkt en welke aannames daar allemaal in verankerd liggen
en hoe subjectief dat eigenlijk is.
-ROTMAN: Wat is de intentie van dit spel?
BEERENDS: De intentie is bewustwording over hoe in de digitale wereld
alles om je heen persoonlijk wordt afgestemd op basis van de stukjes data
die jij online achterlaat.
En waar we ook waarschijnlijk straks dieper in zullen duiken
hoe je daardoor ook bijvoorbeeld in een filterbubbel terecht kan komen.
Maar ook hoe op basis van jouw online data een heel profiel wordt gemaakt
en daar worden je nieuwsberichten op afgestemd,
de advertenties die je te zien krijgt, de zoekresultaten,
de politieke campagnes die je te zien krijgt in je tijdlijn op social media
dat wordt daar allemaal op afgestemd.
ROTMAN: En dit spel maakt inzichtelijk hoe dat werkt en dat dat dus gebeurt?
Dan ga je snel van: Ah, dat is het dus.
BEERENDS: Ja, want technologie is vaak heel abstract en wij maken
het dus tastbaar met dit spel. En jij wordt zelf het algoritme.
Doordat je zelf het algoritme wordt, zie je de tekortkomingen ervan.
ROTMAN: Ja, en wat best link is altijd met technologie, het wekt een beetje
de illusie misschien wel dat het onbevooroordeeld is.
Juist omdat het technologie is, omdat het niet met mensen werkt.
Zijn algoritmes altijd bevooroordeeld?
BEERENDS: Nou ja, algoritmes zijn gemaakt op basis van data
en data is nooit neutraal, dus ja
er zitten altijd indirecte aannames in algoritmes en big data.
ROTMAN: Is dat altijd erg?
BEERENDS: Nee, zeker niet, want het zorgt er ook voor dat we kunnen vinden
wat we zoeken vaak.
-ROTMAN: Ik zag toevallig dat Spotify
elke maandag met een playlist komt die afgestemd is op mijn wensen
en misschien wel meer op mijn wensen dan ik denk. Dan is het juist sterk
dat het bevooroordeeld is, dat het juist dát versterkt wat ik leuk vind.
BEERENDS: Ja, zeker. Dat vinden we ook comfortabel, dat vinden we fijn.
Dus dat hoort ook bij die algoritmes.
ROTMAN: En jij promoveert ook op de algoritmisering van de samenleving?
BEERENDS: Ja, dat is een thema waar ik in m'n promotieonderzoek
ook aandacht aan besteed, dat klopt.
Je ziet dat op steeds meer vlakken worden algoritmes ingezet.
In gezondheidszorg, in het onderwijs,
om een perfecte date te vinden, om sollicitanten aan te nemen.
Het zit eigenlijk overal. En we vertrouwen daar ook heel erg op.
Het is eigenlijk bijna 'n blind vertrouwen.
En in mijn onderzoek kijk ik meer naar hoe wij onder invloed van die algoritmes
meer op machines gaan lijken, door alle categoriseringen en door het opvolgen...
ROTMAN: Wíj meer op machines lijken?
-BEERENDS: Ja, wij zelf.
Je hoort heel veel in de media over robots en kunstmatige intelligentie
die steeds menselijker wordt,
die steeds meer op menselijke intelligentie gaat lijken.
Daar is echt heel veel aandacht voor.
Maar andersom, dat is eigenlijk een heel erg onderbelicht thema.
ROTMAN: Gaan wij meer op machines lijken omdat wij meer zo gaan denken?
Wat is daar de gedachte achter?
-BEERENDS: Ja, omdat we ons...
Nou ja, het is een vraag die ik stel, dus ik weet niet of het klopt.
Maar ik vraag me af of dat zo is. En er zijn verschillende aspecten
waar je naar kan kijken, maar bijvoorbeeld ook het hele idee
dat we steeds minder vertrouwen op menselijke intelligentie
en de menselijke subjectiviteit is een probleem geworden
wat we moeten oplossen. We willen overal wiskundige modellen op loslaten
of het nou gaat om gezondheid of een partner vinden.
Alles wordt gekwantificeerd en gemeten en daar zit een bepaalde machinering in.
ROTMAN: Je moet je er eigenlijk bewust van zijn dat dat zo is
en altijd die menselijke maat proberen te houden of zo?
BEERENDS: Zeker, de menselijke maat vinden heel veel mensen belangrijk.
Dat je niet verdwijnt in de machinerie, zeg maar.
ROTMAN: Het kafka...
-BEERENDS: Ja, precies. Ja, ja.
ROTMAN: Vandaag hebben we het over onze informatiebubbel o.a.
Eerder dit jaar hartstikke gehypet. Arjen Lubach ging ermee aan de haal.
Hij introduceerde de term 'fabeltjesfuik'. BEERENDS LACHT
Eerder verscheen op Netflix die documentaire 'The Social Dilemma'.
Eventjes, die fabeltjesfuik, wat is dat nou eigenlijk?
BEERENDS: Wat er gebeurt, is dat je op basis van een paar zoekopdrachten
bijv. op YouTube of op zoekmachines of in je social media tijdlijn
je al heel snel in een tunnel, een fuik noemde Lubach het
terecht kunt komen van eenzijdige informatie en ook
dat je naar steeds radicalere content gestuurd kan worden.
Voorbeeld: je hebt een nuchtere, kritische vraag over vaccineren.
Die typ je in op YouTube en dan kan je al heel snel
in je suggestielijst ook allerlei complottheoriefilmpjes te zien krijgen.
ROTMAN: Want wij zijn geneigd om steeds wat radicalere
meer sensationele berichten, om daarop te gaan klikken?
Dat is onze natuurlijke neiging en dan ben je binnen drie stappen
zit je ergens in wappieland eigenlijk?
BEERENDS: Ja, zo zou je het wel kunnen zeggen.
En het is mooi dat je zegt dat het ook met de mens, met ons, te maken heeft.
Wij zijn ook gevoelig voor clickbait-titels en sensatie-titels.
Maar ja, het hoeft helemaal niet zo te zijn dat je een complotdenker bent
als je op een complotfilmpje klikt.
Maar er is ook wel onderzoek naar gedaan dat op YouTube vooral
dat je echt heel makkelijk vanuit een redelijk onschuldige vraag
in hele extremistische content terecht kan komen.
Nou moet wel genuanceerd worden dat het ook te maken heeft
dat zeggen dus ook de technici
het heeft ook te maken met het aanbod. Er is gewoon meer online aanbod
van complotcontent, dus daardoor is het risico ook groter.
ROTMAN: Hoe verhoudt zich dat nou tot die filterbubbel?
Of is dat eigenlijk een andere term voor hetzelfde fenomeen?
BEERENDS: Ja, de filterbubbel is breder dan de fabeltjesfuik, denk ik.
De filterbubbel gaat ook over
hoe je online alleen maar gelijkgestemde berichten te zien krijgt.
Hoe alles is gefilterd op jouw profiel en op jouw klik- en likegeschiedenis.
En de fabeltjesfuik is dan meer gericht op fabeltjes, op de complot...
ROTMAN: Dus dat je in die bubbel wordt geleid naar de bullshitverhalen?
BEERENDS: Ja, en doordat je alleen maar in die bubbel zit
je niet meer geconfronteerd wordt met andere denkbeelden.
En je dus ook steeds meer gaat geloven in die waarheid.
Want alles bevestigt dat beeld.
ROTMAN: In 'The Social Dilemma' werd geschetst dat algoritmes
de algoritmisering van de samenleving, er worden eigenlijk steeds
een soort digitale klonen van ons gemaakt. Hoe werkt dat nou?
BEERENDS: Ehm, met... je bedoelt de online profilering?
ROTMAN: Ja.
BEERENDS: Ehm, nou ja, dat is... volgens mij legde ik dat net ook uit.
Dat gaat over, alles wat jij online doet
daarmee laat je kleine stukjes informatie achter en op basis daarvan
word je door algoritmes gecategoriseerd.
Dus bijv. als je een bepaalde muziekstijl hebt geliket, zoals rapmuziek
dan worden er verbanden gelegd met andere mensen die dat ook leuk vinden
en dan worden er correlaties uitgerekend en word je in een categorie geplaatst
'conservatief'. En dan is de kans dus groter dat je daarna alleen maar
advertenties, berichten etcetera te zien krijgt die allemaal te maken hebben.
met de categorie 'politiek conservatief'.
Alleen maar omdat je een bepaalde muziekstroming hebt geliket.
ROTMAN: En dan word je dus gevoed met informatie die jouw denkbeelden
ondersteunen of versterken?
-BEERENDS: Ja, precies.
En in hoeverre dat ook natuurlijk lukt heeft ook heel erg te maken met
of je ook zelf nog andere nieuwsbronnen ernaast consumeert.
En dus het is niet zo dat bij iedereen die filterbubbel even...
dat iedereen daar even heftig in meegaat of even vatbaar voor is.
ROTMAN: Ik proef ook een beetje iets. Er wordt dus 'n profiel van mij gemaakt.
Ik kan me ook voorstellen dat ik constant informatie krijg
die mij in een bepaald hoekje duwt, waarin zij dénken dat ik zit.
En die informatie neem ik tot me, waardoor ik misschien denkbeelden
ga ontwikkelen, positief of negatief, die ik aanvankelijk helemaal niet had.
En dan begint 't tricky te worden, hè?
-BEERENDS: Ja, zeker.
Dat is ook precies wat we met het data profiling-spel laten zien.
Dat het allemaal op aannames over jouw persoonlijkheid vaart.
Dus, bijvoorbeeld, stel je voor dat je bepaalde producten
hebt gegoogeld die te maken hebben met zwangerschap
dan wordt er meteen al automatisch
een algoritme denkt natuurlijk niet, maar dan 'denkt' het algoritme:
hé, dit is iemand die zwanger is, hup, alle luierreclames hiernaartoe.
Maar dat hoeft niet zo te zijn, misschien zocht je iets op voor 'n ander
of is er een andere reden waarom je in die producten geïnteresseerd bent.
En als het gaat om politieke denkbeelden etcetera, dan kan dat wel inderdaad ook
je zelfbeeld beïnvloeden, omdat je alleen maar bepaalde dingen te zien krijgt.
ROTMAN: Jij bent cultuursocioloog, dus jij kijkt niet alleen maar
naar wat het met individuen doet, jij kijkt ook naar de groep als geheel.
Wat betekent dat voor de mensen als groep? Wat doet dat? Is dat juist...
Dat heeft een polariserend effect?
-BEERENDS: Ehm, ja...
ROTMAN: Automatisch of?
BEERENDS: Ja, het verschilt natuurlijk wel heel erg per context
maar het individuele en het maatschappelijke en het collectieve
hangt helemaal met elkaar samen, ik zie dat niet als twee aparte dingen.
Het is wel zo dat als je op groepsniveau kijkt, dan zie je wel
dat doordat iedereen heel erg in z'n eigen informatiesfeer zit
met informatie die jouw denkbeelden bevestigt, wordt 't ook steeds moeilijker
om met anderen te praten, want zij zitten in een heel andere bubbel
en hebben heel andere dingen gelezen. Dus dan probeer je samen
een gesprek te voeren over gezonde voeding of coronavaccins
en dan zegt iemand: Ja, maar ik heb heel andere onderzoeken gelezen
en ik heb dat allemaal niet gezien. Je moet déze informatie bekijken!
ROTMAN: Dat is de ironie van de sociale media. Ze moeten ons bij elkaar brengen
de wereld wordt kleiner, we krijgen meer contact met elkaar, maar ondertussen
versterkt het alleen maar de ideeën die we al hadden of nog niet eens hadden
en zo drijft het ons juist uit elkaar.
-BEERENDS: Ja, dat hebben we gezien
met de bestorming van het Capitool bijvoorbeeld. Dat hoeven we niet
helemaal daaraan toe te schrijven, maar het heeft wel een rol gespeeld.
Dat is wel een effect.
Maar zoals ik al zei, dat heeft niet alleen te maken met die algoritmes
en de technologie. Ik ben socioloog, dus ik kijk naar meerdere factoren.
Het heeft ook te maken met bepaalde...
bijvoorbeeld wantrouwen in de overheidsinstituties
met maatschappelijke factoren, maatschappelijke onvrede.
Je moet je ook de vraag stellen, dat vind ik heel belangrijk:
Waarom zijn mensen überhaupt vatbaar voor nepnieuws?
Voor de filterbubbel?
Ja, daar zit ook iets in van een klimaat van onvrede, van wantrouwen.
ROTMAN: Oké, dus het gaat niet alleen maar over 'de media hebben 't gedaan'.
Het maakt deel uit van dat grote geheel. We hebben het over die algoritmes.
Hoe komt het dan dat die vaak zo bevooroordeeld zijn?
Hoe komt dat? Bij YouTube snap ik het.
Die zoeken namelijk naar een ideale verhouding tussen waar ik op klik
en mij koppelen aan adverteerders.
-Ja.
Dus daar zit echt een soort belang.
Maar dat is niet automatisch een belang bij algoritmes. Het is breder.
De algoritmes worden gevoerd door informatie, die zijn zelflerend.
BEERENDS: Ja, voor een deel.
-ROTMAN: Zit daar het 'probleem'?
BEERENDS: Het probleem zit vooral bij het verdienmodel hierachter.
Dat zorgt er ook voor dat adverteerders gericht kunnen zorgen
dat in bepaalde categorieën hun content gezien wordt.
Dus dat zorgt al voor heel rigide sociale categoriseringen
die dan worden aangebracht.
Maar ook omdat het verleden de hele tijd gebruikt wordt als basis
om toekomstvoorspellingen te doen. Dus je ziet dat alle stereotyperingen
en discriminatoire ideeën die in de huidige samenleving bestaan
dat die overgenomen worden, dat die gereflecteerd zijn in de data.
En met die data worden weer de algoritmes getraind.
ROTMAN: Dat zag je bijvoorbeeld terug in die toeslagenaffaire.
Dat zie je terug, dat technologie vaak gewoon discriminerend is.
Mag ik je wat stellingen voorleggen?
'Ook Siri Beerends, cultuursocioloog met verstand van zaken
betrapt zichzelf er regelmatig op dat ze in een filterbubbel verzeild is geraakt.'
Waar of niet waar?
-BEERENDS: Waar.
ROTMAN: 'Algoritmes worden steeds sterker en valse informatie
ziet er steeds overtuigender uit.
Over een paar jaar is de waarheid niet meer te herkennen.'
BEERENDS: Oe, vind ik moeilijk... Eh, ja, voor een deel waar.
ROTMAN: 'Het gaat steeds over de techreuzen, maar eigenlijk is de overheid
een grotere boosdoener.'
BEERENDS: Mmmm... Nee... Nee, niet per sé groter.
ROTMAN: Niet waar, oké.
We gaan ze even langslopen voor een toelichting.
Jij zit ook wel eens in een filterbubbel. Da's ook grappig eigenlijk, hè?
BEERENDS LACHT: Ja. Nou ja, ik denk dat niemand daar aan kan ontkomen.
Ik bedoel, als je een internetaansluiting hebt, then you're ready to go.
ROTMAN: Het is ook niet zo erg.
-Nee.
In zekere zin lijkt het ook wel een beetje op toen we nog in de verzuiling leefden.
Toen koos je ook 'n krant die bij je paste en las je de Volkskrant of de Telegraaf.
Dat was ook verzuild en iedereen koos de informatie die bij z'n zuil paste.
BEERENDS: Ja, maar in die tijd was er nog wel overeenstemming
over de grote feiten. En nu zie je wel dat ook dát onder vuur ligt.
De wetenschap, of je nou katholiek was of niet katholiek...
er was wel onderlinge overeenstemming over wat waarheid is.
En je ziet nu dat dat ook helemaal weg is gevallen.
ROTMAN: Dat is dan die tweede stelling.
Het wordt steeds moeilijker om de waarheid te herkennen.
BEERENDS: Ja. ROTMAN: Dat is wel tricky, hè?
BEERENDS: Ja, zeker. En eronder zit een filosofische vraag: Wat is waarheid?
Maar daar hebben we natuurlijk de wetenschap voor.
Maar ja, ook wetenschappelijke studies kunnen online heel erg overtuigend
gebracht worden of door bepaalde clickbait-titels waardoor het lijkt
alsof er een bepaald onderzoek is geweest wat er niet is geweest.
Dat wordt steeds geavanceerder allemaal.
ROTMAN: Dan die overheid, hè. Die speelt hier een rol.
Die stelling, de grotere boosdoener, is een beetje flauw.
Je zegt: Nou, dát denk ik niet. Maar er zat wel twijfel.
Dus de overheid is een boosdoener.
En dat is lastig, want de overheid dat zijn wij allemaal.
De overheid is enerzijds regelgever en toezichthouder
en tegelijkertijd speler. Dat maakt het misschien tricky?
BEERENDS: Ehm, ja, ook... maar bij die stelling moest ik zelf eigenlijk
meer denken aan dat de overheid ook een heel groot vertrouwen heeft
in big data en algoritmes.
Dat er al heel snel, als het gaat om veiligheid, risicovoorspelling
fraudebestrijding, dat er dan meteen gekeken wordt naar algoritmisch big data
en dat ze zich daaraan vergrijpen.
-Net als met de Belastingdienst?
Ja, met de toeslagenaffaire, maar ook met Systeem Risico Indicatie
hebben we dat gezien.
-Wat gaat daar mis? Wat gebeurt daar?
BEERENDS: Eh, jeetje, ja, ik denk dat er veel verschillende dingen misgaan.
Er zitten ook culturele elementen in.
Bijv. een klimaat van wantrouwen ten opzichte van de burger.
Men denkt: die burger is een fraudeur, we moeten alle burgers goed screenen.
Hoe tuigen we dat op met een geautomatiseerd systeem?
Nou, daar gaat het al mis. Dat wantrouwen.
Dan ja, heel erg denken vanuit het efficiency-paradigma.
Dat er dan gedacht wordt dat je dan met die schaalvergroting
dat heel makkelijk kan optuigen, maar in de praktijk blijkt dat je
heel veel menselijke controle nodig hebt op die systemen
omdat er heel veel dingen misgaan in die systemen.
Zo makkelijk om het allemaal af te schuiven op technologie
en minder personeel in te zetten, dat is in de praktijk toch ingewikkelder.
Maar als jij het hebt over de overheid is de boosdoener, dan denk ik nou...
Het is alles. Wij zelf zijn de boosdoener. De overheid is een boosdoener.
Het bedrijfsleven is een boosdoener.
Ik denk dat je de verantwoordelijkheid een beetje moet verdelen.
ROTMAN: Wat ook wel tricky is, bij die toeslagenaffaire zie je achteraf
als de Kamer daar vragen over stelt of het kabinet valt zelfs
dan blijft er toch iets ongrijpbaars over.
Iedereen was een beetje schuldig. Niemand is helemaal schuldig.
Het kabinet struikelt wel, ma ar het beklijft ook niet echt.
En de tech heeft het dan gedaan.
BEERENDS: Ja, dat klopt inderdaad. We vinden het heel makkelijk
om de schuld af te schuiven op het grote, boze algoritme.
Maar wij stoppen uiteindelijk zelf ook die indicatoren in die systemen.
Dubbele nationaliteit, niet-Nederlandse achternaam.
Ja, dat hebben wij bedacht, dat dat in het systeem moet zitten.
Je kan er ook voor kiezen om dat niet te doen. Maar dan nog
ook als je dat niet doet, zijn algoritmes bevooroordeeld.
Er bestaat niet zoiets als objectieve of neutrale technologie.
ROTMAN: Zie je dit ook gebeuren als het gaat over opsporing?
Bij de justitiekant gaat het ook over profiling.
Wat gaat daar fout?
BEERENDS: Ook in Nederland wordt gebruik gemaakt van risicoprofilering
'predictive policing'. En daar zie je vaak dat vooroordelen
eigenlijk versterkt worden.
Je hebt bijvoorbeeld CAS, Criminaliteits Anticipatie Systeem.
En een groot risico is, en dat is bijvoorbeeld in Amerika al gebleken
met soortgelijke systemen
dat een algoritme dan zegt: In postcodegebied X is meer criminaliteit.
Stuur daar meer agenten naartoe.
Iedereen vertrouwt blind op het algoritme, hup, we gaan.
Dan wordt daar inderdaad meer criminaliteit vastgesteld
maar omdat daar meer agenten zijn. Dat wordt dan weer gebruikt
om het algoritme te voeden.
-Die data wordt ook weer gebruikt.
Dan lijkt het dus inderdaad... Het wordt dan een selffulfilling prophecy.
Terwijl als je in een andere wijk was gaan surveilleren, had je ook heel veel...
Dus het is heel ingewikkeld. ROTMAN: Ja, deze snap ik nu.
Ik begrijp 'm. Want je zou ook kunnen betogen:
Als bepaalde bevolkingsgroepen vaker in de statistieken voorkomen...
is het ook logisch. Maar nu snap ik het.
Je gaat daar dus vaker controleren, waardoor je dus meer treffers krijgt
waardoor je dat systeem... En zo versterkt het zichzelf eigenlijk.
BEERENDS: Ja, en in Amerika, wat je ook zei, dat bepaalde groepen
oververtegenwoordigd zijn in de criminaliteitsstatistieken
in Amerika zie je dat mensen met een donkere huidskleur
vaker staande worden gehouden
omdat de politie een bias heeft naar mensen met een niet-witte huidskleur.
En dan zie je dat dat in het algoritme als indicator wordt meegenomen.
In het verleden ben je staande gehouden: extra risico-vlaggetje.
Terwijl dat al een bias is. Dus dan zit dat weer helemaal in dat systeem.
ROTMAN: En je hebt natuurlijk de hoop
dat als die agenten daar niet zelf over gaan met hun eigen vooroordelen
die we gewoon allemaal hebben en als een technologie daarover gaat
dat we dat vooroordeel eruit filteren, maar dat is dus niet waar in de praktijk.
BEERENDS: Nee, zeker niet, en we verstoppen ons dan achter het systeem.
ROTMAN: Kunnen we niet een algoritme mee laten lopen met al die algoritmes
zodat een algoritme vooroordelen herkent.
BEERENDS: Daar zijn wel onderzoekers mee bezig.
Die zeggen: we hebben een algoritme nodig wat algoritmische bias oplost.
Ik ben daar heel sceptisch over. Je moet daar zeker mee experimenteren
maar uiteindelijk kun je gewoon niet alle informatie die ertoe doet
die je met het menselijke oog wel kunt zien, kun je niet dataficeren.
En dat moet je altijd beseffen als je met big data en algoritmes werkt.
Het sluit altijd bepaalde vormen van informatie uit.
ROTMAN: Oké, dus ik hoor nu twee oplossingen, twee denkrichtingen:
Wees je ervan bewust dat het systeem zo werkt
en bij de bouw van zo'n algoritme hou er rekening mee.
En ten tweede, blijf zelf wel meedenken.
BEERENDS: Ja, absoluut.
-Zo makkelijk is het misschien wel weer.
Eh, nou, ik denk dat het in de praktijk heel ingewikkeld is.
Dat hebben we tot nu toe gezien, dat het niet zo makkelijk is.
ROTMAN: Gezichtsherkenningssoftware is het nieuwe ding. Dat komt er nu aan.
Zie je daar nog ethische bezwaren of potentiële dilemma's op ons afkomen?
Moeten we daar echt op gaan letten nu?
Nu het nog kan, nu het in ontwikkeling is. Nu zitten we dus aan de voorkant.
BEERENDS: Ja, zeker, maar volgens mij zijn er ook al groepen bezig
dat er een verbod moet komen op gezichtsherkenningstechnologie.
Ja, het is gewoon een heel gevaarlijke, totalitaire technologie.
Kijk nou naar wat er in China met de Oeigoeren gebeurt in dat soort regimes.
Maar ook hier... Ja, het is een heel ernstige aantasting
Je gezicht is heel erg privé.
En dat wordt dan ineens een soort 'public good'.
Ik denk dat je dat niet moet willen.
ROTMAN: Maar je kan een bril opzetten met een cameraatje erop
en dan verschijnt er informatie van de mensen die ik passeer.
Zonder dat ze het weten verschijnt dat bij mij in beeld.
BEERENDS: Ja, dat is iets waar Clearview AI, dat Amerikaanse bedrijf
aan heeft gewerkt. Er wordt wel gezegd:
Dat gaan we absoluut niet toestaan.
Maar dat zijn inderdaad wel heel gevaarlijke dingen.
Ik moet er niet aan denken dat ik op straat loop en iemand al die informatie...
Het haalt ook alle spontaniteit en interesse in elkaar weg, lijkt me.
ROTMAN: Dit is 'n mooie om over na te denken. We moeten hiermee bezig zijn.
Laten we eens naar die oplossingen gaan kijken.
Bestaat er zoiets als 'integrity by design'?
'Privacy by design' is een ding.
Kunnen we dat niet gewoon verplicht laten inbouwen?
BEERENDS: Ja, dat is een mooi idee...
En het is goed... 'Ethics by design' wordt het ook wel genoemd.
Ik vind dat goed. Daar moeten we zeker mee gaan experimenteren.
Maar ik denk niet dat je alles met technologisch design
kunt oplossen, omdat het ook voor een deel voortkomt
uit onze mindset over hoe we over technologie denken
en wat we van technologie verwachten en wat we uitbesteden.
Want we doen nu alsof het toepassingsbereik van algoritmes
gezichtsherkenning, eindeloos is. In elk domein gaan we het toepassen.
Maar ik denk dat we nog moeten leren in welke domeinen het heel zinvol is
om het wel te doen en in welke we het niet moeten doen.
ROTMAN: Als je die artsen bekijkt in die ziekenhuizen
die over hele grote databases over kankerpatiënten beschikken.
En als je met wat informatie van een patiënt goed kan berekenen
of kan beoordelen wat voor behandeling die zou kunnen of moeten krijgen
en hoe zich dat gaat ontwikkelen, dat is hartstikke gaaf als dat werkt.
BEERENDS: Zeker, als dat werkt. Er zijn ook onderzoeken naar gedaan.
Maar dat schijnt dus in de praktijk toch weer heel ingewikkeld te zijn.
Er zijn al hele overdreven claims geweest van de cancer-spotting AI
van ik geloof van IBM of van Google.
Die zou beter zijn dan de menselijke dokter.
Maar je moet het niet zien als een wedstrijd, het kan een hulpmiddel zijn.
Ze moeten samenwerken.
-ROTMAN: Oké, dus daar zijn kansen.
Waar zijn nog meer de kansen? Ik wil hier geen zuur verhaal van maken.
Er zijn toch veel toffe toepassingen?
-BEERENDS: Ja, absoluut.
Je kan op verschillende niveaus aan oplossingen denken.
Op politiek-juridisch niveau kun je dat advertisement verdienmodel aanpakken.
Dat gebeurt al vanuit de EU, geloof ik.
Je kan op individueel niveau stappen nemen. Je hebt bijv. allerlei tools
die jou kunnen laten zien hoe jouw filterbubbel eruitziet.
Facebook Tracking Exposed is een voorbeeld.
En op collectief-maatschappelijk niveau op het gebied van datawijsheid
waar SETUP ook mee bezig is, kun je ook heel veel doen.
Met bijv. de spellen die wij maken.
Maar ook met kunstenaars en ontwerpers die heel goed zijn
in die ingewikkelde vraagstukken tastbaar maken en vertalen.
Maar ik denk dat als je het hebt over het collectieve maatschappelijke niveau
dat we écht af moeten van dat dataïsme.
Dat heilige geloof dat als je maar genoeg data hebt
dat je dan alle rampen kan voorspellen en alles kan sturen
en ellende kan voorkomen.
Dat dat echt een verkeerde voorstelling van zaken geeft.
Dat we echt wat nuchterder en wat realistischer gaan kijken
naar wat we met die technologie kunnen.
ROTMAN: En het heft in eigen hand nemen, want het is toch raar
dat een mediabedrijf als Twitter
bepaalt of een president of een presidentskandidaat
wel of niet van het kanaal gebruik mag maken?
Het is toch zo dat wij bepalen waar de grenzen liggen van wat mag?
Het kan toch niet zo zijn dat een commerciële organisatie dat bepaalt?
Daar gaan wij toch over? Of iemand oproepen tot geweld
daar gaat een rechter toch over?
-BEERENDS: Ja, zeker. Ik vind het ook
wel gevaarlijk dat al die social media- bedrijven zoals Twitter en Facebook
er ook over gaan over welke informatie wel en niet getoond mag worden.
Je hebt ook al kunstenaars die daardoor hun werk niet meer kunnen laten zien.
Ja, en wat is desinformatie? Het lijkt simpel om dat vast te stellen
maar dat blijkt ook nogal ingewikkeld.
ROTMAN: Dus daar zit ook 'n opdracht voor de samenleving of de democratie
om daar grenzen te stellen. Wat willen we dan werkelijk?
Daar moeten we goed over na blijven denken.
En die mediawijsheid, dat moet toch op scholen al een ding worden?
Die kids moeten daar van jongs af aan mee opgroeien toch?
BEERENDS: Zeker.
-Ik voel me gelijk heel naïef en oud
als ik dit zeg.
-BEERENDS: Ja, dat zeg je heel mooi.
Want kids zijn redelijk mediawijs.
In de zin van... Bijv. de zoon van mijn vriend die is zestien.
En die zegt altijd: 'Ja, op internet ga je de waarheid niet vinden.
Het zijn de oudjes die dat nog denken.' Weet je wel?
Dus dat laat een beetje zien...
Maar goed, je moet het ook niet bagatelliseren.
Mediawijsheid is heel belangrijk.
En er wordt op scholen aandacht aan besteed met programma's
die wij ook wel helpen ontwikkelen.
Dus daar is wel... Dat gebeurt wel, maar dat mag wel ook wat meer.
Want het wordt ook steeds belangrijker, want die algoritmisering
dat wordt steeds grootschaliger, steeds invasiever.
Dus ik denk dat het goed is om daar ook bewustwording over te blijven...
ROTMAN: Bij SETUP ben je dus bezig om allerlei dingen te ontwikkelen
om dingen inzichtelijk te maken, hè?
-Ja.
Je bent in je werk voor de universiteit ben je bezig om te onderzoeken
wat die algoritmisering doet met ons allemaal. Als je dit nou luistert, hè
Siri Beerends zit hier gewoon thuis ook met haar laptop en haar telefoon.
Wat doe jij zélf om door die filterbubbel heen te prikken?
Om te denken: ik wil...
BEERENDS: Ja. Nou, ik zit niet op social media.
Ik zit alleen op LinkedIn, omdat dat echt voor m'n werk moet.
Ik kan daar niet omheen.
Dus, maar je kan ook zelf als je wel op social media zit
dingen in je instellingen aanpassen.
Wat ik zelf doe, ik heb geen smartphone.
ROTMAN: Je hebt een telefoon waar geen internet op zit?
Dat is heel rustig ook.
BEERENDS: Ja, maar goed, dat is puur ook een persoonlijke keuze.
Ik vind het prettiger om voor m'n privéleven geen smartphone te hebben.
En wat ik zelf doe, ja...
-ROTMAN: Zoek je bijv. de bronnen op
waarvan je weet, daar ben ik het niet mee eens, maar laat ze maar komen?
BEERENDS: Nou, zeker, ik probeer contrasterende informatie te vinden.
Wat ik altijd doe als ik op LinkedIn in een inhoudelijke discussie zit
en iemand zegt, hier ben ik het niet mee eens, of dit klopt niet
dan voeg ik die persoon meteen toe en ga ik het gesprek aan.
En dan zie ik ook wat voor informatie die persoon, die heel anders denkt
en met andere informatie gevoed is dan mij, wat die allemaal post.
En die komt met heel andere bevindingen dan ik.
Dus ik probeer daarin wel te verbreden.
-Dan sta je er ook voor open om...
BEERENDS: Ja, dat klinkt erg makkelijk. ROTMAN LACHT
Maar dat probeer je wel. Ik probeer wel het gesprek aan te gaan.
ROTMAN: Oké, die fabeltjesfuik, om 'm rond te maken.
Ik geloof wel dat dat systeem zo werkt.
Dus als ik een filmpje zoek op YouTube over de fabeltjesfuik
dan krijg ik allemaal filmpjes, suggesties, die bevestigen
dat het inderdaad zo werkt.
-Ja.
Dus mijn zoektocht naar informatie over de fabeltjesfuik
levert allemaal verhalen op die bevestigen dat de fuik zo werkt.
Is dat ook weer een fabeltjesfuik?
-BEERENDS LACHT: Ja.
ROTMAN: Help!
-Ja, precies.
Ja, daar stip je inderdaad wel een terecht punt aan.
Ik ken ook iemand die dus ook zelf werkt met algoritmes
en ze ook ontwerpt en die zegt dus: de fabeltjesfuik is zelf een fabeltje.
Die filterbubbel bestaat eigenlijk niet.
Het is een probleem van aanbod en verdienmodel.
En niet het algoritme zelf.
ROTMAN: Dat vind ik een mooi slot om de luisteraar mee naar huis te sturen.
Let op, jongens. Ook dit blijft dus... nadenken zelf.
BEERENDS: Ja, zeker, absoluut.
-ROTMAN: Dank je wel, Siri Beerends.
Cultuursocioloog en onderzoeker bij MediaLab SETUP.
Veel succes met je promotieonderzoek. Dat wordt prachtig, denk ik.
Luister ook de andere afleveringen van 'Het digitale dilemma' terug.
Ga hiervoor naar it-academieoverheid.nl.