AI werkt met statische berekeningen. Het bedenkt wat de volgende zin moet zijn op basis van de trainingsdata. Wanneer de informatie om te antwoorden ontbreekt, verzint het model iets dat past bij het patroon. Dit noemen we hallucineren. Hierdoor is het belangrijk altijd kritisch op de input én output te zijn.

JURRIAAN RAAIJMAKERS, teamlead AI ministerie van Binnenlandse Zaken en Koninkrijksrelaties: Als je een vraag stelt aan een AI, zoals VLAM of zoals Robin, wat gebeurt er dan precies onder die motorkap?
♪ RUSTIGE MUZIEK ♪
[Logo Rijksoverheid. Microlearnings: starten met AI. Hoe AI denkt: van brein tot bedrog.]
JURRIAAN: Daarvoor moeten we het hebben over twee belangrijke begrippen, namelijk: statistiek en neurale netwerken. Dat klinkt misschien heel technisch en complex, maar ik neem je stap voor stap mee. Want als je dit snapt, snap je ook waarom AI soms geniaal lijkt, maar soms ook totaal uit de bocht vliegt.
Wat zijn neurale netwerken? Een AI zoals VLAM of Robin gebruikt neurale netwerken. Dat zijn modellen die zijn geïnspireerd op hoe onze hersenen werken. Ze bestaan uit duizenden, miljoenen digitale neuronen die met elkaar verbonden zijn. Net zoals onze hersencellen bij ons. Deze netwerken leren via machine learning-technologie als die aanstaat. Ze herkennen dan patronen in grote hoeveelheden data, onthouden die patronen en gebruiken die kennis elke keer bij nieuwe vragen. Elke keer dat jij met een AI praat, leert-ie een beetje bij. Of hij heeft het eerder geleerd in z'n training. De AI wordt dus slimmer door ervaringen. Ervaringen, net als wij mensen slimmer worden met elke ervaring die wij hebben.
En hoe kiest de AI dan z'n antwoord? Dan komt jouw vraag binnen bij het AI-model. En wat gebeurt er dan? Stel je het brein van de AI even voor als een soort landkaart van kennis. En in het midden ligt die kernkennis: daar weet het model heel erg veel van. Dat zijn de onderwerpen waar het veel trainingsdata over gezien heeft. Zoals Engelse kinderversjes, recepten, bepaalde technische uitleg over software of populaire sciencefiction. Net als jij veel weet van bijvoorbeeld, als daar je passie in ligt, tuinieren. Daar kun je dan misschien diep en overtuigend over praten. Maar als iemand je vraagt naar kwantummechanica, dan wordt het waarschijnlijk wat vager, tenzij dat natuurlijk je vakgebied is. Ga je iets verder weg van die kern, dan kan de AI je nog wel een antwoord geven, net zoals jij dat kan, maar het antwoord wordt minder scherp, het wordt algemener, minder genuanceerd. Het raakt oppervlakkiger en gaat diepgang missen. Het komt namelijk buiten de kernkennis. En daar komt het gevaar. Het breekpunt zit dan namelijk buiten de gebaande paden.
Als je een AI een vraag stelt over iets waar het nauwelijks of geen training op heeft gehad, bijvoorbeeld over specifieke lokale tradities of nieuwe onderwerpen waar weinig kennis over bestaat, dan gebeurt er iets fascinerends. Er zijn in zo'n situatie namelijk een aantal reacties denkbaar. Als ik zou vergelijken met mensen, dan heb je de eerlijke mens. En de eerlijke mens zegt: Sorry, dat weet ik niet. En je hebt aan de andere kant de pathologisch leugenaar. En die zegt: Natuurlijk weet ik dat. En die begint vervolgens een verhaal op te hangen dat vloeiend klinkt, slim in elkaar zit en misschien zelfs wel ook heel overtuigend is, maar totaal verzonnen blijkt.
En nu komt het spannende. AI, dat is die tweede. AI is de pathologisch leugenaar die je altijd attent, alert en snel van antwoord wil voorzien, zelfs als-ie het niet weet. AI liegt, maar zo overtuigend. Een AI zal eigenlijk bijna nooit zeggen: Dat weet ik niet. In plaats daarvan probeert het altijd een zo goed mogelijk lijkend antwoord te geven. Snel, zelfverzekerd, compleet, geen twijfeltaal, geen 'misschien', geen 'ik denk dat'. Dat komt doordat het model statistisch berekent wat het meest logische volgende woord in de zin moet zijn op basis van alles wat het ooit gezien heeft. En als het niet zeker weet wat het antwoord is, dan verzint het gewoon iets wat past bij het patroon. En dit fenomeen noemen we in AI-taal ook wel 'hallucinatie'. Het model denkt dat het antwoord logisch klinkt, en in de meeste gevallen klopt het ook grotendeels, maar het is soms totaal verzonnen. En omdat het zo overtuigend klinkt, geloven mensen het zonder het te gaan checken.
Wat moet je hier nou van onthouden? De AI werkt, zoals eerder besproken, op basis van statistiek en patroonherkenning. Het gebruikt neurale netwerken die lijken op het menselijk brein. En in die kern van z'n kennisgebied is AI heel slim en heel precies. Maar aan de randen wordt het vager en oppervlakkiger. En daarbuiten, dan hallucineert het. Snel, zelfverzekerd, maar mogelijk totaal onjuist. Het grote gevaar daarbij: jij merkt het niet, want de AI zegt dat met zoveel overtuiging, dat je denkt: 'Ja, dat klinkt goed.'
Waarom is dat voor jou belangrijk? Als jij nou werkt met AI, of je nu beleid maakt, content schrijft of data analyseert, dan moet je altijd één ding doen: Blijf kritisch. Check de bronnen. Weet wanneer je een AI iets vraagt buiten z'n comfortzone. En accepteer nooit zomaar een antwoord omdat het goed klinkt. AI is briljant, maar het is ook een geboren verhalenverteller. En soms liegt-ie liever dan dat-ie 'nee' zegt.
[Logo Rijksoverheid. Veilig en verantwoord versnellen met AI.]