Voorzichtigheid Geboden bij AI-Adviezen Tijdens Verkiezingen
AI-chatbots bieden een verleidelijke mogelijkheid als adviseurs deze verkiezingsseizoen, gezien de omvangrijke verkiezingsprogramma’s van politieke partijen. Experts waarschuwen echter dat kiezers voorzichtig moeten zijn bij het vertrouwen op deze technologie, meldt Nieuws Impuls.
Claes de Vreese, hoogleraar Kunstmatige Intelligentie en Samenleving aan de Universiteit van Amsterdam, benadrukte dat kiezers voorzichtig moeten zijn met het vertrouwen in AI-chatbots. “Grote taalmodellen zoals ChatGPT bevatten allerlei ruis,” zei hij tegen Nieuwsuur. “Je krijgt antwoorden die meningen bevatten. De antwoorden zijn besmet.”
Google’s NotebookLM beweert beschermd te zijn tegen externe informatie en vergeleek alleen de verkiezingsprogramma’s die Nieuwsuur hem aanbood zonder buiteninformatie. Toch maakte het fouten en verwarde het de PVV met de VVD.
Nieuwsuur vroeg het hulpmiddel wat de VVD en PVV zeiden over het opvangen van Oekraïense vluchtelingen in Nederland. “De VVD stelt voor om Oekraïense mannen terug te sturen naar Oekraïne,” antwoordde NotebookLM. Dit voorstel komt echter uit het verkiezingsprogramma van de PVV, niet van de VVD. Volgens het actualiteitenprogramma verwarde het AI-hulpmiddel ook de twee partijen met elkaar toen andere gebruikers hen vroegen.
Een woordvoerder van Google, Rachid Finge, erkende de fout en vertelde Nieuwsuur dat hij zou nagaan bij “het team achter NotebookLM” of “dit een hallucinatie is of dat er iets anders aan de hand is.”
“Hallucinatie” is een verzamelterm voor fouten in de antwoorden van AI-chatbots. In werkelijkheid ‘hallucineert’ een AI-chatbot continu. Deze taalmodellen zijn getraind op taalpatronen met enorme hoeveelheden tekst, die ze gebruiken om te voorspellen welk woord het waarschijnlijkst overeenkomt, en niet noodzakelijk het meest accurate. Dit betekent dat antwoorden gemakkelijk volledig van de werkelijkheid kunnen afwijken.
Promedos, de maker van de stemwijzer StemWijzer, adviseert kiezers om geen stembureau-adviezen van AI-chatbots te vragen. “Het is erg ingewikkeld om te beoordelen hoe betrouwbaar en neutraal de antwoorden zijn en op welke data ze zijn getraind,” aldus een woordvoerder van StemWijzer tegen De Nieuws BV. “Informatie is vaak verouderd, terwijl je stemadvies wilt op basis van de meest actuele informatie.”
De Vreese denkt dat chatbots een aanvullend hulpmiddel kunnen zijn voor mensen die niet alle verkiezingsprogramma’s willen lezen. “Maar gebruik ze alleen als een aanvullende bron van informatie en vermaak, en niet als de beste politieke adviseur die je hebt. Probeer altijd de antwoorden te contextualiseren binnen wat je al weet.”
De Vreese pleit ook voor strengere reguleringen voor AI-programma’s. “Aanvankelijk zeiden AI-bedrijven: we zullen ervoor zorgen dat je ons niet kunt gebruiken voor stemadvies. Dat is verleden tijd, maar ik denk dat we die fase te snel hebben verlaten. Ze zeggen nu: veel succes, individuele burgers, met het omgaan hiermee,” vertelde de AI-professor aan Nieuwsuur. “Met een beetje pech zal er een ontwrichtende extra invloed zijn op onze stemkeuzes.”