Volgens een recent onderzoek van het Institute for Strategic Dialogue (ISD) gebruiken grote AI-modellen zoals ChatGPT, Grok, DeepSeek en Gemini in hun antwoorden op vragen over de oorlog in Oekraïne regelmatig inhoud van Russische staatsmedia, waarvan de publicaties binnen de EU zijn geblokkeerd wegens verspreiding van propaganda. De bevindingen werden gepubliceerd door het Telegram-kanaal Agentstvo. Nieuws. Dit wijst op een nieuwe manier waarop verboden bronnen toch hun weg vinden naar Europese gebruikers, door zwakke plekken in de datasets van zoek- en trainingssystemen.
Onderzoeksmethode en resultaten
De ISD-onderzoekers stelden vier chatbots zestig vragen in vijf talen, waaronder Engels, Duits en Italiaans. De onderwerpen betroffen vredesonderhandelingen, de houding tegenover de NAVO, militaire dienst in Oekraïne, vluchtelingen en Russische oorlogsmisdaden. De vragen varieerden van neutraal tot bevooroordeeld of misleidend. In 18 procent van de antwoorden verwezen de bots naar pro-Kremlinbronnen zoals RT, Sputnik Globe en EADaily, of naar blogs die deel uitmaken van Russische desinformatienetwerken. ChatGPT verwees het vaakst naar zulke bronnen, terwijl Gemini de meest betrouwbare antwoorden gaf en Russische media als zodanig markeerde.
Mechanisme van beïnvloeding
De onderzoekers benadrukken dat kunstmatige intelligentie vatbaar is voor desinformatie wanneer betrouwbare data ontbreken. In dat geval grijpen modellen terug op alternatieve bronnen, ook als die onbetrouwbaar of zelfs geblokkeerd zijn. Dit maakt het mogelijk voor Russische propaganda om indirect door te sijpelen in AI-gegenereerde teksten. Neutrale vragen leverden minder giftige bronnen op, terwijl bevooroordeelde formuleringen of verzoeken om “bewijs” vaker leidden tot gebruik van Kremlin-gerelateerde informatie.
Risico’s voor de EU en mogelijke oplossingen
Aangezien miljoenen Europeanen AI-systemen gebruiken als informatiebron, kan zelfs een klein percentage van antwoorden gebaseerd op Russische propaganda leiden tot grootschalige verspreiding van desinformatie. Volgens ISD ondermijnt dit het Europese informatielandschap en de publieke steun voor Oekraïne. De onderzoekers adviseren strengere filters die worden afgestemd op EU-sanctielijsten, transparante bronvermelding door AI-bedrijven en onafhankelijke audits van modellen op gevoelige thema’s zoals oorlog en verkiezingen. Zonder dergelijke maatregelen kan de EU te maken krijgen met een nieuwe golf van anti-Europese en anti-Oekraïense narratieven, versterkt door kunstmatige intelligentie.