Steeds vaker verkrijgen mensen informatie door vragen te stellen aan AI-chatbots. Maar wat als malafide actoren de informatiebronnen achter de antwoorden vergiftigen met online nepnieuws?
Al enkele jaren volgen desinformatieonderzoekers een netwerk van tientallen Russische propagandawebsites dat bekend staat onder de naam Portal Kombat. Het gaat om een grotendeels geautomatiseerde collectie ‘nieuwssites’ die vaak het woord ‘pravda’ – Russisch voor ‘waarheid’ – in hun naam dragen. Het netwerk bestaat al sinds 2014 en focuste aanvankelijk op de door Rusland bezette Krim.
De voorbije jaren probeert dit ‘Pravda’-netwerk ook een publiek in West-Europa, Amerika en op andere continenten te bereiken. Zeker sinds officiële Russische staatsmedia zoals RT en Sputnik binnen de Europese Unie in de ban geslagen zijn, neemt het belang van operaties zoals Portal Kombat toe voor wie de ‘Russische kant van het verhaal’ over gebeurtenissen zoals de oorlog in Oekraïne wil verspreiden.
De Pravda-sites waren in het begin alleen beschikbaar in de grootste wereldtalen – Engels, Spaans, Frans et cetera – maar je vindt ze vandaag al in tientallen talen, tot en met het Gaelic en Maori. En ook in het Nederlands dus, met zelfs een ‘Pravda België’-site, toegespitst op ons land. Door automatische vertaalsoftware is de globale verspreiding van 50 verschillende versies van hetzelfde verhaal een koud kunstje. Het laat het Pravda-netwerk toe om honderdduizenden artikels per jaar te publiceren.
Het was altijd de vraag hoeveel impact zulke online propaganda precies heeft. De Pravda-sites leken bijvoorbeeld niet echt een organisch publiek op te bouwen. Artikels werden zelden gedeeld op sociale media, tenzij door spambots of propagandisten. Waarom al die artikels publiceren als er amper iemand op klikt? Hoeveel mensen bereikt zo’n beïnvloedingsoperatie eigenlijk?
Alwetend orakel
In maart 2025 verscheen er een rapport van de ngo American Sunlight Project dat een antwoord op die vragen formuleerde. Portal Kombat zou vooral ‘LLM grooming’ als doel hebben: de beïnvloeding van AI-chatbots door het ‘vergiftigen’ van hun bronmateriaal. Het enorme aantal artikels van lage kwaliteit duidde volgens het American Sunlight Project op ‘een netwerk van websites en socialmedia-accounts die inhoud produceren die niet primair bedoeld is voor menselijke gebruikers’, maar eerder voor de infiltratie en beïnvloeding van AI-chatbots.
Een op de drie chatbots herhaalde het broodjeaapverhaal dat de Verenigde Staten in Oekraïne biologische wapens zouden vervaardigen.
Uit een onderzoek bleek dat, zeker bij gerichte vragen over onderwerpen zoals de oorlog in Oekraïne, prominente chatbots als ChatGPT geregeld inhoud ophoestten die rechtstreeks van Pravda-propagandasites afkomstig was – inclusief ‘bronverwijzing’. Dat gebeurde vooral bij vragen over concrete claims, zoals het broodjeaapverhaal dat de Verenigde Staten in Oekraïne biologische wapens zouden vervaardigen. Een op de drie chatbots herhaalde dat nepnieuws alsof het een feit was.
Als tactiek heeft ‘LLM grooming’ grote schaalvoordelen voor propagandisten. Je hoeft bepaalde verzinsels niet langer tot bij het beoogde publiek te krijgen via nepnieuwssites of fake profielen op sociale media: ze rollen gewoon uit de vertrouwde AI-tools die mensen vaak verkeerdelijk als een alwetend orakel aanzien.
Er staan bijna tweeduizend links naar Pravda-sites tussen de bronverwijzingen op Wikipedia.
Recenter onderzoek van het Institute for Strategic Dialogue, het Digital Forensic Research Lab en CheckFirst bevestigden het probleem. Links naar Pravda-sites doken bijvoorbeeld ook op in het factchecksysteem Community Notes op X, of op honderden externe websites en blogs die ze als bron legitimeerden. Er bleken zelfs bijna tweeduizend links naar Pravda-sites tussen de bronverwijzingen op Wikipedia te staan. Dat laatste heeft dan weer een funest effect op het citeren van nepnieuwssites door AI-chatbots, want die halen vaak de mosterd bij Wikipedia.

Gegevensvacuüm
Maar een recente studie in de Harvard Kennedy School Misinformation Review nuanceerde het verhaal over ‘bronnenvergiftiging’ door pro-Russische nepnieuwssites. Dat onderzoek wees uit dat ongeveer 5 procent van de antwoorden van prominente AI-chatbots Pravda-desinformatie herhaalde, en slechts 8 procent verwees naar nepnieuwssites die gelieerd waren met het Kremlin. Wanneer Pravda-sites aangehaald werden in de antwoorden van chatbots, lag dat eerder aan het fenomeen van een ‘gegevensvacuüm’ of informatieschaarste over bepaalde onderwerpen.
Omdat chatbots geprogrammeerd zijn om zo vaak mogelijk een antwoord te geven op vragen van gebruikers, kan het ernstig fout lopen wanneer bijna alle beschikbare informatie over een bepaald onderwerp afkomstig is van nepnieuwssites. Dat kan bijvoorbeeld wanneer een nepverhaal nog maar net gelanceerd is, en er nog geen factchecks over zijn verschenen. In dat scenario is het risico dat een verzonnen verhaal opduikt bij een AI-chatbot groter.
Niet dat die nuance helemaal geruststelt. Wanneer in de gevestigde pers moeheid optreedt over onderwerpen zoals de oorlog in Oekraïne, het volume aan nieuwsartikels daalt, en nepnieuwsnetwerken zoals Pravda ondertussen misleidende informatie uitspuwen, kan ook op die manier het informatiespeelveld bezet worden en kunnen de bronnen van AI-chatbots vergiftigd raken.

Mediawijsheid
De EU-ban op Russische staatsmedia blijkt de voorbije jaren makkelijk te omzeilen via het Portal Kombat-netwerk en andere pro-Russische online beïnvloedingsoperaties. Fysieke trollenfabrieken, waar in het verleden honderden personeelsleden op kantoor inlogden om nepnieuwsartikels en fake profielen aan te maken, zijn stilaan een ambachtelijke en ouderwetse onderneming. De automatisering en de schaal waarop vandaag met AI-tools kan worden gewerkt, zorgt voor een dagelijks aangroeiende lijst van nieuwe nepnieuwssites. Alvast aan de productiezijde van nepnieuws speelt AI dus een belangrijke rol.
Maar ook bij de consumenten is dat het geval. Uit enquêtes blijkt dat internetgebruikers steeds vaker rechtstreeks informatie aan AI-chatbots vragen, én dat ze de verkregen antwoorden ook als waarheidsgetrouw beschouwen. Op in sociale media geïntegreerde chatbots zoals Grok en Perplexity op X vragen gebruikers om in online discussies ‘het pleit te beslechten’. Met de introductie van de AI Overview-functie in Google – een soort samenvattend AI-antwoord op je zoekopdracht – zal deze vorm van informatiewinning in de toekomst nog toenemen. Dat maakt ons kwetsbaar voor LLM grooming – of dat nu al dan niet intentioneel gebeurt.
De makkelijkste manier om het fenomeen van LLM grooming te ontzenuwen, is inzetten op verhoogde mediawijsheid en correcte verwachtingen bij AI-gebruik.
De makkelijkste en meest directe manier om het fenomeen te ontzenuwen, is inzetten op verhoogde mediawijsheid en correcte verwachtingen bij AI-gebruik. Wanneer gebruikers van AI-chatbots beseffen dat de antwoorden op hun vragen gemanipuleerd kunnen zijn en ze beter alles dubbelchecken, dan daalt meteen het belang van die miljoenen artikels waarmee pro-Russische beïnvloedingsoperaties het internet overspoelen.