Worden factcheckers straks vervangen door AI-chatbots?

Over the shoulder view of young woman using virtual assistance technology on smartphone against illuminated coloured background. Innovation and technology. © Getty Images

Op X vragen gebruikers aan chatbots als Grok en Perplexity om berichten van anderen op hun waarheidsgehalte te toetsen. Dat loopt niet altijd goed af.

De toenemende populariteit van AI-chatbots zoals ChatGPT leidt ertoe dat gebruikers ze inzetten om advies te krijgen over de meest uiteenlopende kwesties, van tips voor een gezonde lunch tot fundamentele dilemma’s rond belangrijke levensbeslissingen. Zo verzoeken mensen chatbots om diagnoses en medisch advies. Het Federaal Agentschap voor Geneesmiddelen en Gezondheidsproducten waarschuwde recent om de antwoorden die chatbots je geven altijd af te toetsen bij je dokter of apotheker, en zeker geen medische persoonsgegevens te delen met AI-assistenten.

Ook online nepnieuws raakte door de opkomst van AI in een stroomversnelling. Het was al bekend dat oplichters en verspreiders van desinformatie de technologie aanwenden om verzonnen artikels te schrijven of valse afbeeldingen te maken. Maar vandaag maakt ook het omgekeerde fenomeen opgang: AI-chatbots waaraan men op sociale media vraagt om berichten te factchecken. Mogen menselijke factcheckers stilaan hun boeltje pakken?

‘Klopt dit @grok?’ Het is een zinnetje dat je steeds vaker leest op X, het sociale medium dat net als de chatbot Grok deel uitmaakt van Elon Musks bedrijf xAI. Sinds vorige maand kan iedereen Grok gebruiken om vragen te stellen over andere berichten op X: om samenvattingen te maken van lange tweets of video’s, om extra uitleg te krijgen over een bepaald nieuwtje of om de herkomst van een obscure afbeelding te achterhalen.

Dat heeft ertoe geleid dat X-gebruikers de chatbot ook aanwenden als een soort AI-factchecker. Al ontelbare keren werd Grok gebruikt om het waarheidsgehalte van beweringen in tweets te onderzoeken. Hetzelfde geldt voor Perplexity, een andere AI-assistent die op X aanwezig is. Wanneer de chatbot vervolgens gemaakte fouten opsomt, worden die vaak triomfantelijk onder de neus gewreven van wie de bewering heeft gemaakt.

AI-factchecks zijn een aantrekkelijk idee, in de eerste plaats omdat wie er een beroep op doet bijna ogenblikkelijk een antwoord krijgt. Ze kunnen, althans in theorie, helpen om de verspreiding van nepnieuws snel in te dammen. Maar net zoals bij medisch advies door AI-assistenten zijn de antwoorden die chatbots je voorschotelen vaak totale onzin. Dat heeft verschillende oorzaken.

AI-assistenten praten vraagstellers erg vaak naar de mond.

Allereerst is er het hardnekkige fenomeen van ‘hallucinaties’ – stellingen die chatbots integraal verzinnen, soms inclusief het bronmateriaal waarop ze gebaseerd zijn. Maar veel hangt ook af van de manier waarop de vraag wordt geformuleerd. AI-assistenten blijken vraagstellers erg vaak naar de mond te praten. Soms volstaan enkele duwtjes in een bepaalde inhoudelijke richting om het ‘gewenste’ antwoord te krijgen.

Heikel punt

Een nog fundamenteler probleem is het trainingsmateriaal van de chatbots: elk antwoord dat je krijgt, is zo betrouwbaar als de informatie waar de chatbot toegang toe had om het te reproduceren. In het bijzonder bij Grok is dat een heikel punt, omdat die deels getraind wordt op de verzamelde tweets van X-gebruikers. Het hoeft niet gezegd dat X niet bepaald kan bogen op een reputatie als betrouwbare bron.

Dat AI-factchecks de mist kunnen ingaan, werd onlangs pijnlijk duidelijk nadat een Rwandees desinformatienetwerk, in de marge van een diplomatiek conflict met België, X had overspoeld met berichten over een zogenaamde ontplooiing van een troepenmacht van honderden Belgische paracommando’s in Oost-Congo.

Toen X-gebruikers Grok vroegen of dat klopte, bevestigde de chatbot aanvankelijk het ‘nieuws’, daarbij verwijzend naar precies dezelfde nepnieuwstweets die het onderwerp waren van de factcheck. Nochtans zijn er geen Belgische para’s actief in het militaire conflict. De beelden van militairen die dat moesten bewijzen bleken uit de context gehaalde archiefbeelden uit Zuid-Amerika.

Pas nadat andere gebruikers Grok hadden gewezen op het bestaan van gemanipuleerde informatie door Rwandese spammers, werd de stelligheid van de AI-factcheck over Belgische troepen enigszins afgezwakt.

Papegaai

Het is welbekend dat chatbots het moeilijk hebben met het herkennen van betrouwbare informatie. Vorig jaar publiceerde NewsGuard, een organisatie die de betrouwbaarheid van online nieuwsbronnen onderzoekt, een rapport waaruit bleek dat de populairste chatbots in hun antwoorden geregeld naar Russische propaganda verwijzen.

Uit een rapport blijkt dat de populairste chatbots in hun antwoorden geregeld naar Russische propaganda verwijzen.

NewsGuard stelde de AI-assistenten gerichte vragen over stukjes nepnieuws die eerder verspreid waren door het Pravda-netwerk, een wereldwijde Russische informatieoperatie die via neppe klokkenluiders en nagebootste websites van lokale westerse media fake news over Oekraïne verspreidt. In bijna 1 op de 3 antwoorden verwezen de chatbots zonder voorbehoud naar die Pravda-websites, die niet als nepnieuws herkend werden.

Het fenomeen leidde de antidesinformatie-ngo American Sunlight Project recent tot de hypothese dat de ondertussen miljoenen artikels die het Pravda-netwerk op talloze websites en in allerlei talen heeft verspreid, mogelijk niet zozeer bedoeld zijn om menselijke lezers om de tuin te leiden, maar eerder voor het ‘groomen’ van AI-chatbots. Wanneer Russische desinformatie onbewust opgezogen wordt in de trainingsdata van chatbots, zal die in sommige gevallen ook getrouw gereproduceerd worden wanneer gebruikers vragen stellen over onderwerpen die met Rusland te maken hebben.

In een wereld waarin veel mensen blindelings vertrouwen op de antwoorden die chatbots hen serveren, is het corrumperen van AI-trainingsdata een verduiveld slimme strategie.

In het verleden al was het gros van de desinformatie die staten verspreidden vooral bedoeld om opgepikt en ‘organisch’ verspreid te worden door influencers – al dan niet tegen betaling. In een wereld waarin AI-assistenten alomtegenwoordig worden, en een deel van de gebruikers blindelings vertrouwt op de antwoorden die ze hen serveren, is het corrumperen van AI-trainingsdata dus een verduiveld slimme strategie.

Indien AI-bedrijven er niet in slagen betrouwbare trainingsdata te voorzien, hebben malafide nepnieuwsoperaties geen behoefte meer aan tussenpersonen, influencers of netwerken voor de verspreiding van propaganda. Via AI-chatbots beschikken ze dan over een soort papegaai die in elke smartphone, rechtstreeks en op lange termijn, de waarheid helpt te ondermijnen.

Lees meer over:
Reageren op dit artikel kan u door een e-mail te sturen naar lezersbrieven@knack.be. Uw reactie wordt dan mogelijk meegenomen in het volgende nummer.

Partner Content