‘Nee, dit beeld is wel degelijk echt’: hoe internettrollen authentieke video’s als AI-filmpjes proberen weg te zetten

Een still uit een video van een gemaskerde veiligheidsagent die wuift en hartjestekens maakt naar Palestijnen die aanschuiven voor voedselbedeling. © Kassy Akiva op X

De razendsnelle evolutie van video’s gegenereerd met behulp van artificiële intelligentie verandert onze omgang met de werkelijkheid. Ze zorgt er niet alleen voor dat we een eigen werkelijkheid kunnen scheppen, maar ook dat we échte gebeurtenissen kunnen ontkennen.

Een video van slechts zeventien seconden, gefilmd in de Gazastrook, werd vorige week een van de meest bediscussieerde beelden op sociale media. In de video focust de camera afwisselend op rijen Palestijnse burgers die, opeengehoopt tussen hekkens, wachten op voedselbedeling, en op een gemaskerde en gewapende veiligheidsagent die naar hen wuift en hartjestekens maakt.

De dreiging van hongersnood en de chaotische humanitaire hulp in Gaza zijn sowieso al veelbesproken, maar nu ging de discussie over iets anders: heel wat mensen noemden de beelden ‘nep’. Of meer specifiek: ‘gemaakt met AI’.

De video werd op sociale media verspreid door een journaliste van The Daily Wire, een conservatieve Amerikaanse mediaorganisatie met een duidelijk pro-Israëlisch standpunt. Het waren vooral aanhangers van de Palestijnse zaak die hen op sociale media beschuldigden van misleiding: ‘Dit is het eerste geval dat ik ben tegengekomen van een “officiële journalist” die een nep AI-video plaatst’, klonk het bezorgd.

Iedereen zal ervoor kiezen om alleen te geloven wat hij of zij wil.

‘Het is in het algemeen nog steeds mogelijk om AI van echte beelden te onderscheiden, maar dat zal niet lang meer duren.’

Alleen: die beelden waren helemaal niet nep. Journalisten van de Amerikaanse televisiezender NBC en andere factcheckers verifieerden dat het ging om authentieke beelden uit Gaza. Wat is er precies gebeurd?

Voormalig diplomaat Michel Duclos: ‘Niemand heeft de middelen om Israël te stoppen, zelfs de VS niet’

Feit en fictie

De lancering van Veo 3, de nieuwe AI-videomaker van Google Deepmind, zorgde vorige maand voor een schokgolfje in de wereld van de AI-technologie. Hoewel die de voorbije jaren bekendstaat om haar razendsnelle ontwikkelingen, is de kwaliteit van de AI-video’s die uit het nieuwe model van Google komen gerold er snel op vooruitgegaan. Fotorealistische beelden en synchroon geluid leiden tot een bijna perfecte nabootsing van videogenres zoals influencervideo’s en zelfs journaalitems.

‘Hier is de wereld niet klaar voor’, klonk het. Er wordt gevreesd voor een massale misleiding van het brede publiek met door AI gecreëerd fake news dat niet of slechts met veel moeite van de werkelijkheid te onderscheiden valt. Onterecht is die bezorgdheid zeker niet, zo bleek al de voorbije weken. Op sociale media circuleerden video’s die de gevolgen toonden van de recente aardbeving in Myanmar of van aanvallen van Houthi-rebellen op de luchthaven van Tel Aviv – spectaculaire beelden, dat wel, maar volledig met AI gemaakt. Ze hebben heel wat mensen om de tuin geleid.

Vaak spelen zulke AI-beelden een rol in een mengvorm van feiten en fictie, in de eerste plaats gedreven door de enorme dorst van de klassieke en sociale media naar – liefst bewegende en spectaculaire – beelden. Online influencers en socialemediakanalen zoeken steeds nieuwe content, want hun verdienmodel staat of valt bij clicks en aandacht.

Bij gebrek aan beeldmateriaal wordt dan vaak beroep gedaan op AI-beelden – een beetje zoals dat voorheen al gebeurde met 3D-simulaties of met oude, uit de context gehaalde video’s. De invloed van AI is ook te zien in een soort hybride nepvideo’s, die gebaseerd zijn op een echte foto van een gebeurtenis die vervolgens met AI tot een video ‘geanimeerd’ wordt.

Leugenaarsdividend

Maar met de betwiste video van de voedselbedeling in Gaza was dus precies het omgekeerde aan de hand. Het ging om authentieke beelden die ervan verdacht werden met AI te zijn gemaakt. Het is kenschetsend voor de andere kant van de AI-medaille: de vrees dat het loutere bestaan en de technologische mogelijkheden van AI ervoor zullen zorgen dat beeldconsumenten níéts meer als echt aanvaarden. Of dat iedereen ervoor zal kiezen, op basis van buikgevoel of vooroordelen, om alleen te geloven wat hij of zij wil.

Vandaag hebben we allemaal de facto een Hollywoodstudio in onze broekzak.

Die situatie wordt soms het ‘leugenaarsdividend’ van nepnieuws of van AI genoemd. Een politicus die met een verborgen camera gefilmd wordt terwijl hij zaakjes regelt die het daglicht niet mogen zien, kan – relatief ongestraft – zijn kiezers ervan proberen te overtuigen dat het belastende beeldmateriaal ‘met AI vervaardigd’ is.

En er zullen altijd mensen zijn die vatbaar zijn voor dat argument, omdat ze de werkelijkheid liever niet aanvaarden. Zij kunnen zich optrekken aan de verbluffende mogelijkheden van AI om hun Glaubensunwilligkeit te voeden. Op die manier wordt artificiële intelligentie een ideaal excuus om je geweten te sussen – ‘Rustig maar, het is waarschijnlijk slechts AI.’

Hollywood in je broekzak

Kunnen factcheckers in het licht van deze evolutie beter hun boeltje pakken? Toch maar niet, want ondanks een enorme schaalvergroting verandert er fundamenteel niet zoveel. De klassieke technieken om de herkomst van beelden te achterhalen kunnen ook op AI-beelden worden toegepast. Neem nu het terugvinden van de originele bron: vaak zijn makers heel open over het feit dat het om AI-gegenereerde beelden gaat, maar raakte die context bij de verspreiding ergens onderweg verloren.

BBC Verify kon bijvoorbeeld aantonen dat de vermeende video van de naweeën van de aardbeving in Myanmar in werkelijkheid met een AI-videotool was gemaakt, omdat van de oorspronkelijke versie een watermerk met het logo van een AI-bedrijf was afgeknipt.

De focus en de werklast van factcheckers zullen verschuiven naar het verifiëren van échte beelden.

In het verleden bestonden er al technieken om nepbeelden te maken – door gebeurtenissen daadwerkelijk in scène te zetten, beelden te bewerken met Photoshop, enzovoort. Ook in het verleden bestond dus al de mogelijkheid om de waarachtigheid van beelden in twijfel te trekken. Alleen was dat tijdrovender en vergde het meer behendigheid dan met AI. Wie wilde insinueren dat de beelden van de maanlanding in scène gezet waren, moest al geloven in een enorm complot met een complete filmcrew en tientallen betrokkenen. Vandaag heeft iedereen die dat wil – en die er een aantal euro voor veil heeft – de facto een Hollywoodstudio in zijn broekzak.

Zodra het internet definitief overspoeld raakt met AI-beelden, zullen de focus en de werklast van factcheckers waarschijnlijk automatisch verschuiven naar het verifiëren van échte beelden. Die AI-tsunami komt er sowieso aan. Demis Hassabis, de ceo van Google Deepmind, sprak tien dagen na de lancering van Veo 3 al over een output van ‘miljoenen video’s’. Waar je in het verleden op de Knack-website dus vooral factchecks kon lezen over schaarse, misleidende AI-beelden die viraal gingen, zal je door het leugenaarsdividend in de toekomst vaker titels lezen die net het omgekeerde concluderen: ‘Nee, dit beeld is wel degelijk echt’.

Hoe artificiële intelligentie ook de geschiedenis kan vervalsen

Reageren op dit artikel kan u door een e-mail te sturen naar lezersbrieven@knack.be. Uw reactie wordt dan mogelijk meegenomen in het volgende nummer.

Partner Content