Na fake foto van Julian Assange: hoe herken je nepbeelden die met AI zijn gemaakt?

Het nepbeeld van Julian Assange dat viraal ging.

Een met artificiële intelligentie gemaakte ‘foto’ van Julian Assange in de gevangenis ging viraal op sociale media. Toch blijft het mogelijk om de echtheid van beelden te achterhalen.

De Australische journalist en internetactivist Julian Assange verblijft al bijna vier jaar in de Londense gevangenis Belmarsh. De Verenigde Staten vragen zijn uitlevering voor inbreuken op de spionagewet, wegens de geheime bestanden die Assange publiceerde op WikiLeaks. Zijn medestanders hekelen al langer dat hij achter de tralies zit.

Einde maart ging op sociale media een choquerend beeld van Assange viraal: smoezelig, met gesloten ogen, zogenaamd ‘gelekt uit de gevangenis’. Maar de foto was nep, gemaakt met beeldgenerator Midjourney op basis van artificiële intelligentie. Hoe kun je dergelijke beelden herkennen?

(Lees verder onder de preview)

Foutjes

Beeldgeneratoren zoals Midjourney en Stable Diffusion leveren spectaculaire resultaten op. Toch zijn ook op de zogenaamde gevangenisfoto van Assange enkele ‘foutjes’ te zien die erop wijzen dat het een nepbeeld is: onregelmatige betegeling in de muur, wazige vlekken en onlogische kleuren, en misschien vooral wel de rechterneusvleugel van Assange, waar een piercing in lijkt te zitten. Beeldgeneratoren worstelen vaak ook met het afbeelden van vingers, tanden en teksten.

Toch zijn AI-beelden al zo overtuigend dat je ze niet in één oogopslag herkent wanneer je er argeloos voorbij scrolt. Bovendien zorgt elke update van de technologie ervoor dat ze er almaar fotorealistischer uitzien. Wat als de laatste oneffenheden ook gladgestreken worden?

Geen paniek

Eigenlijk hoeft dat geen probleem te zijn. Omgaan met AI-beelden kan gewoon op dezelfde manier als met andere spectaculaire claims of foto’s die circuleren op sociale media.

De eerste stap is altijd een moment van gezonde argwaan voordat je iets verder verspreidt op sociale media. Het meeste nepnieuws probeert in te spelen op je emoties en wil woede, verontwaardiging of medelijden opwekken. Het beeld van een verfomfaaide Assange in de gevangenis past zeker in dat stramien. De tweede stap is een inschatting van de bron: wie deelt het beeld op sociale media? Acht je die bron betrouwbaar, en wat zou de agenda van de persoon in kwestie kunnen zijn?

Stap drie is zoeken naar betrouwbare bronnen – de pers, bijvoorbeeld. Maar in de media was de foto van Assange nergens te zien. Meer nog, zelfs de echtgenote van Assange, die zeer actief is op sociale media, had het beeld niet gedeeld. Stap vier, ten slotte, is de tracering van de oorspronkelijke bron. Ook dat was hier niet moeilijk: een knoert van een watermerk meldde dat de foto ‘eigendom van E’ was. ‘E’ blijkt een anoniem Telegramkanaal dat de zaak van Assange bepleit, en dat al gauw toegaf dat het een AI-beeld was.

Het staat buiten kijf dat AI-beeldgeneratoren het makkelijker maken om desinformatie te fabriceren en te verspreiden. Maar de klassieke verificatiemethodes van factcheckers volstaan om de echtheid ervan na te gaan – voorlopig toch.

Lees meer over:

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content