Factcheck: deze virale foto die uit Gaza zou komen, is gemaakt met artificiële intelligentie

Karin Eeckhout

Op sociale media circuleert een foto van een man en vijf kinderen die gewond zouden zijn geraakt in Palestina. Het beeld is echter niet authentiek, het blijkt gemaakt met artificiële intelligentie (AI).

Deze factcheck is uitgevoerd op basis van de beschikbare informatie op de datum van publicatie. Lees hier meer over hoe we werken.

Op X deelde het account ’Palestine Culture’ een afbeelding van een man die vier kinderen draagt. Een vijfde kind loopt aan zijn hand. ‘Een beeld zegt meer dan duizend woorden’, luidt het bijschrift. De man lijkt zich een weg te banen door het puin van een appartementsgebouw.

Daarmee geeft het beeld de indruk dat de kinderen gewond zouden zijn geraakt door  Israëlische aanvallen in Gaza, tijdens het zware conflict tussen Hamas en Israël dat begon op 7 oktober 2023. Er wordt in de tweet niet gezegd wie de foto heeft gemaakt of waar en wanneer die zou zijn genomen. De post werd meer dan een miljoen keer bekeken. 

Ook op Spaanstalige accounts wordt de foto gedeeld, met de expliciete bewering erbij dat de man op de foto een held zou zijn. 

Maar het beeld is gegenereerd met kunstmatige intelligentie. Dat blijkt uit meerdere elementen, zoals het aantal en de vorm van de vingers en de tenen, de wazige gezichten, de ingevallen ogen en de misvormde ledematen. Zo heeft de baby die de man op zijn linkerarm draagt, op de foto slechts drie tenen aan de linkervoet en is de hand van een van de kinderen vervormd. Het is ook onduidelijk welke benen bij welk kind horen. Volgens BuzzFeed News zijn misvormde of ontbrekende ledematen een van de typische kenmerken van door AI gegenereerde beelden. 

De foto van de man die de vijf kinderen draagt, is verder ook nergens terug te vinden bij betrouwbare nieuwsbronnen over het huidige conflict tussen Israël en Hamas.

Niet authentiek

De Amerikaanse factcheckers van Check Your Fact onderzochten de foto al eerder. Zij kwamen eveneens tot de conclusie dat het gaat om een beeld gegenereerd met artificiële intelligentie. Ze gebruikten daarvoor de detectietool Hive Moderation. Uit hun onderzoek is gebleken dat het beeld hoogstwaarschijnlijk met het AI-programma Midjourney is gemaakt. Bovendien heeft een beeldexpert, Walter Scheirer van de University of Notre Dame in de Verenigde Staten, in een e-mail aan Check Your Fact bevestigd dat het beeld niet authentiek is.

Ook de Spaanse factcheckers van Maldita onderzochten het beeld. Ook zij kwamen tot de conclusie dat verschillende elementen in het beeld wijzen in de richting van AI. Ze konden niet achterhalen waar het precies vandaan kwam, maar via reverse image search kwamen ze erachter dat de oudste versie van het beeld werd gedeeld op 22 oktober 2023 op X, zonder vermelding van datum of bron. Ze namen contact op met het account, maar kregen geen antwoord.

Conclusie

– Op sociale media circuleert een foto van een man en vijf kinderen die gewond zouden zijn geraakt in het huidige conflict tussen Israël en Hamas.  

– Maar het beeld is niet authentiek. Het blijkt gemaakt met AI, volgens detectietools en experten.

-We beoordelen het beeld daarom als onwaar.

Bronnen

In het artikel vindt u links naar alle gebruikte bronnen.

Alle bronnen werden laatst geraadpleegd op 5 januari 2024.

Meer informatie over de factchecks vindt u op de website van Knack.

U vindt onze factchecks ook terug bij deCheckers, samen met betrouwbare factchecks van andere Vlaamse redacties.

Knack is erkend lid van het International Fact-Checking Network.

Krasse uitspraak, straf cijfer of dito feit in de actualiteit gezien?
Vul uw vraag in op de website van deCheckers met exacte bronvermelding van het citaat of stuur het naar factcheck@knack.be.


Roularta Media Group
© Roularta Media Group

Knack maakt onderdeel uit van Roularta Media Group.

Partner Content