‘AI-slop’ – digitale rommel gemaakt met artificiële intelligentie – overspoelt het internet. Sommigen omarmen het als een welkom alternatief voor de realiteit.
Op 11 december deelt opiniemaakster Mia Doornaert een hartverwarmende getuigenis op het sociale netwerk X. Een Amerikaanse trucker genaamd ‘Big Joe’ vertelt erin hoe hij ooit om twee uur ’s nachts, langs een verlaten weg in Nebraska, een vrouw met autopech een lift gaf naar het ziekenhuis waar haar dochter op dat moment geopereerd werd. Het voorval, zo schrijft Big Joe, inspireerde hem tot het opstarten van Code Angel: een initiatief van truckers om altijd te stoppen en mensen te helpen die een rit of een andere vorm van assistentie nodig hebben.
Dat Code Angel-netwerk, zo klinkt het verder in het verhaal, zou in 2025 1200 mensen hebben geholpen, gaande van lifters tot slachtoffers van kidnapping of mensen in medische noodsituaties. Er is ondertussen zelfs een Code Angel-app, vertelt Big Joe. De vrachtwagenchauffeur roept op om zijn boodschap te verspreiden en contact op te nemen met de ‘reddende engelen van de autosnelweg’ wanneer je in de problemen raakt op de baan.
Wazige vlekken
Bij het verhaal staat een foto van de menslievende trucker: een oudere man met een lange grijze baard, van top tot teen gekleed in blauwe jeans en een truckerspetje. Hij poseert naast de cabine van zijn vrachtwagen. Maar als je op de details let, kloppen er allerlei zaken niet. De achteruitkijkspiegels hebben een vreemde plaats. Op de kledij van de trucker en de binnendeur van de vrachtwagen duiken wazige, uitgesmeerde vlekken op. De logo’s op het jasje en de pet van Big Joe zijn onleesbare krabbels. De afbeelding blijkt gemaakt te zijn met een AI-beeldgenerator. Nep, dus.
Het verhaal duikt op op verschillende sociale media, in verschillende landen. ‘Big Joe’ heet dan plots ‘Hank Dalton’ of in India ‘Ramesh Kumar’.
Wie op zoek gaat naar Big Joe, de truckers uit het Code Angel-netwerk of naar de hulp-app in kwestie, komt van een koude kermis thuis. Het verhaal is namelijk van a tot z verzonnen. Big Joe bestaat niet, Code Angel evenmin. Het bericht en de bijbehorende illustratie zijn een voorbeeld van wat ‘AI-slop’ genoemd wordt: digitale rommel, gemaakt met AI, voor een miljoenenpubliek dat de berichten niet als fictief herkent.
Verdienmodel
Doornaert is niet de enige die het verhaal deelde. Alleen al die ene tweet op X bereikte anderhalf miljoen mensen. Wie wat zinnen uit het verhaal googelt, vindt talloze kopieën van de tekst terug, op verschillende sociale media, in verschillende landen. ‘Big Joe’ heet dan plots ‘Hank Dalton’ of in India zelfs ‘Ramesh Kumar’. De afwijkende versies worden geïllustreerd met verschillende andere AI-plaatjes van stoere truckers met een peperkoeken hart.
Wie heeft baat bij het verzinnen van dergelijke onzinverhalen? De tweet die Doornaert deelde, is afkomstig van een profiel dat ‘Mr. Commonsense’ heet. Het heeft bijna 200.000 volgers en beschikt over een zogenaamd ‘blauw vinkje’ dat het in aanmerking laat komen voor de ‘makersbonussen’ van X. Dat is een systeem waarbij wie vaak populaire berichten plaatst maandelijks aanspraak kan maken op een percentage van de reclame-inkomsten van het platform.
Volgens de recent geopenbaarde locatiegegevens van X bevindt de eigenaar zich in ‘westelijk Azië’. Het is dan ook een typisch profiel dat zich specialiseert in ‘engagement bait’ als verdienmodel – een soort emotioneel lokaas, met vlotte content die zich makkelijk laat delen, meestal door in te spelen op de emoties van het publiek. In het bijzonder heeft Mr. Commonsense zich toegespitst op het genre van hartverwarmende verhalen die mensen ontroeren en hen sneller overhalen om op de deelknop te duwen. Een deel van de meer dan 130.000 berichten die het profiel plaatste, bestaat uit klassieke verhalen die al langer de ronde doen en vaak gewoon waar zijn, een ander deel is – in toenemende mate – AI-slop.
Maduro
Bij een fictief AI-verhaaltje over lieve vrachtwagenchauffeurs is de kans op maatschappelijke schade eerder klein. Kwaad aanrichten bij wie erin trapt, kan niet echt – tenzij iemand in een noodsituatie zou hopen op een lift van Code Angel-truckers die in werkelijkheid niet bestaan. Hoogstens kunnen malafide actoren al wie de nepverhalen heeft gedeeld makkelijker identificeren en viseren als goedgelovige doelwitten voor online oplichting, phishing en andere scams.
Maar niet alle AI-slop is onschuldig. ‘AI content creators’ die focussen op nieuws of maatschappelijke thema’s zorgen al een paar jaar voor verwarring. Voordat de Amerikaanse overheid beelden verspreidde van de onlangs uit Caracas ontvoerde Venezolaanse president Nicolás Maduro, circuleerden op X al meer dan een dozijn ‘foto’s’ van de gearresteerde Maduro. Stuk voor stuk waren ze in elkaar geflanst met AI-beeldgeneratoren als Grok of Gemini. Enkele uren na de aanslag op een Joods festival op het strand Bondi Beach in Sydney, Australië eind december, verscheen een neppe nieuwswebsite met een AI-gegenereerd verhaal over de vermeende identiteit van de ‘held van Bondi Beach’, die een van de terroristen wist te ontwapenen. Die identiteit was vals, maar de fake nieuwssite zaaide een tijdlang verwarring op sociale media.
Vooral in een nieuwsvacuüm is het heel makkelijk geworden om met AI-toepassingen de blinde vlekken in te vullen. De AI-producten worden gretig omarmd. X-topman Elon Musk zelf deelde bijvoorbeeld op X een virale compilatie van AI-video’s waarin huilende Venezolanen de arrestatie van Maduro vierden. Het op waarheidsgehalte controleren van al die met AI gemaakte beelden en verhalen is een zware last voor nieuwsredacties die wel nog feit van fictie willen onderscheiden.
Op X circuleerden al meer dan een dozijn ‘foto’s’ van de gearresteerde Maduro voor die daadwerkelijk aangehouden werd.
Gemberextract
Wie erop begint te letten, ziet AI-slop stilaan overal. Online advertenties voor een tandverzekering die je momenteel op Facebook kunt zien circuleren, gebruiken een AI-beeld van een gebit dat van tandsteen wordt ontdaan. AI-beelden zijn het voorbije jaar volop doorgebroken in politieke communicatie en propaganda – vooral voor negatieve beeldvorming van politieke tegenstanders. Op X wordt de AI-tool Grok volop gebruikt om pornografische afbeeldingen te maken van vrouwen die foto’s van zichzelf online hebben geplaatst. Het fenomeen strekt zich uit tot in het straatbeeld: in gangen van de Belgische stations kon je de voorbije weken een AI-reclameaffiche zien voor een vloeibaar gemberextract dat zou helpen bij vertering. Het beeld van een vrouw die aan de feesttafel een gepijnigd gezicht trekt en naar haar maag grijpt, was gemaakt met AI.
Het productiegemak en de alomtegenwoordigheid van AI-slop stelt ons voor een principiële vraag: willen we nog weten wat ‘echt’ is? Of nemen we genoegen met de virtuele werkelijkheid die AI voor ons kan maken?