Mogen AI-beelden gebruikt worden in politieke en maatschappelijke campagnes?

Een AI-nepbeeld van een overspelige Barack Obama.

Moeten we het gebruik van toepassingen van artificiële intelligentie (AI), zoals kunstmatige beelden, in politieke en maatschappelijke campagnes tolereren? En wat zijn de risico’s van regelgeving voor AI?

Dit artikel verscheen eerder al op 5 juni 2023.

Vergis u niet: afbeeldingen gemaakt met beeldgeneratoren op basis van artificiële intelligentie (AI) – zoals DALL-E of Midjourney – worden nu al gebruikt in politieke en maatschappelijke campagnes om de publieke opinie te beïnvloeden. Amnesty International vestigde onlangs de aandacht op Colombiaans politiegeweld met een AI-beeld van een jonge vrouw die gearresteerd werd door oproerpolitie. En in de Verenigde Staten loste de Republikeinse Partij een campagnevideo die zelfs integraal bestond uit AI-gegenereerde beelden van een eventuele tweede ambtstermijn van Joe Biden. In beide gevallen kwam daar veel kritiek op.

Overspel

Er bestaan goede redenen om een beroep te doen op AI-beelden. Amnesty verwees bijvoorbeeld naar de privacy van betogers als motief om geen echte foto te gebruiken. Het is ook goedkoper dan een zoektocht naar geschikt beeldmateriaal in fotodatabanken of dan het inhuren van een fotograaf. Met AI maak je in een handomdraai afbeeldingen die naadloos aansluiten bij de boodschap die je wilt uitdragen. Je vermijdt bovendien dat factcheckers je betrappen op uit de context gehaalde beelden, zoals Donald Trump overkwam bij een recente Facebook-advertentie: die was gericht tegen het beleid van Biden, maar er waren foto’s in verwerkt van een brandende auto en migranten die een rivier overstaken die bleken te dateren van zijn eigen presidentschap.

(Lees verder onder de preview)

Maar AI-beelden zijn een tweesnijdend zwaard. Als campagnes kunstmatige foto’s gebruiken om een probleem te illustreren, kan het publiek zich ook beginnen af te vragen of dat probleem wel daadwerkelijk bestáát. Bovendien is het kinderlijk eenvoudig geworden om ronduit lasterlijk beeldmateriaal te maken dat mensen opjut of reputaties beschadigt. Wil je een Joodse politicus voorstellen in de stijl van een authentieke nazicartoon? Perfect mogelijk. Een minister die grijnzend een enveloppe met geld in zijn binnenzak propt? Vroeger vereiste het wat Photoshop-skills of een goede cartoonist, vandaag levert een AI-generator je het gewenste beeld binnen enkele seconden af.

Vorige week nog illustreerde een twitteraar dat met relatief overtuigende artificiële beelden van Amerikaanse politici in ondergoed, die in morsige hotelkamers ‘betrapt’ worden bij overspel – Obama zelfs met een man. Natuurlijk zou, na verloop van tijd, altijd wel duidelijk worden dat zulke beelden nep zijn, maar bij een nek-aan-nekrace kan zo’n op verkiezingsdag gelanceerd AI-beeld mogelijk genoeg kiezers beïnvloeden om het verschil te maken.

Hetzelfde probleem bestaat ook voor het trainen van nagebootste artificiële stemmen. Wat als een malafide actor een stukje audio verspreidt waarin de nepstem van een politicus allerlei controversiële dingen uitkraamt? Of wat als fangroepen van beroemdheden een vals AI-voicebericht krijgen van hun favoriete ster, met een oproep om voor een bepaalde partij te stemmen?

Watermerk

Tot nog toe viel uit de stijl van AI-beelden of uit kleine foutjes nog wel te achterhalen of het om een product van een AI-generator ging. Maar dat zal wellicht al in de nabije toekomst niet langer mogelijk zijn. En sowieso trapt nu al een deel van het publiek in kwalitatieve deepfakebeelden. De roep om regelgeving klinkt luid, maar hoe moeten die regels eruitzien?

Sommige bedrijven hebben aangekondigd dat ze AI-gegenereerde beelden zelf op een bepaalde manier gaan labelen. Zo stelde Google voor om onzichtbare watermerken toe te voegen die ook door hun eigen zoekmachine kunnen worden herkend. Er bestaan verschillende andere cryptografische manieren om AI-beelden te labelen, of hun oorsprong in de metadata bij te houden. Ook fysieke disclaimers of signalen komen al voor – zo plaatst beeldgenerator DALL-E op elk product een aantal gekleurde vierkantjes.

Maar wérken zulke labels wel? Zeker zolang ze niet universeel toegepast worden. Meer nog: wanneer sommige beeldgeneratoren labels aanbrengen en andere niet, kan er verkeerdelijk van worden uitgegaan dat alles waar een label ontbreekt sowieso ‘echt’ is. Vaak vallen fysieke watermerken ook simpel te omzeilen door een screenshot van de afbeelding te maken of door de rand ervan af te knippen. De meeste sociale media verwijderen ook alle metadata van afbeeldingen wanneer ze online geplaatst worden, wat meteen de oorsprong verhult. En zelfs gelabelde deepfakes raken soms verspreid in een andere context waar ze zonder veel scepsis voor echt worden aangezien.

De AI-industrie is verdeeld over een wettelijk kader voor artificiële intelligentie – een deel van de bedrijven pleit vooral voor zelfregulering, een ander deel heeft zich uitgesproken voor een regelgevend kader. In ieder geval hebben de grote bedrijven die nu al AI-producten leveren – zoals Google of OpenAI, dat achter ChatGPT zit – een enorme voorsprong wanneer hun concurrenten aan regels zullen worden gebonden terwijl zijzelf hun product in alle vrijheid konden ontwikkelen.

(Lees verder onder de preview)

Tot slot klinken ook waarschuwingen dat de toekomstige AI-regels niet zo breed en verreikend mogen zijn dat ze de vrijheid van meningsuiting inperken. Als overheden beeld, geluid en video die gemaakt zijn met AI anders gaan bejegenen dan ‘klassieke’ beelden, kan dat problemen opleveren voor de vrijheid van meningsuiting. Stel bijvoorbeeld dat alle AI-gegenereerde beelden een auteurswatermerk moeten krijgen: dat zou al indruisen tegen het recht op anonimiteit.

Cartoons

Moeten we als factcheckers dan het bijltje erbij neergooien? Is de strijd tegen AI en het probleem om te bepalen wat echt is en wat niet onbegonnen werk? Toch niet. Om te beginnen is het probleem met het verspreiden van vervalste beelden al veel ouder dan AI. De meest amateuristische gefotoshopte prentjes blijven al jaren viraal gaan, terwijl je in één oogopslag kunt zien dat ze nep zijn. Deepfakes kun je met dezelfde aanpak evengoed ontmaskeren.

Maar ook in een wereld met perfecte regels over de herkomst en verificatie van AI-beelden kan artificiële intelligentie een maatschappelijk probleem vormen, met name bij beeldvorming en propaganda. AI kan zelfs helpen om politieke en maatschappelijke boodschappen beter te microtargeten. Het gebruiksgemak van beeldgeneratoren maakt het mogelijk om het publiek non-stop te bombarderen met negatieve, AI-gegenereerde beelden van bepaalde bevolkingsgroepen waar je een hekel aan hebt. Een politicus van de Duitse uiterst rechtse partij Alternative für Deutschland gebruikte eerder dit jaar al een AI-beeldgenerator om ‘foto’s’ te maken van een groep boze, schreeuwende allochtonen en een huilende blonde vrouw. En zelfs al weet het publiek dat een beeld duidelijk fake is, het kan toch mentaal blijven kleven.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content