Hoe gevaarlijk zijn deepfakes en komen ze voor in ons land?

Een deepfakeversie van de Britse Queen. Op sociale media gaat een hele nieuwe wereld van bedrog open. © Isopix

Deepfaketechnologie is in staat om beelden van gezichten te vervormen, verwisselen of uit het niets te creëren. Maar zijn deepfakes ook gevaarlijk? Komen ze voor in ons land? En hoe laten we ons niet beetnemen? Knack zocht het voor u uit.

Opvallend bericht in april van dit jaar: verschillende parlementsleden uit Letland en Nederland beweerden dat ze waren beetgenomen door een deepfake-imitator van Leonid Volkov, stafchef van de Russische oppositiepoliticus Aleksej Navalny. Navalny was kort voordien bijna fataal vergiftigd, wat heel wat verontwaardiging uitlokte in het Westen. Onder meer de Nederlandse Kamercommissie Buitenlandse Zaken had een videogesprek gehad met iemand die zich ‘met behulp van deepfaketechnologie’ zou hebben voorgedaan als Volkov. Verontrustend toch, die deepfakes, klonk het in de pers.

Enkele dagen later bleek dat het incident niets met deepfakes te maken had. Het ging om een grap van Vovan en Lexus, een Russisch duo dat al tien jaar telefoongrapjes uithaalt met prominenten. Ze worden er vaak van beschuldigd in opdracht van of tenminste uit sympathie voor het Kremlin te werken, maar over deepfaketechnologie beschikken ze niet. Hun imitatie van Volkov kwam enkel en alleen tot stand met wat make-up en belichting.

Campagnes

Niettemin worden we de afgelopen jaren geregeld herinnerd aan het gevaar van deepfakes. Dat zijn special effects die berusten op artificiële intelligentie: je voedt een algoritme allerlei beelden van een of meerdere personen, en een computermodel maakt er vervolgens een betrouwbaar gezicht van. Dat gezicht kun je vervolgens ook als een laagje op een bestaande video leggen.

De bekendste voorbeelden van deepfakes komen tot nu toe uit de entertainmentsector en uit bewustmakingscampagnes. De Britse tv-zender Channel4 liet in december 2020 een deepfakeversie van koningin Elizabeth II een ‘alternatieve kersttoespraak’ houden, die waarschuwde voor de gevaren van desinformatie. (Op het einde bracht de Queen zelfs haar versie van een populair TikTokdansje te berde.) Enkele maanden voordien had een Amerikaanse anticorruptie-ngo een filmpje verspreid met een deepfake van de Noord-Koreaanse president Kim Jong-un. Die waarschuwde de Amerikaanse burgers voor buitenlandse inmenging in de verkiezingen. Deepfakes bedoeld voor bewustmaking dus, geen oprechte pogingen om te misleiden. Maar dat misleiding toch mogelijk is, bewees columniste Mia Doornaert: zij was toevallig te gast in De afspraak op Canvas toen een fragment van het Kim Jong-un-filmpje werd getoond, en reageerde alsof om het echte beelden ging.

Deepfakes dragen bij tot een kenniscrisis bij de burger en kunnen mensen extra nihilistisch en moedeloos maken.

Ook in ons land zijn deepfakevideo’s voorlopig beperkt gebleven tot campagnemateriaal. Eerder deze zomer, in de aanloop naar het EK voetbal, werd een promofilmpje opgenomen waarin bondscoach Roberto Martinez op de Grote Markt van Brussel een praatje maakte met deepfakeversies van zijn voorgangers Guy Thys en Raymond Goethals. De milieuorganisatie Extinction Rebellion maakte vorig jaar al een deepfakefilmpje van toenmalig premier Sophie Wilmès (MR), die een verband legde tussen de pandemie en de ecologische crisis. En de vzw Vredesactie verspreidde in februari nog een video waarin een deepfakestemimitator van Vlaams minister-president Jan Jambon (N-VA) de handel tussen Vlaamse wapenbedrijven en autoritaire regimes toejuichte. Telkens werd uiteindelijk duidelijk gemaakt dat het om gemanipuleerde filmpjes ging.

Een deepfakeversie van de Britse Queen. Op sociale media gaat een hele nieuwe wereld van bedrog open.
Een deepfakeversie van de Britse Queen. Op sociale media gaat een hele nieuwe wereld van bedrog open.© Isopix

Ook in de entertainmentwereld duiken steeds vaker deepfakes op. Bepaald indrukwekkend is @deeptomcruise, een TikTokprofiel dat heel geslaagde video’s online plaatst die deepfaketechnologie combineren met een imitator van de Hollywoodster Tom Cruise. De technologische input voor @deeptomcruise komt van een landgenoot: Chris Umé uit Paal. Hij werkte nadien ook mee aan Sassy Justice, een onlinecomedyreeks die gebruikmaakt van deepfakes van onder anderen Donald Trump en Facebookbaas Mark Zuckerberg. Toch waarschuwde Umé in een interview met Knack Focus eerder dit jaar voor de technologie waarmee hij werkt: ‘Er zullen straks politici zijn die roepen dat een bezwarende video een deepfake is. Er zullen oplichters zijn die in gedeepfakete videocalls mensen geld proberen af te troggelen. Ik twijfel er niet aan dat mensen dit gaan misbruiken.’

Flooding the zone with shit

Waarin schuilt dan het gevaar van deepfakes? Zoals Umé terecht aanhaalt: paradoxaal genoeg stelt de technologie politici – en dus ook dictators – in staat om te beweren dat onfrisse maar wel degelijk authentieke beelden die hun reputatie schaden deepfakes zijn. Echte schandalen kunnen zo onder onterechte twijfel worden bedolven. Deepfakes kunnen ook de algemene kenniscrisis aanwakkeren waar de samenleving mee kampt. Actieve verspreiders van desinformatie hebben niet altijd de bedoeling om mensen van één specifieke leugen te overtuigen. Vaker gaat het om een tactiek die Steve Bannon, de strateeg van de toenmalige Amerikaanse president Donald Trump, omschreef als ‘flooding the zone with shit’: zodanig veel misleidende en tegenstrijdige informatie verspreiden dat de burger niet meer kan herkennen wat echt is en wat niet. De opkomst van deepfakes draagt bij tot die kenniscrisis en kan mensen extra nihilistisch en moedeloos maken. Wat is echt? Wat is fake? Doet het er nog toe?

Een deepfakeversie van de Britse Queen. Op sociale media gaat een hele nieuwe wereld van bedrog open.
Een deepfakeversie van de Britse Queen. Op sociale media gaat een hele nieuwe wereld van bedrog open.© Isopix

Het Center for International Governance Innovation (CIGI), een Canadese denktank die het kruispunt tussen technologie en beleid bewaakt, wees erop dat het gros van de slachtoffers die te maken krijgen met deepfakes geen politici zijn, maar vrouwen – beroemde en onbekende – wier gezichten met de technologie aan pornofilmpjes worden toegevoegd. Ja, met deepfakes kun je theoretisch gezien verkiezingen beïnvloeden, de publieke opinie bespelen en mensen oplichten, maar in de praktijk wordt het vooral aangewend voor virtuele wraakporno.

thispersondoesnotexist

Toch is er één type deepfake dat ook politiek problematisch kan zijn: de deepfakeprofielfoto. Met een GAN, een Generated Adversarial Network, is het mogelijk om uit allerlei portretten van bestaande personen een gezicht van een onbestaande persoon te maken. Websites als thispersondoesnotexist.com genereren zo ontelbare unieke portretten, die er vaak bijzonder levensecht uitzien. Wanneer malafide actoren op sociale media die gebruiken als profielfoto, gaat een hele nieuwe wereld van bedrog open. Dat bleek al herhaaldelijk in het verleden.

In 2019 ontdekte Associated Press op het professionele netwerkplatform LinkedIn Katie Jones, een knappe roodharige vrouw die zich voordeed als een medewerkster van een politieke denktank in Washington D.C. ‘Katie’ had al contacten gelegd met tientallen medewerkers, onder wie hooggeplaatste ambtenaren. Maar ze bestond niet echt, en haar profielfoto was een GAN-deepfake. Het ging vermoedelijk om een poging tot spionage.

In de aanloop naar de Amerikaanse presidentsverkiezingen waren er verschillende verhalen die focusten op het getroebleerde leven van Hunter Biden, de jongste zoon van Democratisch presidentskandidaat Joe Biden. Aanhangers van diens tegenstander Donald Trump verspreidden toen een rapport van 64 pagina’s over Hunter Biden, geschreven door een zekere Martin Aspen, zogezegd een Zwitserse analist van het inlichtingenbureau Typhoon Investigations. Maar de profielfoto die Aspen gebruikte op Twitter en LinkedIn, een portret van een grijze, bebaarde man, was ook een deepfake. Martin Aspen bestond niet echt. Typhoon Investigations trouwens evenmin.

Het inzetten van deepfakeprofielfoto’s gebeurt ook op grotere schaal, voor valse profielen die als individueel aangestuurde handpoppen of als geautomatiseerde botnets bepaalde boodschappen pushen. In 2019 haalde Facebook een netwerk van 600 Vietnamese Facebookaccounts offline die zich middels deepfakeprofielfoto’s voordeden als Amerikanen en pro-Trumpgroepen beheerden. Ze hadden al een bereik van 55 miljoen volgers verzameld. En vorige week nog werd een netwerk van 350 valse profielen ontdekt, deels voorzien van GAN-profielfoto’s, dat op Facebook, Instagram, YouTube en Twitter pro-Chinese propaganda verspreidde. In tegenstelling tot stockfoto’s uit databanken of gestolen foto’s van nietsvermoedende mensen vallen dergelijke foto’s nergens anders op het internet terug te vinden, waardoor de valse profielen die ze hanteren minder eenvoudig te identificeren zijn.

Ik wilde een anoniem profiel en dus een foto van iemand die niet echt bestond. Op die manier doe ik niemand kwaad met mijn soms ongezouten mening op Twitter.’ een anonieme Vlaamse twitteraar

Eddy Panini

Deepfakeprofielfoto’s vind je ook dichter bij huis. In april 2021 kwam bijvoorbeeld het Nederlandse Twitterprofiel ‘Eduard van Vlugtenstahl’ onder de aandacht. Die naam bleek fictief, de profielfoto was een GAN-deepfake. En toch werd een tweet van Van Vlugtenstahl, waarin hij beweerde dat zijn ex-schoonvader overleden was na zijn coronavaccinatie, gedeeld door Thierry Baudet, voorman van de uiterst rechtse Nederlandse politieke partij Forum voor Democratie. Baudet en zijn partij staan bekend om hun antivaccinatiestandpunten. Na wat ophef over het valse profiel veranderde Van Vlugtenstahl zijn naam in Eddy Panini, en zijn profielfoto door een emojiversie ervan. Het is nog niet bekend wie achter de knoppen van het profiel zat. De accounts van Panini en Van Vlugtenstahl zijn ondertussen verwijderd.

Een deepfakeversie van de Britse Queen. Op sociale media gaat een hele nieuwe wereld van bedrog open.
Een deepfakeversie van de Britse Queen. Op sociale media gaat een hele nieuwe wereld van bedrog open.© Isopix

Ook onder Vlaamse twitteraars zijn er een handvol mensen met een deepfakeprofielfoto. Gevraagd waarom ze voor zo’n foto kozen, blijkt anonimiteit hun voornaamste drijfveer. ‘De reden is simpel’, antwoordt een van de profielen. ‘Ik wilde een anoniem profiel en dus een foto van iemand die niet echt bestond. Op die manier doe ik niemand kwaad met mijn soms ongezouten mening op Twitter.’ Vaak wordt er op sociale media schamper gedaan over accounts die niet beschikken over een echte naam of een profielfoto. Met een geloofwaardige profielfoto – zelfs al is het een deepfake – kom je dus sowieso betrouwbaarder over.

#generatiewatjes

Soms is de bedoeling van deepfakeprofielfoto’s niet meteen duidelijk. Vorige maand verscheen op Twitter bijvoorbeeld ‘An van Boom’, een Twitterprofiel dat zich presenteert als een Vlaamse vrouw van middelbare leeftijd. Ze is ‘mama van 2 superkids’ en spreekt zich onder meer uit tegen vaccinatie en de ‘woke #generatiewatjes’. Het gros van haar tweets lijkt enkel bedoeld om mensen op stang te jagen en een generatieconflict op de spits te drijven. Wanneer Nina Derwael een gouden medaille wint op de Olympische Spelen, tweet ‘An’ bijvoorbeeld: ‘Turnen is tegenwoordig ook al een “sport” #generatiewatjes.’ Op prinses Elisabeth die in een interview vertelt dat ze tijdens haar stage in het leger gewend raakte aan vroeg opstaan, reageert ‘An’ met: ‘Zes uur opstaan noemt ons prinsesje “vroeg”. Op die leeftijd had ik het vuur al aangemaakt, ontbijt voor iedereen gemaakt en begon ik in de tuin te werken. Zes uur, dat was uitslapen op een hoogdag. Ga daarmee naar de oorlog. #generatiewatjes.’ Die tweet lokte allerlei reacties uit: meer dan 150 mensen, vooral jongeren, reageerden er verontwaardigd op.

Bestaat An? Komt ze uit Boom? Dat valt te betwijfelen: de twee foto’s die ze op Twitter gebruikt, zijn versies van dezelfde GAN-deepfake. Zelfs een foto van haar overleden kat Tiger is vals: die komt van thiscatdoesnotexist, de – geen grap – kattenversie van de deepfakegenerator thispersondoesnotexist. Misschien gaat het gewoon om trolling, en zit achter dat account iemand die er genoegen in schept om op sociale media chaos te creëren of reacties uit te lokken.

Zijn deepfakes dus een gevaar? Zeker. Maar ze zijn allesbehalve een vereiste om mensen op sociale media voor het lapje te houden. Elke dag laten mensen zich sowieso al opjutten door internettrollen. Elke dag trappen mensen sowieso al massaal in gefotoshopte afbeeldingen, in satirische artikels die ze voor waar aannemen, of in stukjes video die uit de context zijn gehaald. Oplichters, vriendschapsfraudeurs en phishers hebben ook geen deepfakefoto’s nodig om talloze slachtoffers te maken. Het klopt dat deepfakeprofielfoto’s het iets moeilijker maken om valse profielen te identificeren, maar het komt er vooral op aan om even alert te blijven als voorheen. Anders loop je het risico dat je op sociale media in contact komt met gesprekspartners – en katten! – die niet echt bestaan.

Hoe herken je een deepfakeprofielfoto?

Deepfakeprofielfoto’s kun je – voorlopig nog – relatief simpel herkennen aan bepaalde typische glitches, artefacten en oneffenheden. Die bevinden zich meestal aan de randen en op typische plekken: de kraag van de afgebeelde persoon, de oorringen die niet overeenstemmen, de kleur van de ogen die verschilt. De achtergrond is vaak abstract en wazig, of er zijn vreemde, verwrongen objecten op te zien. Als de persoon op een deepfakefoto glimlacht, zijn er vaak te veel tanden te zien. Haren komen uit de vreemdste plekken tevoorschijn. En als het gaat om een botnet: wanneer je verschillende deepfakefoto’s boven elkaar legt, blijkt vaak dat de positie van de ogen op elke foto identiek is – wat wel bijzonder toevallig zou zijn.

Als je toch nog twijfelt, bestaat er ook gespecialiseerde software, zoals die van Sensity.ai. Op die website kun je een portret uploaden waarvan je vermoedt dat het om een deepfake gaat. Enkele seconden later krijg je het resultaat: een percentage met een inschatting van het deepfakegehalte van de foto. Zo konden we bijvoorbeeld met zekerheid achterhalen dat de profielfoto van An van Boom niet echt is.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content