Hoe online-oplichters AI inzetten om u om de tuin te leiden

Ook mensen met slechte bedoelingen doen een beroep op artificiële intelligentie.

ChatGPT en andere AI-assistenten worden anno 2025 voor van alles gebruikt: van het maken van een reisplanning of schooltaken tot het luchten van psychologische problemen of zelfs het plannen van terroristische aanslagen. Het hoeft dus niet te verbazen dat ook online-oplichters AI-tools hebben ontdekt en er de manieren waarop ze mensen in de val willen lokken mee verder verfijnen.

Soms gaat het om evidente zaken die we al enkele jaren kennen. In plaats van gestolen foto’s van bestaande mensen te gebruiken voor catfishing of datingfraude, kun je met AI-beeldgeneratoren realistisch ogende portretten maken van niet-bestaande personen, wier ware identiteit niet plots kan worden ontdekt.

Phishingberichten, die bedoeld zijn om financiële of andere inloggegevens te ontfutselen, kun je met AI-chatbots bijschaven en personaliseren – je hoeft enkel het profiel van je doelpubliek te schetsen. Alleen al voor het vermijden van spelfouten en taalfouten, een euvel waarmee scammers worstelden die het Nederlands niet beheersten, heeft de opkomst van AI wonderen gedaan. De tijd waarin je een fake ‘dringend mailtje van de bank’ kon herkennen aan dt-fouten en rare uitdrukkingen, ligt al even achter ons.

Noord-Koreaanse hackers

Maar chatbots worden vandaag de dag ook gebruikt bij minder evidente oplichtingstechnieken: om malware-computercodes te schrijven, om gedeeltelijk gelekte e-mailpaswoorden te kraken of om websites van nieuwsmedia of merken na te bootsen. Zelfs telefoonscripts voor oplichters rollen eenvoudig uit een AI-chatbot wanneer je die daar om verzoekt.

Het is overigens niet alleen via de verhalen van slachtoffers dat we ontdekken hoe oplichters AI-toepassingen hanteren. Bedrijven publiceren ook geregeld rapporten over misbruiken die ze zelf hebben ontdekt bij hun gebruikers. Een rapport van Open AI uit juni 2025 beschreef bijvoorbeeld hoe Noord-Koreaanse hackers gebruikmaakten van een chatbot om fake cv’s te fabriceren, in pogingen om zich te laten inhuren als freelancers bij westerse IT-bedrijven.

De manier waarop oplichters te werk gaan, evolueert mee met de tijd. Neem nu de beruchte advertenties waarin de namen van BV’s, financiële experts of politici misbruikt worden om frauduleuze ‘beleggingsopportuniteiten’ aan te bevelen. Vroeger maakten de oplichters vooral gebruik van fake nieuwswebsites om valse artikels daarover te publiceren, vandaag de dag bevatten de advertenties vaker authentieke videobeelden – bijvoorbeeld journalist Paul D’Hoore die geïnterviewd wordt in de VRT-journaalstudio – waarbij de stem van D’Hoore en die van het journaalanker met een AI-tool ‘gekloond’ worden en die nieuwe geluidsband op de originele beelden wordt geplakt.

Superintelligentie

Artificiële intelligentie kan ook een rol spelen bij oplichtingspogingen zonder dat de tools effectief worden gebruikt. Veel mensen zien AI als een soort ‘superintelligentie’, en dat wordt geëx­ploi­teerd. Het fictieve beleggingsplatform waar de AI-versie van Paul D’Hoore reclame voor maakte, werd bijvoorbeeld aangeprezen als ‘een onlinehandelsplatform dat geavanceerde algoritmen voor kunstmatige intelligentie gebruikt om de meest winstgevende transacties op de aandelenmarkt op te sporen’.

Zelfs als oplichters dus helemaal geen AI inzetten, kan artificiële intelligentie opduiken als een soort autoriteitsargument om slachtoffers over de streep te trekken. Neem nu het fenomeen van frauduleuze webwinkels die goedkope AliExpress-prullaria zoals juwelen of kledij aan een hoge prijs verkopen alsof het luxeproducten zijn – een praktijk die ‘dropshipping’ wordt genoemd. Zulke webwinkels adverteren vaak op Facebook met advertenties die zelfs geen afbeelding van het product bevatten, maar een screenshot van een conversatie op ChatGPT. Daarin stelt iemand de vraag ‘Wat is het beste waterproof juwelenmerk?’ waarna de chatbot zogenaamd de naam van de webwinkel als antwoord geeft. (Wanneer je dat experiment herhaalt op ChatGPT, duiken er steevast andere merknamen op. De AI-chatconversatie is dan ook nep.)

Advertenties voor illegale goksites gebruikten de voorbije maanden datzelfde trucje. In een video vertelde iemand dat hij of zij ‘aan ChatGPT heeft gevraagd op welke site je het makkelijkst geld kunt verdienen’, waarna er zogenaamd een aanbeveling volgde voor een nep onlinecasino.

Hallucinaties

Een derde andere manier waarop AI-chatbots bijdragen tot online-oplichting is door gebruikers foute adviezen te geven op hun vragen over financiële kwesties. Dat begint al bij eenvoudige zaken zoals de inlogpagina’s voor onlinebankieren. Een cybersecuritybedrijf testte onlangs uit in hoeverre AI-chatbots je naar de juiste webpagina sturen: in maar liefst een op de drie gevallen kreeg je als antwoord een link naar een oude, niet-gerelateerde of zelfs nagebootste pagina. Dat houdt risico’s in nu internetgebruikers steeds vaker zoekmachines inruilen voor chatbots.

De tijd waarin je een fake ‘dringend mailtje van de bank’ kon herkennen aan dt-fouten en rare uitdrukkingen, ligt al even achter ons.

Ook wanneer mensen een vermoeden hebben dat ze mogelijk opgelicht worden, schakelen ze soms AI-chatbots in, in plaats van – zoals vroeger – zelf op onderzoek te gaan of de hulp in te roepen van een familielid of expert. ‘Is deze e-mail authentiek?’ of ‘Is dit beleggingsplatform betrouwbaar?’, bijvoorbeeld. Helaas hoesten chatbots op die vragen lang niet altijd correcte antwoorden op. Het probleem van die zogenaamde ‘hallucinaties’ – antwoorden met foute of verzonnen informatie – is de voorbije jaren niet opgelost raakt. Onderaan de chatbotconversaties staat geregeld een waarschuwing – ‘ChatGPT kan fouten maken. Controleer belangrijke informatie’ – maar talloze gebruikers namen niettemin klakkeloos aan wat er uit ChatGPT en andere tools komt gerold.

Volgens recent onderzoek van de Amerikaanse Northeastern University zullen de bestaande chatbots voor breed gebruik zonder specifieke training nooit in staat zijn om op betrouwbare wijze scams te herkennen.

Zelfs telefoonscripts voor oplichters rollen eenvoudig uit een AI-chatbot wanneer je die daar om verzoekt.

Truken van de foor

Dat oplichters AI inschakelen, betekent ook dat potentiële slachtoffers – en dat zijn we allemaal – permanent nieuwe tips moeten krijgen die hen waarschuwen voor de nieuwste truken van de foor. De oude aanbevelingen om te letten op spelfouten in phishingmails hebben nog weinig zin wanneer ook malafide figuren uit Rusland of Vietnam met ChatGPT perfecte Nederlandse zinnen kunnen maken.

Maar het probleem ligt dus ook deels bij het imago van AI als een soort onfeilbare ‘superintelligentie’. Dat oplichters hun scams aan de man proberen te brengen met het argument ‘Kijk maar, zelfs ChatGPT heeft het gezegd!’, bewijst dat bepaalde gebruikers te veel belang hechten aan de output van wat vandaag nog steeds feilbare AI-tools zijn.

Chatbots zullen zonder specifieke training nooit in staat zijn om scams te herkennen.
Reageren op dit artikel kan u door een e-mail te sturen naar lezersbrieven@knack.be. Uw reactie wordt dan mogelijk meegenomen in het volgende nummer.

Partner Expertise