Dries Van Craen

‘Je stemgeluid is even uniek als een vingerafdruk, maar juridisch vogelvrij’

Dries Van Craen AI-onderzoeker Thomas More-hogeschool

‘Cybercriminelen kunnen steeds makkelijker jouw vertrouwen misbruiken dankzij artificiële stemmen. Moet je vrezen voor je stemrecht?’ vragen AI-onderzoekers Dries Van Craen en Eulaly Vanroelen van Hogeschool Thomas More. Zij wijzen er in deze bijdrage op dat er in ons land nog altijd geen specifieke bescherming voor stemgeluid is.

Nieuwe voicemail: “Mama, ik ben alles kwijt. Kan je snel geld overschrijven op de rekening van een vriend voor een treinticket?”

De stem van je zoon. De intonatie klopt. Je twijfelt geen seconde. Tot blijkt: het was je zoon niet. Van Siri tot deepfaketechnologie: de digitale echo is geen sciencefiction meer, wel een downloadbare realiteit. Meta AI kan tegenwoordig je stem zelfs nabootsen en vertalen. De technologie staat duidelijk klaar, de wet niet.

Cybercriminelen kunnen steeds makkelijker jouw vertrouwen misbruiken dankzij artificiële stemmen. En we leven nu eenmaal in tijden waarin de technologie sneller evolueert dan het wetboek. Die ontwikkeling dwingt ons na te denken over hoe de wet onze stem überhaupt kan beschermen.  Het antwoord is genuanceerd. Een stem, als klank of timbre, valt niet onder het auteursrecht. Bescherming geldt pas voor een concrete, creatieve prestatie waarin de persoonlijkheid van de uitvoerder tot uiting komt.

Een toevallig uitgesproken “hallo” is dus niet beschermd, maar een unieke vertolking van een liedje wel. Je stem is een deel van je identiteit, die niet enkel een klank verraadt, maar ook afkomst, geslacht, leeftijd en emotie. Het is dus een onmiskenbaar persoonsgegeven. Een stem straalt vertrouwen uit. Kortom, je stem is een biologisch kenmerk, geen creatie.

Een opname van die stem, zoals een luisterboek of podcastopname, valt dan weer wél onder het auteursrecht. Maar precies omdat de wet enkel de opname beschermt, en niet de stem zelf, moeten we het ethische gesprek voeren: over eigendom, misbruik en waardigheid, nog vóór de wet er taal voor vindt.

Wie zo’n opname gebruikt om een AI-stem te trainen, begeeft zich op glad ijs. De paradox? Je stem is even uniek als een vingerafdruk, maar juridisch vogelvrij. Het is alsof de wet zegt: “Je handtekening is beschermd, maar iemand mag hem wel perfect imiteren.”

Precies dat spanningsveld toont hoe dringend we nood hebben aan een ethisch kompas dat sneller reageert dan de wet: een kader dat moreel richting geeft waar de juridische bescherming nog ontbreekt, maar waarop ze zich wel kan baseren.

Die juridische leemte heeft reële gevolgen. Fraudeurs gebruiken AI om ouders te laten geloven dat hun kind in nood is. Het angstaanjagende hierin is niet alleen de technologie, maar zijn ook onze hersenen: ze geloven wat ze horen. Een beeld kunnen we nog wantrouwen: “die neus klopt niet helemaal”, maar een stem die vertrouwd klinkt, glipt voorbij onze ratio. Je herkent de intonatie, het accent, misschien zelfs een hoest tussendoor. En dus geloof je het. Tot het te laat is en je geld hebt overschreven op de rekening van een vriend van je zoon, dacht je. Dat maakt stemfraude zo beangstigend.

Als we niet meer kunnen geloven wat we horen, brokkelt ook het fundament van vertrouwen in elkaar. Verkiezingstoespraken, nieuwsfragmenten, zelfs noodoproepen: alles kan worden vervalst. Dat tast niet alleen individueel vertrouwen aan, maar ook de maatschappelijke geloofwaardigheid. Democratie steunt op herkenbare stemmen, letterlijk en figuurlijk. Wanneer die stemmen vervormd of nagebootst kunnen worden, raakt de geloofwaardigheid van het publieke debat zelf aangetast.


Die lacune beperkt zich niet tot België: nog geen specifieke bescherming voor stemgeluid. De politie waarschuwt geregeld voor stemfraude via deepfakes, maar de wet biedt slachtoffers nog weinig houvast. Europa werkt intussen aan strengere AI-regels, maar die focussen vooral op transparantie, niet op identiteit.

Ook Hollywood worstelt met dezelfde vragen. Tijdens de grote acteursstaking van 2023 probeerden studio’s contractueel het recht te krijgen om digitale kopieën van acteurs en hun stemmen onbeperkt te gebruiken, zonder extra vergoeding. De vakbonden verzetten zich hevig tegen dat voorstel en eisten dat elke digitale kopie expliciet moest worden goedgekeurd en vergoed. Het compromis dat uiteindelijk werd bereikt, maakt duidelijk hoe snel technologie creatieve arbeid onder druk zet en hoe belangrijk het is om identiteit ook juridisch te beschermen.


Ethische vragen stellen is daarbij geen luxe, maar een noodzaak. Ze verkennen het terrein nog vóór de wet er voet zet. Filosofen, kunstenaars en burgers benoemen wat wringt, lang voordat juristen het kunnen vatten in artikels. Zo ontstaan de morele contouren waarbinnen de wet later vorm krijgt. Zonder die ethische voorhoede blijft regelgeving reactief: ze loopt achter feiten aan in plaats van richting te geven. Vragen stellen is dus geen vertraging, maar een voorwaarde voor vooruitgang.

Moeten we dan collectief zwijgen? Natuurlijk niet. Maar we moeten wél het gesprek voeren. Over hoe we stemmen juridisch, maar vooral ethisch moeten beschermen. Over labels en watermerken voor AI-content. Over educatie: kinderen leren kritisch te luisteren, net zoals we hen leren kritisch lezen. En ja, ook over humor: want wie lacht om een nep-imitatie, beseft tenminste dat er iets op het spel staat. Zulke gesprekken vormen de voedingsbodem waarop toekomstig beleid kan groeien.

De uitdaging voor de komende jaren ligt niet enkel bij de wetgevers, maar ook in onze cultuur. Hoe leren we omgaan met stemmen die niet meer van mensen komen? Misschien moeten we, net als bij fotografie of film destijds, nieuwe vormen van vertrouwen ontwikkelen. Technologie hoeft ons niet te overschreeuwen als we haar leren kaderen, met transparantie, herkenbaarheid en gezond wantrouwen. Want alleen wie begrijpt hoe de imitatie werkt, kan nog echt luisteren naar wat authentiek is.

Dus, moet je vrezen voor je stemrecht? Voor het kieshokje niet. Maar voor je stemgeluid wel. Want wie zwijgt, stemt misschien niet. Maar wie spreekt, kan tegenwoordig zomaar door AI worden nagesproken. En net daarom moeten we het gesprek over stemrecht, in de breedste zin van het woord, dringend voeren.

Dries Van Craen en Eulaly Vanroelen zijn als AI-onderzoeker verbonden aan het Expertisecentrum Duurzaam Ondernemen en Digitale Innovatie van hogeschool Thomas More.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Expertise