‘Artificiële intelligentie kan het vertrouwen in de overheid vergroten’

‘De overheid kan dankzij AI inzetten op een gepersonaliseerde dienstverlening via een e-loket dat de klok rond open is.’ © AFP via Getty Images
Elisa Hulstaert

Overal ter wereld maken overheden in toenemende mate gebruik van artificiële intelligentie (AI)/ Dat is een goede zaak, vindt FARI-directeur Hans De Canck.

Artificiële intelligentie kan ons helpen om teksten vlotter te laten klinken, om afwijkingen in medische scans op te sporen, om verkeersstromen vlotter te laten verlopen en om online illegale dierenhandel op te sporen. Maar soms slaat ze de bal ook volledig mis. Toch gelooft Hans De Canck dat méér artificiële intelligentie de publieke sector een dienst zal bewijzen, al is dat onder voorwaarden.

De Canck is co-directeur van FARI, het Artificial Intelligence for the Common Good Institute. FARI werd in 2021 gelanceerd door de inmiddels overleden VUB-rector Caroline Pauwels, samen met ULB-rector Annemie Schaus. Zij wilden honderden onderzoekers samenbrengen rond projecten die het algemeen belang dienen. ‘Voor Pauwels was het een droom om een multidisciplinair onderzoeksinstituut in het leven te roepen dat het Brussels Hoofdstedelijk Gewest en zijn inwoners zou helpen door de hedendaagse uitdagingen aan te pakken’, verklaart De Canck. ‘Artificiële intelligentie speelt daarin een belangrijke rol.’

Sinds de lancering van ChatGPT in november 2022 zat het brede publiek plots massaal aan de knoppen van een AI-tool. Was onze maatschappij daar wel klaar voor?

Hans De Canck: In principe had er heel wat fout kunnen lopen. Er was immers geen kader om die brede lancering in goede banen te leiden, laat staan om ze tegen te houden. In België hoorden we helaas dat een man zich van het leven beroofde nadat die daartoe werd aangespoord door een chatbot. De ophef die daarrond ontstond, is toen wel snel en goed geduid door AI-experts. Het is niet omdat een bepaalde tool iemand daartoe aanzet, dat die daarom meteen opgeborgen moet worden.

Tegelijk zag je dat zowel bedrijven als overheden meteen zijn beginnen te onderzoeken hoe ze met die nieuwe technologie moesten omgaan, en dat is een goede reflex geweest. Middenveldorganisaties hebben daar ook snel hun rol opgenomen om bijvoorbeeld opleidingen aan te bieden aan mensen uit het onderwijs. En in tegenstelling tot Italië, waar ChatGPT een tijd geblokkeerd werd vanwege problemen met de Algemene Verordening Gegevensbescherming (ook wel bekend als de GRDR, nvdr), werd eind vorig jaar binnen de Vlaamse Administratie een AI Competence Center opgericht dat het gebruik van artificiële intelligentie binnen de Vlaamse en lokale overheden ondersteunt en begeleidt, bijvoorbeeld met richtlijnen over het gebruik van ChatGPT.

Met dit soort technologieën is het belangrijk om de vinger aan de pols te houden. En dat doen de drie Belgische regio’s goed door een sterk netwerk van lokale AI-bedrijven, overheden en academia te laten samenwerken. Uiteindelijk is het pas in de huiskamer, op school, op kantoor of achter het loket van een overheidsinstelling dat we de komende tijd zullen merken wat artificiële intelligentie voor ons dagelijkse leven zal betekenen.

‘Ook overheden kunnen dankzij artificiële intelligentie inzetten op een betere, snellere en gepersonaliseerde dienstverlening via een e-loket dat 24 op 7 open is.’

Artificiële intelligentie wordt wel al jaren gebruikt in de publieke sector. Waarvoor precies?

De Canck: In de gezondheidszorg verandert artificiële intelligentie nu al de manier waarop medische professionals zorg verlenen aan patiënten. De technologie kan bijvoorbeeld ingezet worden om gepersonaliseerde zorg te verlenen. Niet alle patiënten reageren namelijk op dezelfde manier op een behandeling. Door patiëntgegevens te analyseren, kan artificiële intelligentie voorspellen welke behandelingen het meest geschikt zijn voor een patiënt.

Ook overheden kunnen dankzij artificiële intelligentie inzetten op een betere, snellere en gepersonaliseerde dienstverlening via een e-loket dat 24 op 7 open is. De efficiëntie zal er enorm op vooruitgaan. We werkten in Brussel al aan een project rond administratieve vereenvoudiging via Data & AI en we zien verschillende Generatieve AI-toepassingen op verschillende administratieve niveaus opduiken. Zo startte VLAIO onlangs met een chatbotapplicatie voor ondernemers en experimenteert de Stad Halle met een chatbot die een vlotte interactie mogelijk maakt met het lokale e-loket.

Alleen kan nog lang niet iedereen overweg met een computer, laat staan met artificiële intelligentie.

De Canck: Dat klopt, en daar ligt zeker nog een grote uitdaging. In Brussel, waar FARI actief is, is 30 procent van de bevolking digitaal ongeletterd. Dat mogen we niet uit het oog verliezen. Tussenorganisaties zoals Mediawijs, Molengeek en becode.org zullen daardoor nog aan belang winnen.

Het is een utopie te denken dat de volledige bevolking altijd mee zal zijn. Ik word vaak versleten voor idealist, maar ik ben zeker geen techno-optimist of -solutionist. Ik geloof niet dat technologie altijd en overal het antwoord is. Waar ik wel van overtuigd ben, is dat artificiële intelligentie het vertrouwen in de overheid kan vergroten omdat ze kan bijdragen tot meer transparantie in overheidsprocessen en -beslissingen.

Nochtans kramen generatieve AI-modellen als ChatGPT soms de grootste nonsens uit en weten we vaak niet hoe ze tot hun output komen. Dat wekt alvast bij mij niet zoveel vertrouwen.

De Canck: Dat AI-tools hallucineren heeft te maken met de onderliggende technologie. Het algoritme van ChatGPT is geprogrammeerd om áltijd een antwoord te formuleren. Zo krijg je inderdaad soms nonsens, maar dat is perfect te voorkomen door bepaalde checkpoints in te bouwen waardoor de technologie kan aangeven dat die op basis van de beschikbare data geen relevante output kan leveren.

Dat onderzoek – hoe te evolueren van black box naar white box in het jargon – is momenteel prioritair aan alle universiteiten die werken rond transparante AI-modellen. Met het VUB AI-Lab staan we daar al heel ver in. En natuurlijk is dat onder andere voor de publieke sector van het grootste belang. Als artificiële intelligentie in die sector gebruikt wordt, moet men te allen tijde op een abstracte pauzeknop kunnen duwen en kunnen nagaan hoe het systeem tot een bepaalde beslissing gekomen is. Die verantwoording moet bovendien op zo’n manier vertaald worden dat die verstaanbaar is voor de eindgebruiker. Als burger wil je niet opgezadeld worden met de logfiles van een softwareprogramma, maar wil je in begrijpelijke taal geïnformeerd worden. Die vertalingen zijn op zichzelf ook weer een bron van ons onderzoek.

In Nederland liep het gebruik van artificiële intelligentie in de publieke sector wel al eens grondig mis. De Toeslagenaffaire leidde er onder meer tot schulden, gebroken huwelijken en het uit huis plaatsen van kinderen. Hoe is dat kunnen gebeuren?

De Canck: Dat liep fout toen verschillende systemen aan elkaar gekoppeld werden waardoor men niet meer kon uitleggen hoe bepaalde beslissingen tot stand kwamen. Als een algoritme met één bepaalde dataset gebruikt wordt, kan dat prima werken. Maar als je dat algoritme koppelt aan systemen waar ook andere datasets gebruikt worden, verlies je controle.

De transparantie was met andere woorden ver zoek en dat was een belangrijk onderdeel van het probleem. De Nederlandse wetgeving stond bijvoorbeeld niet toe dat de geautomatiseerde besluitvorming van AI gecontroleerd werd. Daarnaast was er ook te weinig ruimte voor interactie met mensen. De procedures waren te geautomatiseerd en te geheimzinnig. Een van de grote fouten in die zaak was dat zelfs nadat duidelijk was dat er iets mis was gegaan, de autoriteiten niet meteen probeerden te helpen. Zeker in een overheidscontext moet je daar heel streng over waken. In die zin is de Toeslagenaffaire een goede les geweest. Artificiële intelligentie stopt niet aan taal- of regiogrenzen, dus ook in België zullen we goede afspraken moeten maken om een eigen toeslagenaffaire te voorkomen. Vroeg of laat zullen er immers wel koppelingen gemaakt moeten worden tussen data van verschillende administraties en dat moet zeer zorgvuldig gebeuren.

Zijn we daar klaar voor? Amnesty International nam het algoritmebeleid in Nederland onder de loep, en concludeerde eind 2023 dat een nieuw toeslagenschandaal nog niet voorkomen kan worden.

De Canck: Om die kans zo klein mogelijk te houden, zijn we bij FARI voorstander van het ontwikkelen van een publieke AI Repository. Dat is een vrij toegankelijke databank waarin voor alle toepassingen wordt bijgehouden welke algoritmes en datasets ze gebruiken. Een AI Repository zou dan onder andere overheden ertoe dwingen om hun AI-systemen volledig te documenteren in begrijpelijke taal voor zowel de ambtenaar als de ontwikkelaar en de burger. Daarnaast is de kwaliteit van de datasets enorm belangrijk. Je moet weten waar data vandaan komen. Beide zaken zijn essentieel om het vertrouwen van de burger te versterken. We bekijken alvast met het Brussels Hoofdstedelijk Gewest hoe we dat op dit niveau kunnen verwezenlijken.

Beeldgeneratoren hebben ons het afgelopen jaar meer dan eens getoond dat data bevooroordeeld zijn. Vraag je zo’n AI-systeem om een Mexicaans persoon af te beelden, dan krijg je vrijwel altijd een man met een snor, een poncho en een sombrero te zien. Wie waakt er over de kwaliteit van die data?

De Canck: De Digital Service Act en Digital Market Act ware al een goede start, en voor een deel wordt dat binnenkort door de Europese AI Act bepaald, al beperkt dat zich tot de systemen die onder de categorie ‘hoog risico’ vallen. Dat is technologie die bijvoorbeeld examens beoordeelt, de kredietscore van burgers bepaalt of cv’s sorteert voor een aanwerving. Met andere woorden: technologie die een grote impact kan hebben op het leven van mensen door middel van social profiling. De vraag is natuurlijk in welke mate de systemen met een beperkt of minimaal risico ook geen grote impact kunnen hebben op ons leven.

Maar de AI Act zal, indien goed uitgewerkt, helpen om meer transparantie te krijgen rond AI-systemen en zal grote spelers als OpenAI en Google ook verplichten om daaraan te voldoen. Voor ingenieurs is er niets zo vervelend als alle code die ze schrijven te moeten documenteren, maar het is essentieel en dwingt hen ook om de juiste ethische vragen te stellen. Door alles te documenteren, zal het veel makkelijker zijn om aan te tonen dat ze de wetgeving nakomen. Hoe transparanter je bent, hoe beter het is voor je bedrijf. Daarom geloof ik niet dat regulering innovatie zal afremmen. Het is vooral de onduidelijkheid rond hoe de AI Act geïmplementeerd zal worden, die nu opspeelt.

Worden er soms assessments doorgevoerd om na te gaan of de data uit het verleden vandaag nog wel representatief zijn?

De Canck: Met publieke arbeidsbemiddelaars Actiris in Brussel en VDAB in Vlaanderen hebben we vanuit FARI en de VUB, samen met de technische teams van deze agentschappen, projecten gedaan rond automatische cv-screening en jobmatching. Bij VDAB werd er gewerkt op bias, onder andere door de nauwkeurigheid van voorspellingen te evalueren op het spectrum autochtoon-allochtoon en jong-oud. Die uitgebreide analyse stond VDAB toe om nauwkeuriger om te gaan met beide groepen.

VDAB heeft daar achteraf niet breed over gecommuniceerd, al had dat destijds een deel van de kritiek positief kunnen beantwoorden. Wat uit het project aan het licht kwam, is namelijk dat organisaties als VDAB niet zelf vooringenomen zijn, maar dat ze data hebben uit een maatschappij die al jaren een bias heeft tegen nieuwkomers.

Wat als een algoritme een beslissing neemt waar ik het helemaal niet mee eens ben? Moet ik dan in discussie gaan met een machine?

De Canck: Daarvoor bestaan al procedures, met dank aan de GDPR-implementatie. Zo’n beslissing gaat altijd over jouw persoon en de eerste stap is dus om via de privacy disclaimer na te gaan welke persoonsgegeven werden gebruikt en hoe dat allemaal in zijn werk gaat. Daarnaast wordt daarvoor ook al goed werk geleverd door de federale ombudsmannen die dat soort klachten al ter harte nemen. Maar het zou een goed idee zijn om dat proces digitaal en gebruiksvriendelijker te maken, zowel voor de burger als voor de administratie. Transparantie en vertrouwen gaan hand in hand, zeker voor overheidsdiensten.

Ambtenaren worden dus niet overbodig.

De Canck: Helemaal niet, domeinexperten zijn zeker in deze veranderende context zelfs meer dan nodig. Al zal ook hun job wel weer veranderen, zoals altijd het geval is wanneer nieuwe technologie zijn intrede doet. Vijftig jaar geleden zaten de publieke administraties nog vol secretaresses en typisten. Dat is vandaag verleden tijd. De jobinhoud zal veranderen, maar er zullen ook weer nieuwe jobs bij komen. Daarom is het belangrijk dat mensen zich bijscholen.

Artificiële intelligentie kan moeilijke problemen oplossen en kan dus helpen om de complexiteit van de samenleving scherper te zien. Maar uiteindelijk moet de mens aan het roer blijven staan en de finale beslissing van het AI-systeem valideren en communiceren naar de burger.

In België is innovatie in de eerste plaats een regionale bevoegdheid. Is dat een probleem?

De Canck: Omdat artificiële intelligentie beschouwd wordt als onderzoek & innovatie domein, valt dat tot nu toe inderdaad hoofdzakelijk onder de regionale bevoegdheden, terwijl de strategie om artificiële intelligentie toe te passen in publieke overheden ook een federale materie zou moeten zijn.

Als ik ergens bang voor ben, dan is het wel dat die regionale verschillen en snelheden ons zullen verhinderen om zowel AI als de regelgeving errond goed te implementeren op alle niveaus. Daarom proberen we met FARI een knooppunt te zijn dat met de verschillende regionale initiatieven tracht samen te werken. Nogmaals: artificiële intelligentie stopt niet bij de grenzen. We moeten ervoor waken dat we onszelf niet in de voet schieten. Artificiële intelligentie mag geen politiek spel worden.

BIO Hans De Canck

1972: Geboren te Leuven

1990-1996: Studeert geschiedenis aan de KU Leuven en Bibliotheek- en Informatiewetenschappen aan de Universiteit van Amsterdam

1997-2004: Actief als onderzoeker en product development manager in bibliotheek automatisering

2005-2014: Onderzoeksmanager bij onderzoeksgroep IBBT-SMIT (VUB) van Caroline Pauwels

2014-2016: Human Capital Director bij iMinds

2017-2018: HR Business Partner bij imec

2019-2021: manager bij VUB AI Experience Center

Sinds 2021: VUB-directeur van FARI – AI for the Common Good Institute

Op 21 maart organiseert FARI een Hackaton rond Stedelijke Mobiliteit en op 22 maart vindt in Brussel een Summit over Artificiële Intelligentie en data in Publieke Administraties plaats. De bijeenkomsten maken deel uit van Flanders Technology & Innovation, een tiendaags innovatiefestival in zes Vlaamse centrumsteden. Info: fti.events.

Reageren op dit artikel kan u door een e-mail te sturen naar lezersbrieven@knack.be. Uw reactie wordt dan mogelijk meegenomen in het volgende nummer.

Partner Content