I-Police, het project dat het kluwen lokale en federale politiedatabanken moest centraliseren, is op een teleurstelling uitgelopen. In plaats van te streven naar één grote databank, gaat men nu focussen op kleinschaligere projecten. In de loop van 2026 wordt er ook een AI-laboratorium opgericht.
Minister van Binnenlandse Zaken Bernard Quintin (MR) trekt de stekker uit i-Police: een ambitieus digitaliseringsproject van de politie dat al in 2016 werd aangekondigd en in 2022 werd opgestart. Wat een digitale revolutie moest worden – waarbij algoritmes en artificiële intelligentie data zoals camerabeelden, foto’s, vingerafdrukken en andere sporen uit verschillende politiedatabanken had moeten koppelen met andere dossiers – eindigt als een dure mislukking. De overheid sloot een overeenkomst ter waarde van 299 miljoen euro met de Franse consultancyreus Sopra Steria Group. 75,8 miljoen euro werd daar al van uitbetaald. Op het terrein bleven concrete resultaten uit.
‘Dat past in een bredere geschiedenis van mislukte digitaliseringsprojecten’, zegt criminologe Rosamunde Van Brakel, die zich aan de VUB toelegt op surveillance en AI. ‘Eerder is de digitalisering van justitie ook al geflopt. Zolang projecten vertrekken vanuit technologiehype en het idee dat we ‘niet mogen achterlopen’, zullen we dezelfde fouten blijven maken. Vandaag worden overheidsprojecten te sterk gestuurd door dure consultancy- en techbedrijven, terwijl er bespaard wordt op wetenschappelijk onderzoek. Dat moet en kan anders. Er is een gebrek aan visie en verbeelding.’
Er komt een AI-laboratorium. Wat doet de Belgische politie vandaag al met AI?
Rosamunde Van Brakel: Meer dan we denken, maar tegelijk weten we er opvallend weinig over. Verschillende politiezones, zoals die van Gent, experimenteren met chatbots om met burgers te communiceren. In Antwerpen worden slimme camera’s ingezet tegen sluikstorten. Gezichtsherkenning wordt gebruikt om retrospectief camerabeelden te onderzoeken. Zo wordt AI gebruikt in opsporing, en dan vooral in de digitale sfeer. Denk aan het traceren van online kindermisbruik: daar kan de technologie helpen om grote hoeveelheden beeldmateriaal te doorzoeken.
Daarnaast lopen er ook onderzoeksprojecten rond big data policing, waarbij AI wordt gebruikt om in verschillende databanken patronen te herkennen. Waarschijnlijk wordt AI ook ingezet voor administratieve taken, zoals het maken van samenvattingen, maar in welke mate dat gebeurt, is onduidelijk. Er is te weinig transparantie over de inzet van AI bij de politie.
Gelooft u in het potentieel van AI bij de politie?
Van Brakel: Dat hangt ervan af. Zeker als het gaat om de online opsporing van bewijsmateriaal zie ik een duidelijke meerwaarde, op voorwaarde dat het ethisch gebeurt.
Als het gaat om gezichtsherkenning en om toepassingen zoals sluikstorten, ben ik kritischer, omdat dan de vraag rijst hoe proportioneel dat is en welke impact het heeft op lange termijn. Bij gezichtsherkenning zijn de risico’s ook veel groter. In Engeland, een van de landen waar dat vaak gebruikt wordt, hebben officiële evaluaties aangetoond dat de algoritmen systematisch slechter presteren bij zwarte mensen, ook al werd dat jarenlang ontkend door de politie.
Is dat dan vooral een technisch probleem?
Van Brakel: Nee, onderzoek naar surveillancetechnologie toont al lang aan dat bias in algoritmen en bias bij politie elkaar versterken. Bepaalde groepen krijgen disproportioneel politieaandacht, en technologie vergroot dat effect. Bovendien zit de schade niet alleen in de match zelf, maar ook in hoe agenten optreden. In Engeland loopt momenteel een rechtszaak rond een man die meer dan een halfuur werd vastgehouden na een foutieve match. Hij mocht niet vertrekken en werd intimiderend behandeld.
‘Mensen vertrouwen technologie sneller dan hun eigen oordeel, zelfs wanneer ze voelen dat het fout zit.’
Wordt dat niet opgevangen door de ‘human in the loop’, menselijke betrokkenheid in het proces?
Van Brakel: Dat is geen garantie. Mensen vertrouwen technologie sneller dan hun eigen oordeel, zelfs wanneer ze voelen dat het fout zit – dat is de automation bias. Dat is ook vastgesteld bij de Londense politie. Agenten grepen soms in, ook als ze vermoedden dat de match niet klopte. Human in the loop is nodig, maar zeker niet voldoende. Er is sterker beleid nodig rond het gebruik van technologie door de politie, beleid dat betere democratische waarborgen voorziet.
Wat loopt er volgens u mis in het beleid?
Van Brakel: Vandaag worden keuzes gemaakt op basis van beloftes en hype, zonder een echte denkoefening over langetermijnimpact. Milieu-impact, sociale rechtvaardigheid en machtsconcentratie van Amerikaanse bedrijven blijven buiten beeld. Het debat blijft steken bij juridische compliance: is het in orde met de privacywetgeving en de AI Act? Dat is veel te beperkt.
Kunnen ethische commissies daar een antwoord op bieden?
Van Brakel: Voor een stuk, maar alleen als ze ernstig worden genomen. Vaak is er sprake van ethics washing: men richt een commissie op en denkt dan dat de kous af is. Maar ook in België zijn AI-adviesraden soms bijna uitsluitend samengesteld uit witte mannen, en zijn er geen vertegenwoordigers van de gemeenschap. Dan mis je fundamentele perspectieven. De samenstelling is cruciaal.
Mocht de politie u vragen voor haar ethische commissie, zou u dat dan overwegen?
Van Brakel: Zeker, maar dan moeten ze wel bereid zijn om kritische stemmen toe te laten. (lacht)