Deze week was er nog verontwaardiging over de algoritmen die Facebook hanteert. Maar ook de overheid maakt er gebruik van, merkt het mensenrechteninstituut op, zoals om een school te selecteren voor kinderen of om misdaad te voorspellen. Of voor gezichtsherkenning in de publieke ruimte, waarbij niet altijd duidelijk is hoe en waarvoor die gezichtsherkenning wordt gebruikt. "Dit levert de overheid een grote efficiëntiewinst op, maar is niet helemaal zonder risico, zoals recent nog duidelijk werd in Nederland. De identificatie van sociale fraude via algoritmen liep daar fout en leidde ertoe dat veel families in financiële problemen kwamen". In ons land bestaat er veel onwetendheid over die algoritmen. Mensen weten vaak niet voor welke beslissingen die worden gebruikt. Of hoe een algoritme persoonsgegevens verwerkt. Het FIRM eist dan ook meer transparantie "om respect voor de mensenrechten te kunnen garanderen". Het instituut diende deze week een advies in over een wetsvoorstel dat deze kwestie behandelt. Het wetsvoorstel bevat interessante elementen, maar is onvoldoende, klinkt het. Zo zou het best uitgebreid worden naar alle federale overheidsdiensten, want nu vallen justitie, politie, leger en inlichtingendiensten buiten de transparantieverplichting. Ook de uitzondering die in het wetsvoorstel is voorzien voor "bij wet beschermde geheimen" is volgens het FIRM te onnauwkeurig geformuleerd. Dit dreigt het toepassingsgebied van de wet te sterk te beperken, klinkt het. Tot slot pleit het FIRM ook voor een openbaar register waarin het gebruik van artificiële intelligentie door de overheid wordt bijgehouden. Iedereen zou dat register moeten kunnen raadplegen om meer te weten over de gebruikte systemen, de mate waarin ze autonoom leren en de aard van de gegevens waarop dat leren is gebaseerd. (Belga)

Deze week was er nog verontwaardiging over de algoritmen die Facebook hanteert. Maar ook de overheid maakt er gebruik van, merkt het mensenrechteninstituut op, zoals om een school te selecteren voor kinderen of om misdaad te voorspellen. Of voor gezichtsherkenning in de publieke ruimte, waarbij niet altijd duidelijk is hoe en waarvoor die gezichtsherkenning wordt gebruikt. "Dit levert de overheid een grote efficiëntiewinst op, maar is niet helemaal zonder risico, zoals recent nog duidelijk werd in Nederland. De identificatie van sociale fraude via algoritmen liep daar fout en leidde ertoe dat veel families in financiële problemen kwamen". In ons land bestaat er veel onwetendheid over die algoritmen. Mensen weten vaak niet voor welke beslissingen die worden gebruikt. Of hoe een algoritme persoonsgegevens verwerkt. Het FIRM eist dan ook meer transparantie "om respect voor de mensenrechten te kunnen garanderen". Het instituut diende deze week een advies in over een wetsvoorstel dat deze kwestie behandelt. Het wetsvoorstel bevat interessante elementen, maar is onvoldoende, klinkt het. Zo zou het best uitgebreid worden naar alle federale overheidsdiensten, want nu vallen justitie, politie, leger en inlichtingendiensten buiten de transparantieverplichting. Ook de uitzondering die in het wetsvoorstel is voorzien voor "bij wet beschermde geheimen" is volgens het FIRM te onnauwkeurig geformuleerd. Dit dreigt het toepassingsgebied van de wet te sterk te beperken, klinkt het. Tot slot pleit het FIRM ook voor een openbaar register waarin het gebruik van artificiële intelligentie door de overheid wordt bijgehouden. Iedereen zou dat register moeten kunnen raadplegen om meer te weten over de gebruikte systemen, de mate waarin ze autonoom leren en de aard van de gegevens waarop dat leren is gebaseerd. (Belga)