Bij het controleren van de aanvragen voor kinderopvangtoeslag op fraude, maakte de Nederlandse Belastingdienst gebruik van een risicomodel, stelt de mensenrechtenorganisatie. Dat model zou rekening hebben gehouden met meerdere risicofactoren, waaronder het niet beschikken over de Nederlandse nationaliteit. Mensen zonder de Nederlandse nationaliteit hadden volgens Amnesty International uiteindelijk een grotere kans om als fraudeur te worden bestempeld. Daarom stelt Amnesty International dat de algoritmes van de Nederlandse Belastingsdienst tot etnisch profileren hebben geleid. "Etnisch profileren is een vorm van discriminatie en daarom in strijd met mensenrechten", klinkt het maandagavond. "Daarnaast is er sprake van discriminatie op basis van sociale klasse, omdat de werkwijze bij toezicht en fraudebestrijding mensen uit lagere sociale klassen extra hard heeft geraakt." Volgens Amnesty International schieten alle maatregelen die de Nederlandse overheid heeft genomen om een herhaling van de toeslagenaffaire te voorkomen, tekort. "Zo zijn ambtenaren niet verplicht om de mensenrechtenrisico's vooraf in kaart te brengen, is het toezicht op algoritmes ondermaats, en mogen overheidsinstellingen het gebruik en de werking van algoritmes geheim houden", hekelt de mensenrechtenorganisatie. "Amnesty International is niet tegen het gebruik van algoritmes. Maar de bescherming van mensenrechten bij het gebruik ervan moet beter", klinkt het nog maandagavond. "De Nederlandse overheid wil als leider worden gezien op het gebied van een door data gedreven overheid. Om een geloofwaardige leider te zijn, moet je het goede voorbeeld geven en de algoritmes die je zelf gebruikt duidelijk en bindend reguleren", zegt Merel Koning van Amnesty International Nederland. Bovendien moeten de slachtoffers worden gecompenseerd. Amnesty International zal het rapport dinsdag voorleggen aan de Verenigde Naties. De mensenrechtenorganisatie wil blijven onderzoek doen en actie voeren om mensenrechtenschendingen die voortkomen uit besluitvormingssystemen op basis van algoritmes, de wereld uit te helpen. (Belga)

Bij het controleren van de aanvragen voor kinderopvangtoeslag op fraude, maakte de Nederlandse Belastingdienst gebruik van een risicomodel, stelt de mensenrechtenorganisatie. Dat model zou rekening hebben gehouden met meerdere risicofactoren, waaronder het niet beschikken over de Nederlandse nationaliteit. Mensen zonder de Nederlandse nationaliteit hadden volgens Amnesty International uiteindelijk een grotere kans om als fraudeur te worden bestempeld. Daarom stelt Amnesty International dat de algoritmes van de Nederlandse Belastingsdienst tot etnisch profileren hebben geleid. "Etnisch profileren is een vorm van discriminatie en daarom in strijd met mensenrechten", klinkt het maandagavond. "Daarnaast is er sprake van discriminatie op basis van sociale klasse, omdat de werkwijze bij toezicht en fraudebestrijding mensen uit lagere sociale klassen extra hard heeft geraakt." Volgens Amnesty International schieten alle maatregelen die de Nederlandse overheid heeft genomen om een herhaling van de toeslagenaffaire te voorkomen, tekort. "Zo zijn ambtenaren niet verplicht om de mensenrechtenrisico's vooraf in kaart te brengen, is het toezicht op algoritmes ondermaats, en mogen overheidsinstellingen het gebruik en de werking van algoritmes geheim houden", hekelt de mensenrechtenorganisatie. "Amnesty International is niet tegen het gebruik van algoritmes. Maar de bescherming van mensenrechten bij het gebruik ervan moet beter", klinkt het nog maandagavond. "De Nederlandse overheid wil als leider worden gezien op het gebied van een door data gedreven overheid. Om een geloofwaardige leider te zijn, moet je het goede voorbeeld geven en de algoritmes die je zelf gebruikt duidelijk en bindend reguleren", zegt Merel Koning van Amnesty International Nederland. Bovendien moeten de slachtoffers worden gecompenseerd. Amnesty International zal het rapport dinsdag voorleggen aan de Verenigde Naties. De mensenrechtenorganisatie wil blijven onderzoek doen en actie voeren om mensenrechtenschendingen die voortkomen uit besluitvormingssystemen op basis van algoritmes, de wereld uit te helpen. (Belga)