‘Gevaren van killer robots: we mogen niet toelaten dat machines beslissen over leven en dood’

‘De wetgevende macht heeft geen schitterend trackrecord als het gaat om wetgeving die inspeelt op nieuwe technologische ontwikkelingen’, schrijft Vooruit-Kamerlid Kris Verduyckt. Hij formuleert een aantal vragen na de moord op een Iraanse wetenschapper door een killer robot.

Een beslissing op leven en dood. Zelfs voor een getrainde soldaat met een wapen in de hand is dat verre van evident. Maar wat als we die keuze overlaten aan een machine? Aan een geprogrammeerde computer? We spreken dan over killer robots. Een nieuwe generatie wapens waarvan enkele incidenten hun bestaan verraden.

De killer robot dook voor het eerst op in Libië. Een gewapende militaire drone zou er op eigen initiatief een luchtaanval hebben uitgevoerd. Zonder menselijke tussenkomst. We weten niet veel over de aanval en het nieuws veroorzaakte nauwelijks enige deining. Een tweede aanval was er een op een Iraanse nucleaire wetenschapper een jaar geleden. Daarvan lekken nu wel alle details uit, zoals recent nog in The New York Times. De Israëlische geheime dienst voerde de moord uit met een computergestuurd scherpschuttersgeweer uitgerust met kunstmatige intelligentie en camera-ogen. De trekker werd overgehaald op meer dan 1.000 kilometer afstand van de wetenschapper. Hij werd herkend met (in ons land verboden) gezichtsherkenningssoftware. Die computer besloot dus dat hij het slachtoffer zou worden.

Gevaren van killer robots: we mogen niet toelaten dat machines beslissen over leven en dood.

Deze opmerkelijke aanslag krijgt meer aandacht en roept ook vragen op. De internationale gemeenschap stelt zich vragen over het Iraanse nucleaire programma. Maar dat doen ze al langer. In België komt de wapenproducent FN-Herstal opnieuw in opspraak. Het zijn terechte vragen, maar één pertinente vraag werd niet gesteld: waar liggen de ethische grenzen bij het gebruiken van dergelijke wapens? Mag een computer beslissen over leven en dood?

Een grondig maatschappelijk debat dringt zich op. Het onderwerp is erg technisch. In het bovenstaande Iraanse voorbeeld kan je zelfs de vraag stellen of hier überhaupt sprake is van een killer robot. De uiteindelijke beslissing om te schieten werd nog door een mens genomen ook al was die mijlenver verwijderd van het actieterrein. In Libië ging het daarentegen wel over een toestel dat op basis van geprogrammeerde informatie zelf kon overgaan tot een aanval. We kunnen niet ontkennen dat deze wapens ingang beginnen te vinden bij de hedendaagse oorlogsvoering.

Mag een machine beslissen over leven en dood? Nee. Voor mij, voor mijn beweging Vooruit is het antwoord duidelijk. Dit is onaanvaardbaar. Op ethisch vlak maar ook in functie van de veiligheid voor onze soldaten en burgers. Want hoe beschermen we ook onszelf hier tegen? Wat als de IS bijvoorbeeld deze wapens inzet? Dat is het debat dat we internationaal moeten voeren.

Ik diende alvast in ons federaal parlement twee wetsvoorstellen in. Eerst en vooral een voorstel tot een wettelijk verbod op het gebruik van killer robots door ons land. Ten tweede stel ik ook voor om een raadgevend comité te installeren rond ethische vraagstukken over artificiële intelligentie. Dat laatste is misschien niet het meest sexy voorstel ter tafel maar is wel de essentie: we moeten ons echt vragen stellen als we in onze samenleving aan computers niet alleen denkwerk maar ook beslissingskracht gaan geven. Dat comité kan bovendien naast alle ethische kwesties ook de technologische grenzen afbakenen voor de definitie van een killer robot.

De wetgevende macht heeft geen schitterend trackrecord als het gaat om wetgeving die inspeelt op nieuwe technologische ontwikkelingen. Artificiële intelligentie verandert onze wereld. Op wapengebied zijn de aanslagen in Libië en Iran alvast stevige wake-up calls. Nu is het moment om te beslissen hoe ver we daarin willen gaan en of we grenzen trekken door bijvoorbeeld menselijke interactie als een sine qua non vast te leggen. België kan daarbij alvast het goede voorbeeld geven.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content