Toby Walsch, AI-expert: ‘Stel je voor dat een computer een kernoorlog begint’

De Loyal Wingman, een drone die bommenwerpers escorteert en beschermt. © Commonwealth of Australia, Department of Defence / Ricky Treloar

De Brits-Australische computerwetenschapper Toby Walsh verklaart waarom de inzet van artificiële intelligentie en autonome wapens zo gevaarlijk is.

De oorlog in Oekraïne lijkt soms een test voor moderne wapensystemen. Oekraïne gebruikte al Turkse Bayraktardrones, en Rusland volgt wellicht met drones uit Iran. Kunnen die wapens binnenkort uitgerust worden met kunstmatige intelligentie?

Toby Walsh: Ja, het gebruik van killerrobots op basis van artificiële intelligentie (AI) is slechts een kwestie van tijd. Zo maakt Rusland gebruik van een nieuw type antipersoonsmijn, de POM-3. Die mijn detecteert voetstappen en springt een meter in de hoogte om zo veel mogelijk soldaten te raken. Rusland heeft aangekondigd die mijn te zullen besturen met behulp van AI-software. Die kan precies onderscheiden of de naderende troepen eigen soldaten zijn, en dan ontploft de mijn niet, of soldaten van de vijand, en dan ontploft ze wel. Landmijnen zijn gruwelijk, ze treffen vaak kinderen. Daarom zijn ze internationaal verboden. 164 staten, waaronder Oekraïne, hebben zich ertoe verbonden geen landmijnen te gebruiken. Rusland maakt daar geen deel van uit. Sinds mijn kritiek op de POM-3-mijn mag ik Rusland niet meer in. Wat ik als een compliment beschouw.

Sommige landen lijken al verder geëvolueerd te zijn. Australië test in samenwerking met het Amerikaanse bedrijf Boeing de Loyal Wingman, een onderscheppingsdrone die piloten van bommenwerpers beschermt.

Walsh: De term Loyal Wingman suggereert dat het alleen gaat om het beschermen van mensenlevens, in dit geval dat van de piloten. Maar eigenlijk gaat het over iets heel anders. Er is al lang een wereldwijde AI-wapenwedloop aan de gang, waar het publiek nauwelijks iets van te horen krijgt. Het Amerikaanse leger ontwikkelt een robottank en werkt aan volledig geautomatiseerde robotoorlogsschepen. China werkt aan raketten op basis van artificiële intelligentie. En Rusland wil een onbemande onderzeeër ontwikkelen die zelfs kan worden uitgerust met kernwapens. Stel je voor dat niet langer een commandant, maar een computer beslist om een kernoorlog te beginnen.

Autonome wapens zijn misschien nog gevaarlijker dan atoombommen.

Dat horrorscenario kan toch nooit werkelijkheid worden?

Walsh: Zeker wel. Autonome wapens zijn misschien nog gevaarlijker dan atoombommen. Het maken van een kernbom vereist enorm veel knowhow, splijtbaar materiaal en geld. Gelukkig kan niet elk land zich dat permitteren. Bij AI-wapens volstaan vaak conventionele wapensystemen. Met de juiste computerchips, software en toebehoren uit een 3D-printer worden ze dan omgevormd tot autonome wapens.

Kunnen semiautonome wapens ook levens redden? Het Amerikaanse Phalanx- raketafweersysteem voor de verdediging van oorlogsschepen reageert bijvoorbeeld veel sneller op aanvallen dan een mens dat zou kunnen.

Walsh: Als verdediging tegen hypersone raketten is dat inderdaad zinvol. Maar toch, hoe betrouwbaar is zo’n systeem? Wat als de software een passagiersvliegtuig aanziet voor een vijandelijke raket en neerhaalt?

Wie draagt de verantwoordelijkheid als robotwapens oorlogsmisdaden begaan? In 2017 was er in het Europees Parlement al sprake van om een soort personenstatus toe te kennen aan bepaalde machines, om ze ter verantwoording te kunnen roepen.

Walsh: Wat levert dat op? Nu worden grote bedrijven al als ‘rechtspersonen’ beschouwd. Maar zelfs als het om economische misdrijven gaat, levert dat vaak niets op.

Worden er nu al offensieve killer robots ingezet?

Walsh: Het lijkt erop dat Turkije aan de Syrische grens een drone met gezichtsherkenningssoftware heeft ingezet, de Kargu. Kargu gebruikt blijkbaar een even primitief gezichtsherkenningsprogramma als uw mobiele telefoon om mensen op de grond te identificeren en te doden. Al zijn ze nog zo onbetrouwbaar, dictaturen kunnen dergelijke apparaten natuurlijk gebruiken om de bevolking angst aan te jagen en terreur te zaaien.

In uw recente boek, Machines Behaving Badly, stelt u voor om computergestuurde wapens te verbieden, bijvoorbeeld door een tegenhanger van het Non-proliferatieverdrag voor kernwapens. Is dat realistisch?

Walsh: Er zijn talrijke voorbeelden van wapens die eerst werden ingezet en daarna verboden. Denk aan gifgas in de Eerste Wereldoorlog. Het verbod op antipersoonsmijnen is minder doeltreffend, maar er zijn er toch al miljoenen van vernietigd, waardoor het leven van talloze kinderen is gered. Hetzelfde geldt voor cluster-munitie: ongeveer 99 procent van de voorraden is vernietigd, ook al zijn ze in Syrië opnieuw gebruikt. We kunnen er door stigmatisering voor zorgen dat autonome wapens als onaanvaardbaar beschouwd worden.

© Der Spiegel

Reageren op dit artikel kan u door een e-mail te sturen naar lezersbrieven@knack.be. Uw reactie wordt dan mogelijk meegenomen in het volgende nummer.

Partner Content