Volodymyr Zelensky waarschuwt voor een ‘vernietigende wapenwedloop’ nu AI wordt ingezet voor de ontwikkeling van defensietechnologie. Bigtechbedrijven gaan in zee met het Amerikaanse leger, en ook in Europa schieten defensiestart-ups als paddenstoelen uit de grond.
‘Dit is de meest vernietigende wapenwedloop in de geschiedenis van de mensheid, met dank aan artificiële intelligentie.’ Tijdens zijn toespraak voor de algemene vergadering van de Verenigde Naties wond de Oekraïense president Volodymyr Zelensky er geen doekjes om: ‘Niet het internationaal recht, niet samenwerking, maar wapens bepalen wie overleeft.’ En die wapens evolueren volgens Zelensky sneller dan het vermogen om ons te verdedigen. ‘Het is een kwestie van tijd voor drones tegen drones vechten, zonder menselijke tussenkomst.’
‘Toepassingen met artificiële intelligentie krijgen steeds meer aandacht in militaire organisaties, mede onder invloed van de ervaringen in Gaza en Oekraïne’, zegt professor internationale betrekkingen Marijn Hoijtink (UAntwerpen), die gespecialiseerd is in militaire technologie.
AI komt onder meer van pas bij het bouwen van autonoom militair materieel. ‘Denk aan wapensystemen die dankzij AI zelfstandig doelwitten kunnen identificeren, selecteren en aanvallen’, zegt Hoijtink. ‘Vandaag worden er in Oekraïne al volledig autonome wapens ingezet.’
‘Het gebruik van AI leidt niet tot minder, maar juist tot méér burgerslachtoffers.’
Daarnaast kan AI gebruikt worden om de militaire besluitvorming te ondersteunen of te versnellen. ‘Bijvoorbeeld om in uiterst kritische situaties doelwitten te selecteren of te identificeren’, zegt Hoijtink. ‘Dat doet het Israëlische leger in Gaza, waar machine learning gebruikt wordt om lijsten van legitieme doelwitten samen te stellen – lijsten die vervolgens daadwerkelijk kunnen worden ingezet bij aanvallen.’
Ten slotte wordt AI ook gebruikt voor logistieke doeleinden en meer alledaagse toepassingen. ‘Zoals kleine autonome robots die militaire uitrusting of pakketten dragen, of die gewonde soldaten van het slagveld kunnen evacueren.’
Kentering
De nauwe band tussen Silicon Valley en het Amerikaanse leger is niet nieuw. Jarenlang was het Pentagon de broedplaats van technologische vernieuwingen die nadien hun weg vonden naar het dagelijkse leven. Het internet, gps, het touchscreen, beeld- en stemherkenning, zelfrijdende auto’s en automatische vertaling: allemaal ontstonden ze vanuit militaire projecten.
‘Vandaag zien we de omgekeerde beweging’, zegt Diederik Cops, onderzoeker bij het Vlaams Vredesinstituut. ‘In de VS, maar ook steeds vaker in Europa, komen de belangrijkste innovaties voor defensie uit de civiele sector. Grote technologiebedrijven en start-ups ontwikkelen AI-toepassingen die vervolgens militair interessant blijken te zijn.’
Die kentering is enkele jaren geleden ingezet. Sinds de jaren zeventig, na het einde van de Vietnamoorlog, was het voor jonge ingenieurs en wetenschappers not done om met het Amerikaanse leger samen te werken. Techbedrijven hanteerden slogans als ‘do no evil’ en hadden als doel om de wereld te verbinden.
Wanneer bedrijven toch met Defensie in zee gingen, leidde dat steevast tot protest. Zo kwamen medewerkers van Google in 2018 in opstand tegen Project Maven, een programma van het Pentagon dat AI gebruikte om dronebeelden te analyseren. Een petitie werd toen duizenden keer ondertekend en tientallen medewerkers namen ontslag. Het protest loonde: Google verlengde het contract niet en publiceerde ethische richtlijnen die militaire toepassingen beperkten.
Defense tech
Vandaag zet het ene na het andere technologiebedrijf de deur weer open voor samenwerking met het Pentagon. Bedrijven als Meta, Google en OpenAI, waar het bedrijfsbeleid ooit expliciet verbood om AI voor wapens te gebruiken, hebben die formulering intussen – vaak in alle discretie – geschrapt.
Daarbij spelen twee factoren mee. De oorlogen in Oekraïne en Gaza tonen dat drones en AI-gestuurde wapens cruciaal zijn geworden. Tegelijk zijn de lucratieve contracten met Defensie een broodnodige inkomstenbron voor bedrijven die hun producten vaak gratis of goedkoop aan consumenten aanbieden. Voor velen is samenwerking met het leger intussen een overlevingsstrategie.
De lijst met bedrijven uit Silicon Valley die de afgelopen jaren defense tech zijn beginnen te ontwikkelen, groeit snel. Zo stelde Meta AI-modellen beschikbaar aan de defensiebedrijven Lockheed Martin en Booz Allen Hamilton. OpenAI sloot een partnerschap met Anduril om antidronetechnologie te ontwikkelen. Microsoft leverde dan weer cloud- en AI-diensten aan het Israëlische leger (diensten die het bedrijf recent heeft stopgezet, nadat aan het licht kwam dat Israël ze gebruikte om de luchtaanvallen in Gaza voor te bereiden) en sloot een contract af van 22 miljard euro om minstens 120.000 augmented-realityheadsets voor soldaten te leveren. Meta en Anduril werken samen aan VR-apparaten voor militaire training. En OpenAI kreeg ten slotte van het Pentagon een contract van 200 miljoen dollar om AI-mogelijkheden te ontwikkelen voor het ministerie van Defensie. Ook Google, Anthropic en Elon Musks AI-bedrijf xAI sleepten soortgelijke contracten binnen.
‘Efficiënter’
Maar de opmerkelijkste gebeurtenis voltrok zich deze zomer, toen vier (ex-)managers van Meta, OpenAI en het Amerikaanse technologiebedrijf Palantir een militair uniform aantrokken, een eed aflegden en zwoeren dat ze de Verenigde Staten zullen verdedigen. Ze werden benoemd tot luitenant-kolonel in Detachment 201, een nieuwe eenheid van het Amerikaanse leger dat advies zal geven over nieuwe technologieën voor mogelijke gevechtssituaties. Als technische reservisten moeten ze de strijdkrachten ‘efficiënter, slimmer en dodelijker’ maken.
Naast big tech spelen ook minder bekende, maar invloedrijke bedrijven een hoofdrol. Zo is er het bovengenoemde Anduril, waar vicepresident JD Vance destijds in investeerde, en Palantir, dat werd opgericht met geld van de CIA en durfkapitalist Peter Thiel – een man die niet meer gelooft dat vrijheid en democratie compatibel zijn en de eerste tech-ceo was die zich in 2016 voluit achter presidentskandidaat Donald Trump schaarde. Palantir ontwikkelt software voor dataverzameling en wil tegenstanders met behulp van data-analyse sneller opsporen. Techondernemer Peter Hinssen noemde Palantir in De Standaard ‘het meest angstaanjagende bedrijf ter wereld’.
De oorlogsindustrie legt de bedrijven bovendien geen windeieren. In juni kondigde Anduril aan dat het 2,5 miljard dollar aan nieuwe financiering had opgehaald, wat zijn waardering optrok naar 30,5 miljard dollar. Maar Palantir spant de kroon: dankzij contracten met de Amerikaanse overheid en Defensie steeg de marktwaarde van Palantir deze maand tot meer dan 425 miljard dollar – bijna 145 miljard dollar méér dan de opgetelde marktwaarde van de traditionele defensiebedrijven Lockheed Martin, Northrop Grumman en General Dynamics.
Kill chain
Wat de uitgaven voor defensie-innovatie, en AI in het bijzonder, betreft, hinkt de Europese Unie achterop. De EU en haar lidstaten besteden jaarlijks 14,4 miljard euro aan militair onderzoek en ontwikkeling, een fractie van de 130 miljard euro die de Verenigde Staten uitgeven.
Bovendien is die beperkte financiering verdeeld over de verschillende lidstaten, die allemaal hun eigen prioriteiten nastreven en los van elkaar werken, noteert de Onderzoeksdienst van het Europees Parlement. Uit de recentste gegevens van het Europees Defensieagentschap blijkt wel dat de uitgaven voor onderzoek en technologie de afgelopen jaren stegen.
De Belgische defensie ziet AI als een hulpmiddel dat alle militaire capaciteiten en de administratieve processen zal ondersteunen, laat het kabinet van de minister van Defensie Theo Francken (N-VA) weten. Net zoals in bedrijven speelt kunstmatige intelligentie nu al een algemene rol. Maar om operationele redenen kan het kabinet niet elke militaire capaciteit opsommen waarin AI-onderdelen zullen zitten.
Toch geeft de Strategische Visie Defensie 2025 enkele hints, die ook bevestigd worden door het kabinet. Zo is cyberdefensie het meest voor de hand liggende gebied waarin AI een rol zal spelen. ‘Als vijanden AI gebruiken voor cyberaanvallen, dan moet cyberdefensie daar een antwoord op geven’, klinkt het. ‘Ook voor speciale operaties zullen wapensystemen worden ontwikkeld met ingebouwde AI. Kleinere systemen, die gebruikt worden voor bijvoorbeeld het ontmantelen van mijnen en explosieven of worden ingezet tegen chemische of biologische dreigingen, zullen ook in meer of mindere mate AI-technologie bevatten.’
Volgens het kabinet draait oorlogsvoering altijd rond de kill chain. ‘Wie het snelst kan waarnemen, de situatie inschatten, beslissen en handelen, wint het gevecht. Dat proces draait volledig om informatie die van de waarnemingssystemen naar de wapensystemen moet stromen. Daarom is het cruciaal dat we de juiste informatie op het juiste moment op de juiste plaats krijgen.’
Versnipperd Europa
In het licht van de ‘strategische autonomie’ en ‘technologische soevereiniteit’ van Europa – debatten die sinds de herverkiezing van Trump zijn opgelaaid – verkiezen verschillende lidstaten software van eigen bodem boven contracten met Amerikaanse technologiebedrijven.
‘Idealiter zijn Europese landen minder afhankelijk van Amerikaanse bedrijven’, beaamt Hoijtink. Het belang daarvan werd duidelijk toen Elon Musk in september 2022 het Starlink-systeem, dat Oekraïne voorziet van vlotte internettoegang, liet uitschakelen in de regio van Cherson en in de provincie Donetsk. Drones zonden niet langer beelden door en langeafstandsraketten misten doel. Het gevolg was dat de Oekraïense troepen werden gestuit in hun tegenoffensief. Het incident illustreert hoe technologiebedrijven tijdens een oorlog beslissingen kunnen nemen die grote gevolgen hebben, en die bovendien buiten de controle van de staat vallen.
Maar voor Europa kan loskomen van Amerikaanse technologie, heeft het nog verschillende hordes te nemen. ‘Er bestaan nauwelijks Europese alternatieven voor grote cloudbedrijven’, weet Hoijtink. ‘Wel zien we een groei van Europese defensiestart-ups die nieuwe technologieën ontwikkelen. Toch is het voor hen moeilijk om de volledige Europese markt te bedienen. Vaak willen lidstaten vooral hun eigen nationale bedrijven steunen, ook in de defensiesector. Het resultaat is een versnipperd Europa: in plaats van één sterk defensiebedrijf dat de hele markt bedient, krijg je 27 lidstaten die allemaal hun eigen technologie ontwikkelen die in grote lijnen hetzelfde probeert te doen.’
Intussen wordt de technologie van het controversiële Palantir gebruikt in Nederland, Griekenland, Denemarken, sommige deelstaten van Duitsland en het Verenigd Koninkrijk. Ook de NAVO sloot recent nog een contract af met Palantir om een defensieplatform te ontwikkelen. Het is maar de vraag of dat wenselijk is. ‘Palantir stelt steevast: we don’t own the data’, zegt Hoijtink. ‘Maar tegelijk gebruikt het die data wél om zijn modellen te trainen en te laten draaien. Waar die gegevens uiteindelijk terechtkomen of hoelang ze bewaard blijven, blijft dus een punt van zorg.’
Ethische vragen
Waar die data belanden, is lang niet de enige bekommernis. ‘Civiel-militaire integratie kent uitdagingen’, zegt Cops. ‘Hoe voorkom je dat technologie in verkeerde handen valt? Hoe bescherm je de broncode en de data? Hoe vermijd je dat onderzoeksinstellingen zonder ervaring met defensie zich blootstellen aan spionage of misbruik? Veel civiele bedrijven hebben weinig affiniteit met het veiligheidsaspect van militaire toepassingen.’
Daarnaast rijzen fundamentele ethische vragen. Wie is er verantwoordelijk wanneer een autonoom systeem beslissingen neemt? Mag een machine beslissen over leven en dood? En wat als de macht verschuift van regeringen naar private bedrijven, die verantwoording afleggen aan hun aandeelhouders en niet aan burgers?
‘Al meer dan tien jaar wordt er op VN-niveau gedebatteerd over zogenaamde autonome wapensystemen’, zegt Hoijtink. ‘Het gaat dan om juridische, ethische en morele kwesties die vandaag nog steeds niet zijn opgelost. Intussen heeft de realiteit de discussie ingehaald, maar dat betekent niet dat we moeten stoppen met het ontwikkelen van een regelgevend kader. Integendeel: de mogelijke negatieve gevolgen maken internationale afspraken urgenter dan ooit.’
Maar pogingen om antwoorden te formuleren op bovenstaande vragen, lijken niet van de grond te komen. Terwijl de regering-Biden in 2023 nog een reeks ethische principes opstelde voor het gebruik van AI in defensie, werden die door Trump meteen weer ingetrokken. Hij vreesde dat die een rem zouden zetten op de innovatie.
De voormalige minister van Defensie, Ludivine Dedonder (PS), ondertekende in 2024 wel de ‘principes voor verantwoord gebruik’ op de NAVO-top in Washington.
Wat als tegenstanders lak hebben aan ethiek? Delft een land als België dan per definitie het onderspit omdat het wel binnen de lijntjes kleurt? ‘Dat is inderdaad een veelgehoorde klacht, dat ethiek alleen effect heeft zolang andere actoren zich er ook aan houden’, zegt Hoijtink.
‘We hebben regels nodig voor het gebruik van AI in wapens’, zei Zelensky nog in zijn speech voor de algemene vergadering van de Verenigde Naties. Maar militaire systemen – en dus ook militaire toepassingen van AI – moeten in principe voldoen aan het internationaal recht, waar het oorlogsrecht onder valt. ‘Zo moet een autonoom wapen bijvoorbeeld een onderscheid kunnen maken tussen burgers en strijders, en moet het ervoor zorgen dat militaire acties in verhouding staan tot de dreiging’, zegt Hoijtink. ‘Sommige staten, ngo’s en andere organisaties stellen dat het gebruik van AI de toepasbaarheid van het internationaal recht problematiseert.’ Volgens Hoijtink blijft menselijk toezicht daarom van cruciaal belang. Vooralsnog blijft de Belgische defensie vasthouden aan dat ‘human in the loop’-principe.
‘Het probleem is dat internationaal recht nooit perfect te handhaven is, omdat er geen wereldwijde rechtsinstantie is die kan ingrijpen als een land zich niet aan de regels houdt’, aldus Hoijtink. ‘We zien dat nu ook in de context van Israël. En dat geldt voor vrijwel alle regels van het internationale recht – of het nu gaat om nucleaire kwesties, mijnen, clustermunitie of nieuwe technologieën.’
Wat België betreft, omschrijft minister Theo Francken in zijn Strategische Visie de invoering van een nieuwe defensiecodex die de wetgeving over defensie beter moet structureren, verduidelijken of zelfs aanvullen. ‘Dat geldt ook voor AI’, laat het kabinet weten. ‘Onze juridische dienst is daarmee bezig.’
‘Schone’ oorlogen
Onderzoek brengt aan het licht dat de nieuwe technologie veel aandacht krijgt, maar in de praktijk vaak niet doet wat ze belooft. ‘Een discrepantie tussen verwachtingen en ervaringen kan leiden tot teleurstelling onder professionals’, waarschuwt onderzoekster Sofie van der Maarel.
Bij Meta en Google gaven een handvol ingenieurs aan dat ze worstelen met de impact van hun werk. Wie meewerkt aan autonome drones of AI-wapens verliest de controle zodra die technologie in gebruik wordt genomen. De vraag rijst of zulke systemen niet méér burgerslachtoffers veroorzaken dan traditionele wapens.
Een terechte zorg, vindt Hoijtink. ‘Sommige defensiespecialisten stellen dat het gebruik van AI in conflicten leidt tot “schone” en “precieze” oorlogen met een beperkt aantal burgerslachtoffers.
De realiteit is dat deze wapens vaak gebruikt worden op manieren die juist méér slachtoffers maken – zowel in Gaza als in Oekraïne is de menselijke tol net erg hoog. AI zorgt ervoor dat er op veel grotere schaal aangevallen kan worden doordat de technologie veel meer en veel sneller doelwitten genereert dan mensen dat kunnen. Bovendien verschuilen militairen zich achter de vermeende precisie en statistische relevantie van de AI-systemen. Met andere woorden: men erkent dat de modellen niet volledig correct zijn, maar dat wordt geaccepteerd omdat ze in de meeste gevallen wel werken. Op die manier wordt de verantwoordelijkheid voor die burgerslachtoffers afgeschoven op de technologie.’
Zo ontstaat volgens Hoijtink een hellend vlak. ‘Verantwoordelijkheid voor keuzes wordt gedelegeerd aan systemen en opwaarts in de hiërarchie, terwijl er druk staat op snel handelen – zoveel aanvallen, zoveel targets per dag. Deze technologieën maken dat mogelijk, en dat is precies waarom ze zo problematisch zijn.’
Boots on the ground
Hoe ziet, ten slotte, de oorlog van de toekomst eruit? Zullen robots het tegen elkaar opnemen terwijl militairen aan hun computers gekluisterd zitten? Volgens Cops is dat weinig waarschijnlijk. ‘In Oekraïne zien we dat AI een belangrijke rol speelt, maar tegelijk is het nog altijd een loopgravenoorlog zoals honderd jaar geleden. AI zal steeds verder geïntegreerd worden in bestaande systemen om functies te verbeteren, maar de klassieke hardware – tanks, artillerie, munitie en boots on the ground – zullen nog steeds ingezet worden. Het zal een combinatie zijn van klassieke middelen en spitstechnologie.’