Rusland zegt dat de landmijnen die in Oekraïne tegen infanterie worden ingezet, zijn uitgerust met kunstmatige intelligentie die soldaten van burgers onderscheidt. Wapenexperts betwijfelen echter of dit werkt.

Het lijkt erop dat Rusland in Oekraïne kunstmatig intelligente mijnen inzet die naar verluidt in staat zijn soldaten te herkennen. Hoewel de mijnen in dat geval niet tegen het internationaal recht indruisen, betwijfelen deskundigen of ze inderdaad ongevaarlijk zijn voor burgers.

Human Rights Watch, de internationale organisatie die tegen mensenrechtenschendingen strijdt, meldde op 29 maart dat er POM-3-mijnen in de buurt van Kharkiv zijn geïdentificeerd. Daarnaast is op een niet-geverifieerde video te zien hoe een Russisch Zemledeliye-voertuig mijnleggende raketten lanceert. Dit voertuig heeft vijftig raketlanceerbuizen, en elke raket verspreidt vijf POM-3-mijnen. Een salvo kan vanaf 15 kilometer afstand een gebied van 250.000 vierkante meter bezaaien met mijnen.

‘Er komt een moment dat we een grieppandemie niet kunnen voorkomen’
LEES OOK

‘Er komt een moment dat we een grieppandemie niet kunnen voorkomen’

Ron Fouchier staat aan de frontlinie in de strijd tegen de griep. Met nieuwe vaccins wil hij ons beschermen tegen toekomstige pandemieën.

Boer of soldaat

Eenmaal afgeschoten daalt een POM-3-mijn hangend aan een parachute naar beneden. Op de grond gaat hij op zes poten staan en duwt hij een seismische sensor de grond in. Deze sensor kan voetstappen detecteren. Wanneer iemand binnen twaalf meter van de mijn komt, schiet de mijn een explosief naar boven dat op taillehoogte ontploft en horizontaal granaatscherven afvuurt.

Het detectiesysteem wordt aangestuurd door kunstmatige intelligentie (AI). Naar verluidt is die in staat om mensen van dieren of andere bewegende objecten te onderscheiden. In een Russisch tv-interview in 2019 beweerde Sergej Bachurin, de baas van het ontwerpbureau achter de POM-3-mijn, dat de mijn daarnaast het verschil opmerkt tussen de tred van een boer en een soldaat.

Sceptisch

Arthur Holland Michel van de Carnegie Council for Ethics in International Affairs, een Amerikaanse organisatie die zich bezighoudt met ethiek in internationale aangelegenheden, is zeer sceptisch over deze beweringen. Michel zegt dat dergelijke systemen onvermijdelijk fouten maken in complexe situaties in de echte wereld. Bovendien missen zij het contextuele begrip dat mensen wel hebben.

‘Fouten zullen onvermijdelijk onbedoelde schade veroorzaken, vooral als de [kunstmatige intelligentie] iets te maken heeft met het onderscheiden van burgers van militairen’, zegt Michel.

Internationaal recht

Toch voldoen de mijnen mogelijk wel aan de internationale wetgeving. ‘Rusland heeft zich niet aangesloten bij het verdrag over het verbod op anti-infanterie-mijnen’, zegt Mark Hiznay van Human Rights Watch.

‘Wel is Rusland betrokken bij het in 1996 gewijzigde Protocol II van het VN-verdrag van 1980, inzake bepaalde conventionele wapens’, vervolgt Hiznay. ‘Deze stelt eisen aan het gebruik van op afstand afgeleverde anti-infanterie-mijnen, en bevat ook technische specificaties voor deze mijnen.’

Het protocol staat bijvoorbeeld alleen mijnen toe met een ingebouwd zelfvernietigingsmechanisme. Dat moet ervoor zorgen dat 90 procent van de geplaatste mijnen binnen dertig dagen is vernietigd.

De POM-3 heeft in principe een zelfvernietigingsmechanisme dat na 8 of 24 uur in werking treedt. Hiznay merkt echter op dat de foto’s die Human Rights Watch in handen kreeg mijnen tonen die niet goed zijn geplaatst. Dat maakt het onwaarschijnlijk dat het zelfvernietigingsmechanisme werkt.

‘Ik wil weten wat voor type energiebron is gebruikt, en hoeveel terugvalsystemen erin zijn ingebouwd’, zegt Hiznay. Rusland heeft deze informatie niet gedeeld.

Niet veiliger

Legers zetten regelmatig AI in om de snelheid van hun wapens te verhogen, of de werklast van de militairen te verminderen. Daarnaast wordt ook vaak beweerd dat AI een wapen veiliger maakt, maar daar is vaak geen echte reden voor.

‘AI-wapens worden vaak gezien als een manier om schade aan burgers te beperken’, zegt Michel. ‘Dit verhaal illustreert hoe militairen kunnen beweren dat hun wapen ‘AI’ heeft om het een air van juridische legitimiteit te geven. Het spijtige is dat mensen geneigd zijn te geloven dat dergelijke ‘AI’ net zo goed als een mens vriend van vijand kan onderscheiden. Daardoor kan deze strategie zomaar werken.’