Behoudt de mens effectief de controle over autonome wapens?

Killer robots
Artikel

Luitenant-Kolonel Hädicke geeft leiding aan de eerste en enige roboteenheid van de Nederlandse Landmacht. Hij werd geïnterviewd door De Correspondent.

In het artikel ‘Robotsoldaten zijn allang geen sciencefiction meer (en dus bouwt Nederland ze ook)‘ dat op 21 januari 2020 gepubliceerd werd door de Correspondent, legt de Nederlandse luitenant-kolonel Hädicke uit hoe autonome wapens in Nederland reeds in ontwikkeling zijn. Luitenant-Kolonel Hädicke geeft leiding aan de eerste en enige roboteenheid van de Nederlandse Landmacht: de ‘Robots and Autonomous Systems’-eenheid, kortweg RAS. Volgens veel AI-experts is het dan ook slechts een kwestie van enkele jaren voor de eerste volledig autonome wapens werkelijkheid zullen zijn.

Lees het artikel van De Correspondent hier.

Als actief lid van de internationale Campaign to Stop Killer Robots, een internationale coalitie van 140 organisaties uit 61 verschillende landen, roept Pax Christi Vlaanderen op tot een internationaal verbodsverdrag op de ontwikkeling van volledig autonome wapens, of ook killer robots. Deze vormen namelijk een gevaar voor de hele internationale gemeenschap en doen enkele belangrijke ethische vragen rijzen. Kunnen machines wel zo geprogrammeerd worden dat ze de juiste morele beslissing nemen? Is het überhaupt moreel verantwoord om machines te laten beslissen over leven en dood? Zijn zulke wapens in staat om het internationaal recht te respecteren? En wie is er eigenlijk verantwoordelijk als er iets misloopt?

‘Autonomie heeft militair nut en kan toegevoegde waarde creëren, maar de vraag blijft: hoe ga je ermee om? Een antwoord daarop is vaak complex en niet zomaar te geven, maar ik vind niet dat je geen antwoord kan hebben. Mijn standpunt is: wij doen het waardengedreven. Geoperationaliseerd, zodat het praktisch bruikbaar wordt.’ – Luitenant-kolonel Hädicke

Het is verwonderlijk dat de heer Hädicke ervan uitgaat dat zolang het Nederlandse leger haar onderzoek op een waardengedreven manier voert zulke wapens acceptabel zijn. Hoe garandeer je dat de tegenstander ook dezelfde ethische afwegingen maakt? Hoe garandeer je bovendien dat zulke technologie, indien deze in handen van een misdadig regime zou vallen, niet tegen de bevolking ingezet wordt om bijvoorbeeld een specifieke groep uit te schakelen of om democratisch protest hardhandig neer te slaan? Hoe voorkom je een snelle escalatie van conflict indien er fouten worden gemaakt en autonome wapens razendsnel op elkaar reageren? Het is naïef te denken dat een strak waardenkader voor ons eigen gebruik van autonome wapens ons zal beschermen tegen het foutief inzetten ervan. Zoals Jonas Degrave, onderzoeker in de robotica stelt: ‘Killer robots zullen wellicht niet erg duur zijn om te maken. (…) Dus eens de killer robots er zijn, is de kans groot dat je ze niet meer weg krijgt en dat ze voor iedereen beschikbaar zullen zijn.’[1]

Het is de mens die de wegingsfactoren van een robot bepaalt, honderd procent. Dat geeft accountability, transparantie en enige voorspelbaarheid. Maar de mogelijkheid blijft dat het systeem een andere beslissing neemt dan we wenselijk vinden, ook al dachten we dat we het goed hadden geprogrammeerd.’ – Luitenant-kolonel Hädicke

Menig AI-experten waarschuwden al dat het bijna onmogelijk is om feilloze technologie te ontwikkelen. Hoewel er hard gewerkt wordt aan de ontwikkeling en verbetering, blijven ze onderhevig aan fouten en beperkingen. Daarbij blijft het problematisch om een robot voor te bereiden op uiterst onvoorspelbare situaties gezien het praktisch onmogelijk is ‘om alle mogelijke variabelen die kunnen voorkomen in een oorlogssituatie in een algoritme te steken’[2]. Een moreel oordeel is namelijk meer dan een puur rationele overweging en is dus moeilijk na te bootsen vanwege te complex.

Daarom blijven we ook ijveren voor een preventief internationaal verbodsverdrag om te voorkomen dat killer robots effectief verder ontwikkeld worden en op een dag ingezet zullen worden. Een verdrag voor we een “point of no return” bereikt hebben.

Wil jij graag iets doen om er mee voor te zorgen dat killer robots geen kans krijgen? Doe dan mee aan onze mailactie om aan Microsoft en Amazon te vragen om een beleid aan te nemen tegen de ontwikkeling van killer robots en hun huidige projecten hierrond onmiddellijk stop te zetten. Of laat je mail achter voor je te informeren over toekomstige acties.

Mailactie

Ik ben geïnteresseerd in toekomstige acties. 

 


[1] J. Degrave in PCV Koerierdossier 2018/5 (p.5)

[2] X. Steenbrugge in PCV Koerierdossier 2018/5 (p.7)