Primena sistema veštačke inteligencije u vojsci stvara ozbiljnu opasnost zbog mogućeg učešća sistema prilikom donošenja odluke o nuklearnom napadu, piše „Brejking difens“, pozivajući se na Roberta Vorka, bivšeg zamenika ministra odbrane SAD.
– Zamislite da sistem veštačke inteligencije koji se nalazi u komandnom centru Oružanih snaga Kine, nakon analiziranja operativnih podataka, javi da se SAD spremaju da napadnu Kinu i predloži da oni izvrše preventivni napad – rekao je Vork.
Vork upozorava da sistemi veštačke inteligencije ne bi trebalo da učestvuju u kontroli nuklearnog oružja, jer se ono lansira prema određenim parametrima i pokazateljima.
U nekim situacijama veštačka inteligencija može da odredi određene faktore kao pretnju, iako nisu opasni, a to je „zabrinjavajuća perspektiva“.
Kao primer se navodi ruski sistem „Perimetar“, koji može da proceni seizmičke aktivnosti kao nuklearne eksplozije, nakon čega šalje zahtev u štab. Ukoliko odmah ne dobije odgovor, može izdati naredbu za lansiranje interkontinentalnih balističkih raketa.
Vork je dodao da vojna primena veštačke inteligencije može dovesti do katastrofalnih posledica, čak i bez direktnog učešća u upravljanju nuklearnim oružjem. Na primer, to se može desiti prilikom upotrebe veštačke inteligencije tokom analize obaveštajnih podataka, kao i u sistemima za rano upozorenje.
On je zaključio da primena veštačke inteligencije svakako može da bude korisna za vojsku, ali bi njena upotreba morala da bude ograničena i ne sme se proširiti na nuklearno oružje, jer bi to moglo prouzrokovati katastrofalan scenario.