Un grup format din peste 100 de oameni de ştiinţă a trimis o scrisoare Organizaţiei Naţiunilor Unite în care cer stoparea dezvoltării aşa-numiţilor "roboţi-ucigaşi", avertizând cu privirea la un conflict din ce în ce mai periculos.
Regimente întregi de tancuri ce se conduc singure, drone ce pot detecta un terorist în mijlocul unui grup de civili sau arme controlate de calculatoare inteligente, folosind algoritmi de tip machine learning pentru a se perfecţiona sunt doar câteva dintre tehnologiile lansate de industria militară în ultimii ani, scrie Business Magazin.
„În ceea ce priveşte lupta – fie că e pe apă, în aer sau pe pământ – armatele din jurul lumii prezintă zi de zi noi prototipuri”, a declarat celor de la BBC Toby Walsh, profesor de inteligenţă artificială la universitatea South Wales din Sydney.
Una dintre cele mai noi invenţii de acest gen este reţeaua neurală ataşată mitralierelor Kalashnikov: producătorii susţin că arma poate face singură calcule pentru a determina când trebuie să tragă şi câte focuri, fără niciun fel de control uman.
Ce se întâmplă însă atunci când astfel de sisteme se întâlnesc cu un element necunoscut, având totuşi libertatea de a acţiona folosind ideea „celui mai bun scenariu”?
Greşelile ar putea fi dezastruoase, avertizează oamenii de ştiinţă: distrugerea ţintelor ce nu prezintă un pericol sau uciderea civililor.