НИЈЕ НАУЧНА ФАНТАСТИКА ВЕЋ БЛИСКА БУДУЋНОСТ: Шта ако роботи убице крену у РАТ против људи?
Врло могућ исход!
Роботи-убице, аутономно оружје које самостално одлучује о нападу - то више није научна фантастика већ блиска будућност. У Женеви се под окриљем УН о томе одавно расправља. Али неке земље су изричито против забране.
За генералног секретара УН нема места за сумњу: аутономно оружје је "политички неприхватљиво и морално одвратно", и требало би га забранити међународном конвенцијом.
- Помислите на последице кад неки аутономни оружани систем самостално бира људе као циљеве и одлучује о нападу - апелује Антонио Гутереш.
Представници међународне заједнице поново су се недавно окупили у Женеви како би расправљали о забрани - како се то у медијима зове – „робота-убица“. Али слога по том питању није ни на видику. Још мање су шансе за увођење забране пре него што се појаве на ратиштима. "Тапка се у месту", јавља нам један од учесника те расправе.
Оно што из уста генералног секретара звучи као ужас научне фантастике, у ствари је већ одавно реалност. Многе војске света експериментишу са системима у којима се вештачка интелигенција и роботика користе као потенцијално смртоносно оружје.
Војна логика је јасна: ако су машине на фронту, људи су на сигурном. Онда нема медијских извешћа о погинулим или рањеним војницима, и кога је брига ако је уништен некакав апарат. Поврх тога, наглашавају заговорници, машине се никада не уморе и увек су прецизне. А то на крају има чак и своје предности: биће мање "колатералне штете" на цивилним циљевима, пише Дојче Веле.
То више није научна фантастика
Према прихваћеној дефиницији Међународног комитета Црвеног крста, аутономно оружје је оно које самостално бира циљеве и уништава их. Беспилотним летелицама и даље по правилу управља војник који бира циљ и активира оружје. Аутономно оружје све одлучује само, а тај развој је далеко одмакао. А кад смо код летелица, већ сад постоје пројектили који сами процењују да ли је циљ у повољном положају за уништавање и умеју да "сачекају" док се то не догоди.
ЈУТЈУБ БЛОКИРАО 210 КАНАЛА! Заустављени због координисане акције
Волите да решавате квизове на Фејсбуку? То би могло скупо да вас кошта!
Бацио је Ајфон са 100 метара висине на бетон - шта мислите, да ли је ПРЕЖИВЕО? (ВИДЕО)
Није тешко отићи још даље: научници сматрају да није немогуће да ће се ускоро водити битке у којима неће бити људи већ него математичке формуле у процесорима рачунара на основу којих ће се одлучивати о животу или смрти. То у суштини крши хуманитарно међународно право које налаже да рат сме да се води само између бораца, а не против цивила. Може ли рачунар да разликује војника од цивила? Веома тешко. "Не можемо у те машине да уграђујемо чипове са уписаним правилима међународног права", кажу противници таквог оружја. Мора да постоји гаранција да, чак и кад је посао убијање, увек на крају човек одлучује да ли ће бити повучен обарач.
Како створити такве гаранције? О томе већ пет година расправљају Уједињене нације у Женеви у оквиру расправе о "Конвенцији о одређеном конвенционалном оружју" (Цонвентион он Цертаин Цонвентионал Weapons, CCW). Средином деведесетих на том форуму се успело да се забрани употреба ласера који би служио за то да заслепи противника и пре него што је такво оружје дошло на неко од бојишта. Такву забрану противници желе да договоре и за „роботе-убице“, али преговори су веома тешки.
Главни противници су државе које су далеко одмакле у развоју аутоматизованог оружја: САД, Русија, али и Израел. Оне одбацују резолуцију која би јасно забранила такве системе. Тим војним велесилама противи се група скупина од 28 делимично малих држава које траже јасну забрану. Једина земља ЕУ међу њима је – Аустрија. Те земље које теже забрани подржава читав спектар невладиних удружења: укупно 113 из 50 земаља придружило иницијативи Цампагне то Стоп Killer Роботс. То подржава и Европски парламент, мноштво научника, међу којима је и 21 добитник Нобелове награде.
Немачка се није прикључила ни заговорницима, ни противницима, иако се актуелна влада у свом коалиционом споразуму сложила да не жели такво оружје: "Одбацујемо аутономне системе наоружања који су изван надзора човека. Желимо да оно буде одбачено у читавом свету", пише у том споразуму.
Али немачка делегација на расправи у Женеви процењује да се „у овом тренутку“ једноставно не може доћи до потпуне међународне забране таквог оружја, већ и због јасног противљења САД и Русије. Притом немачка влада нерадо говори о томе да и немачки произвођачи оружја експериментишу с таквим системима. Неке од тих функција би, рецимо, требало да има и немачко-француски војни авион ФЦАС са припадајућим беспилотним летелицама управљаним сателитском навигацијом.
У сваком случају, постоји могућност да и ова рунда преговора пропадне. Тренутно је на столу само предлог – да се о томе расправља и у наредне следеће две године. Према мутној формулацији, изражава се нада да ће се до тада постићи "нормативни оквир". Све је то, наравно, веома далеко од некаквих јасних речи забране.
Томас Кихенмајстер, портпарол немачког огранка иницијативе Стоп Killer Роботс разочаран је тим, како каже, „небулозним формулацијама“. И даље се умањује значај неопходности да човек ипак одлучује о употреби силе, жали се Кихенмајстер новинарима DW. Он исто тако страхује да расправа у Женеви "никада неће довести до јасне забране аутономног оружја".
Противници ипак не желе да одустану – дуго су се у Женеви противили и споразуму о забрани противпешадијских мина и касетних бомби. Зато су се организовали ван тог тела Уједињених нација и пред владама читавог света заговарали такву забрану – што је на крају и потписано у Отави и Ослу. Данас је та забрана део међународног права.