ДИРЕКТОР ГУГЛА УПОЗОРАВА: Компјутери ће ускоро сами одлучивати
Бивши директор компаније Google, Ерик Шмит, упозорио је на потенцијалну опасност коју вештачка интелигенција може донети када системи постану способни за самостално унапређивање. "У тренутку када рачунарски систем почне сам да се унапређује, озбиљно треба размислити о његовом искључивању", изјавио је Шмит.
Развој вештачке интелигенције убрзава се невероватном брзином, померајући границе технологије и стварајући истовремено дивљење и страх.
Док компаније непрекидно инвестирају у иновације, регулативе се и даље споро прилагођавају. На Капитол Хилу, дискусије о законодавству наилазе на препреке док се тренутни конгресни сазив ближи крају.
Шмит је, у интервјуу за емисију "This Week" на каналу АБЦ, указао на то да би ускоро могли имати системе који сами одлучују шта желе да раде. "Можда ћемо се наћи у ситуацији где ће бити потребно да неко држи руку на прекидачу", истакао је. Такође, поставио је питање да ли би такав систем уопште могао бити заустављен уколико би самостално одлучио да се томе одупре.
Он је нагласио да ће снага ових система значити да ће сваки појединац имати "еквивалент полиматичара у свом џепу." Међутим, последице омогућавања такве моћи сваком човеку остају непредвидиве. "Још увек не знамо шта значи дати толику моћ у руке појединцима", додао је Шмит.
Стручњаци широм света деле Шмитову забринутост. Постоји консензус да би најнапреднији модели вештачке интелигенције могли радити на нивоу доктора наука већ следеће године, док би за годину или две могли самостално да спроводе истраживања.
Шмит је истакао забринутост због брзог напретка Кине у овом технолошком сектору. Док је раније сматрао да је технологија у Сједињеним Америчким Државама неколико година испред Кине, у последњих шест месеци Кина је направила "запањујући напредак." "Кључно је да Америка победи у овој глобалној трци, нарочито испред Кине", нагласио је.
Као могућа решења, предложио је два кључна корака: обезбеђивање финансирања, хардвера и стручног кадра за земље Запада, као и стварање другог система који би надгледао први. "Људи неће бити у стању да контролишу АИ, али АИ би могла да контролише саму себе", закључио је Шмит.