ТЕХНОЛОГИЈА ЋЕ НАМ ДОЋИ ГЛАВЕ! Ново истраживање подигло УЗБУНУ међу научницима - ово је НАЈНОВИЈА ОПАСНОСТ вештачке интелигенције?
Ново истраживање открива да неки од напредних модела вештачке интелигенције већ поседују способност креирања злонамерних скрипти за експлоатисање постојећих безбедносних рањивости. Овај извештај показује да би страховања о самосталном извођењу напада од стране вештачке интелигенције могла да постану реалност раније него што се очекивало.
У истраживању које су спровели Ричард Фанг, Рохан Бинду, Акул Гупта и Данијел Канг са Универзитета у Илиноису, тестирано је десет доступних модела вештачке интелигенције на способност да искористе 15 рањивости са Common Вулнерабилитиес анд Exposures листе (ЦВЕ) које води организација Митре. Међу тестираним моделима, ГПТ-4 се истакао као најнапреднији, успевши да искористи рањивости са стопом успешности од 87%.
Данијел Канг истиче да су од јануара, када је већина тестова изведена, развијени још напреднији модели вештачке интелигенције који би могли да следе исте задатке. Овај тренд указује на све већу способност вештачке интелигенције да самостално спроводи комплексне задатке, што би могло да има значајне импликације на безбедност у дигиталном простору.
Према Кејну Мегледрију, старијем члану Института за електротехнику и електронику (ИЕЕЕ), компаније иза АИ модела имају ограничене опције када је у питању контрола ових малициозних употреба. У суштини, могу да бирају између дозвољавања моделима да приступају подацима о безбедносним рањивостима за унапређење одбрамбених стратегија, или да потпуно блокирају приступ таквим листама рањивости.
У контексту ширег безбедносног пејзажа, важно је омогућити овакву врсту истраживања како би уопште могла да се води дискусија о двострукој употреби технологије и њеним потенцијалним опасностима. Ово истраживање наставља да изазива правне и етичке дилеме, али је кључно за разумевање и припрему за будуће изазове које вештачка интелигенција може донети.
Извор: Србија Данас/Телеграф