НЕВЕРОВАТНО
Маск каже да постоји 20% шансе да АИ уништи човечанство, али да свеједно треба да је развијамо
Истраживачи су открили да, једном када АИ научи да лаже људе, ово обмањујуће понашање постаје немогуће преокренути помоћу тренутних мера безбедности.
Илон Маск сматра да је развој вештачке интелигенције вредан ризика упркос могућности да технологија "окрене леђа човечанству". На недавном семинару "Велика дебата о АИ", Маск је изнео своју процену ризика везаних за технологију, изјавивши: - Мислим да постоји извесна шанса да ће завршити човечанство. Вероватно се слажем са Џефом Хинтоном да су шансе негде око 10% или 20%.
Ипак, додао је "да позитиван сценарио надмашује негативни сценарио". Маск није објаснио како је дошао до своје процене ризика.
Роман Јамполски, директор Лабораторије за сајбер безбедност на Универзитету у Луивилу, рекао је за Business Инсидер да Маск правилно истиче да би вештачка интелигенција могла да представља егзистенцијални ризик за човечанство, али да је "ако ишта, превише конзервативан" у својој процени. Јамполски сматра да је "стварна п(доом) много већа", алудирајући на "вероватноћу пропасти" или вероватноћу да АИ преузме контролу над човечанством или изазове догађај који би завршио људску врсту.
New York Тимес је п(доом) описао као "нову морбидну статистику која се шири Силиконском долином", наводећи различите процене технолошких извршних директора које варирају од 5 до 50% шансе за апокалипсу изазвану вештачком интелигенцијом. Јамполски поставља ризик "на 99,999999%".
Јамполски је рекао да би, будући да би било немогуће контролисати напредни АИ, наша једина нада била да га никада не изградимо.
- Нисам сигуран зашто мисли да је добра идеја наставити са развојем ове технологије - додао је Јамполски. - Ако је забринут да ће конкуренти стићи први, то нема везе јер је неконтролисана суперинтелигенција једнако лоша, без обзира на то ко је створи.
Маск је, говорећи о АИ, изјавио: - Некако узгајате АГИ. То је готово као да подижете дете, али дете које је супер геније, попут детета са боголиком интелигенцијом — и важно је како га одгајате.
Он сматра да је за безбедност АИ изузетно важно да се АИ развија на начин који га тера да буде искрен.
- Не терајте га да лаже, чак и ако је истина непријатна - рекао је Маск, истичући важност искрености у очувању безбедности човечанства од технологије.
Истраживачи су открили да, једном када АИ научи да лаже људе, ово обмањујуће понашање постаје немогуће преокренути помоћу тренутних мера безбедности, преноси The Индепендент.
- Ако модел почне да показује обмањујуће понашање због инструменталног усклађивања с обманом или тровања модела, тренутне технике безбедносног тренинга не би гарантовале безбедност и чак би могле створити лажни осећај сигурности - наводи се у студији.
Још забрињавајуће је што су истраживачи додали да је вероватно да би вештачка интелигенција могла сама да научи да лаже.