СТРАХ ОД ДИПФЕЈКА: Све бројнији покрет да се наруши информатичка сфера
Није наивно...
Лагање никада није изгледало тако добро. Постоји забринутост да ће глобално расти покрет који ће нарушавати квалитет информацијске сфере и нарушити квалитет дискурса који је потребан у демократији. Ово је изјавила Еилин Донахое, чланица Трансатлантске комисије за изборни интегритет.
Она је рекла да су "деепфакес" потенцијално следећа генерација дезинформација.
Политичари у Калифорнији толико су забринути због ризика од "деепфакеа" уочи избора 2020. да су у октобру 2019. године усвојили закон којим забрањују дистрибуцију "материјално обмањујућих аудио или визуелних медија" у року од 60 дана пре избора, пише Wired.
Међутим, политичко уплитање кроз деепфакес још се није догодило. Већина "деепфакеова" је фоксуирана на порнографску индустрију, без пристанка људи у видеозаписима. То не значи да нема других потенцијално малициозних примена, укључујући лажирање криминалних доказа, превара или уцена. Друга могућност, да се проглашавају деепфакеом садржаји који јесу истините је још једна ствар која изазива забринутост.
НОВЕ ИНФОРМАЦИЈЕ: Познате опције за складишни простор и боје HUAWEI НОВА 6 телефона
ИЗМЕЂУ РОБОТА И ЧОВЕКА: Погледајте која земља жели да приближи војнике киборзима
Иако калифорнијски закон против употребе "деепфакеа" има више недостатака, један од њих поставља важно питање: ко је одговоран за доказивање да су аудио или видео снимци лажни?
Истраживачи широм света раде на изради алата који ће им помоћи да се то постигне, при чему ће се једна врста вештачке интелигенције борити против друге врсте вештачке интелигенције. Поента деепфакеа је да су довољно убедљиви да би заварали људску публику. Како технологија за стварање деепфакеа постаје све ефикаснија и све лакше доступна особама с лошим намерама, стварање једнако моћне технологије за откривање и анализу деепфакеа постаје ће кључно борбено поље истине.
- Звучни и визуелни деепфаке који се добро ураде су тешки за откривање - рекао је Рагаван Thurairatnam. Thurairatnam је суоснивач и челник за машинско учење за Dessu, старт-уп компанију која је изградила алат за лажирање Јое Рогановог гласа за демонстрацију способности аудио деепфака. Компанија тренутно ради на развоју вештачке интелигенције за откривање звучних деепфакеа.
- Ако пробамо традиционални софтверски заснован приступ, било би врло тешко смислити начин да се детектују деепфакеови. Деепфаке технологија ће се стално мењати и традиционални софтвер мораће се сваки пут ручно преписивати. Уметна интелигенција, с друге стране, може сама научити да открива деепфаке све док има довољно података. Осим тога, може се прилагодити новим техникама деепфакеа у исто вријеме док се оне појављују чак и када људским очима буде тешко да је открију - објашњава Thurairatnam.
Међутим, модели за машинско учење за обуку захтевају много података. Недостатак података о обуци била је значајна препрека истраживачима који покушавају да направе ефикасне системе за откривање деепфакеа. Недавни извештај Деептрацеа, основаног у Амстердаму, чији је циљ сузбијање деепфакеа, идентификовао је 14.678 деепфаке видеозаписа путем интернета, од којих су већина порнографија. Иако је стопа пораста броја идентификованих видео записа готово удвостручена у односу на претходни извештај у децембру 2018., нејасно је да ли је то можда због бољег откривања Деептрацеа, у апсолутном смислу то је још увек релативно мали број који би алгоритми вештачке интелигенције могли да користе за даље учење.
То је структурна предност на страни оних који производе деепфакеа. Док добрим момцима треба огроман број деепфакеова како би пронашли обрасце, фалсификатори ће можда имати само један видео да поставе на право место у право време како би постигли свој циљ.
Иако је број деепфакеа прилично мали, претња се схвата озбиљно. Да би помогли у решавању проблема недостатка података за машинско учење, Facebook, Google, Амазон Web Сервицес и Microsoft недавно су се окупили да би најавили Деепфаке Детецтион Challenge (Изазов откривања деепфакеа).
Изазов, који би требао почети следећег месеца, представиће посебно креирани скуп деепфакеа направљених уз помоћ плаћених глумаца, а који ће се користити као подаци за обуку за своје алгоритамске моделе. Развијање ефикасних система за откривање деепфакеа очигледно је ствар општег добра, али није у потпуности чин алтруизма технолошких дивова, који ће веројатно бити на првим линијама спровођења закона попут калифорнијског закона о забрани деепфакеа и зато имају снажан подстицај за проналажење практичних механизама откривања.