Soxta videolarni sun'iy intellekt aniqlaydi
Soxta videolarni sun'iy intellekt aniqlaydi
Anonim
Litvinenkoning zaharlanishi haqidagi operaning premyerasi Angliyada boshlanadi
Litvinenkoning zaharlanishi haqidagi operaning premyerasi Angliyada boshlanadi

Bir yil oldin, Stenfordlik Manish Agrawala, video tahrirlovchilarga spikerlarning so'zlarini deyarli sezilmaydigan darajada o'zgartirish imkonini beradigan lablarni sinxronlash texnologiyasini ishlab chiqishga yordam berdi. Asbob odam gapirmagan so'zlarni, hatto jumlaning o'rtasida ham osonlikcha kiritishi yoki aytgan so'zlarini o'chirishi mumkin edi. Yalang'och ko'zga va hatto ko'plab kompyuter tizimlariga hamma narsa haqiqiy ko'rinadi.

Bu vosita butun sahnalarni qaytadan suratga olmasdan xatolarni tuzatishni ancha osonlashtirdi, shuningdek, turli joylarda turli tomoshabinlar uchun teledasturlar yoki filmlarni moslashtirdi. Ammo bu texnologiya haqiqatni buzish niyatida, soxta videolarni topish qiyin bo'lgan yangi imkoniyatlarni ham yaratdi. Masalan, yaqinda respublikachilar rolida Jo Bayden bilan intervyu uchun qo'polroq usul ishlatilgan.

Bu yozda Agrawala va Stenford va UC Berklidagi hamkasblari labni sinxronlash texnologiyasiga sun'iy intellektga asoslangan yondashuvni ochishdi. Yangi dastur odamlarning ovozi va og'zining shakli o'rtasidagi eng kichik tafovutlarni aniqlab, soxtalarning 80 foizidan ko'pini aniq aniqlaydi.

Stenford media-innovatsiyalar instituti direktori va Forest Baskett kompyuter fanlari professori Agrawala, shuningdek Stenford inson markazli sun'iy intellekt instituti bilan bog'liq, chuqur soxtalashtirish uchun uzoq muddatli texnik echim yo'qligi haqida ogohlantiradi.

Soxta narsalar qanday ishlaydi

Video manipulyatsiyasining qonuniy sabablari bor. Masalan, badiiy teledastur, film yoki reklama roliklarini suratga olayotgan har bir kishi xatolarni tuzatish yoki skriptlarni sozlash uchun raqamli asboblar yordamida vaqt va pulni tejashi mumkin.

Bu vositalar ataylab yolg'on ma'lumot tarqatishda ishlatilganda muammo paydo bo'ladi. Va ko'plab texnikalar oddiy tomoshabinlarga ko'rinmaydi.

Ko'p chuqur soxta videolar yuzni almashtirishga asoslanadi, bu tom ma'noda birovning yuzini boshqa birovning videosiga qo'shib qo'yadi. Ammo yuzni o'zgartirish asboblari ta'sirchan bo'lishi mumkin bo'lsa -da, ular nisbatan qo'pol va odatda kompyuter aniqlaydigan raqamli yoki vizual artefaktlarni qoldiradi.

Boshqa tomondan, lablarni sinxronlash texnologiyalari kamroq ko'rinadi va shuning uchun ularni aniqlash qiyinroq. Ular tasvirning ancha kichik qismini manipulyatsiya qilishadi va keyin, agar odam ma'lum so'zlarni gapirsa, og'zi qanday harakat qilishiga mos keladigan lab harakatlarini sintezlaydilar. Agrawalning so'zlariga ko'ra, odamning qiyofasi va ovozining etarlicha namunalarini hisobga olsak, soxta prodyuser odamni har qanday narsani "aytishga" majbur qilishi mumkin.

Soxta narsalarni aniqlash

Bunday texnologiyaning axloqsiz ishlatilishidan xavotirga tushgan Agrawala, aniqlash vositasini ishlab chiqish uchun Stenford doktoranti Ohad Freed bilan ishladi; Xani Farid, Kaliforniya universiteti professori, Berkli axborot maktabi; va Shruti Agarval, Berkli doktoranti.

Dastlab, tadqiqotchilar kuzatuvchilar videotasvirlarni o'rganadigan sof qo'lda texnikani sinab ko'rishdi. Bu yaxshi ishladi, lekin amalda bu mehnat talab qiladigan va ko'p vaqt talab qiladigan ish edi.

Tadqiqotchilar keyin sun'iy intellektga asoslangan neyron tarmoqni sinab ko'rishdi, bu xuddi shu tahlilni tezroq qilish, sobiq prezident Barak Obama bilan video orqali mashg'ulotlardan so'ng. Neyron tarmoq Obamaning 90 % dan ortiq lablarini sinxronlashni aniqladi, garchi boshqa dinamiklarning aniqligi taxminan 81 % ga tushgan.

Haqiqatning haqiqiy sinovi

Tadqiqotchilarning aytishicha, ularning yondashuvi mushuk va sichqon o'yinining bir qismi. Chuqur qalbakilashtirish texnikasi takomillashgan sari ular kamroq kalitlarni qoldiradilar.

Oxir -oqibat, deydi Agrawala, haqiqiy muammo - soxta videolarga qarshi kurashda emas, balki dezinformatsiyaga qarshi kurashda. Aslida, uning ta'kidlashicha, noto'g'ri ma'lumotlarning aksariyati odamlar aytgan so'zlarning ma'nosini buzishdan kelib chiqadi.

"Yolg'on ma'lumotni kamaytirish uchun biz media savodxonligini oshirishimiz va javobgarlik tizimini rivojlantirishimiz kerak", deydi u. "Bu ataylab noto'g'ri ma'lumot ishlab chiqarishni taqiqlovchi qonunlar va ularni buzish oqibatlari, shuningdek, etkazilgan zararni bartaraf etish mexanizmlarini anglatishi mumkin."

Tavsiya: