26 Сәуір 12:04
...

Deepfakes: Жаңа технология жалған ақпараттың таралуын өршітуі мүмкін

Фото:

Deepfake тіркесі deep learning (күрделі, терең оқу) және fake (жалған) сөздерінен шыққан.

Deepfake  – жасанды интеллектке негізделген күрделі әдіс. Ол деректерден күрделі мүмкіндіктерді алу үшін көп деңгейлі машиналық оқыту алгоритмдерін пайдаланады. Сонымен қатар, жасанды интеллект құрылымдалмаған деректерден суреттерді зерттеп, үйренуге қабілетті. Мысалы, жасанды интеллект сіздің дене қозғалысыңыз туралы деректерді жинай алады.

Содан кейін бұл деректерді deepfake-видео жасап шығару үшін өңдейді. Бұл жағдайда генеративті желі (Generative Adversarial Network, немесе GAN) пайдаланады. Бұл тағы бір мамандандырылған машиналық оқыту жүйесі. Ол оқыту деректер жинағының сипаттамаларын (мысалы, бет пішіндерді, фотосуреттерді) үйрену және осы сипаттамалар негізінде жаңа деректерді (яғни, жаңа «фотосуреттер») жасау арқылы бір-бірімен бәсекелесетін екі нейрондық желіні қамтиды.

Мұндай желі үлгілердің барлығын бастапқы оқу жинағымен салыстырып тексереді. Сол себепті жалған суреттер мен бейнелер барынша сенімдірек көрінеді.

Сол себепті deepfake-терден келетін қауіп күн санап өсіп келеді. Сонымен қатар, GAN фотосуреттер мен бейнелерден бөлек, басқа да жалған деректерді жасай алады. Мысалы, deepfake технологияларын біреудің дауысын салу үшін де пайдалануға болады. Яғни, осы технология арқылы адамның даусын айнытпай салуға болады. Мұндай жағдайлардың өмірде кездескен мысалдары да жоқ емес.

Instagram желісінде Facebook бас директоры Марк Цукербергтің пайдаланушылардың деректерін ұрлау арқылы Facebook-тің қалай «болашақты басқаратыны» туралы айтқан видеосы пайда болды.

Ал негізінде видеоның түпнұсқасы оның АҚШ президенттік сайлауындағы жанжалға байланысты сөйлеген сөзін түсірілген болатын. Жасанды интеллект арқылы фейк жасау үшін небәрі 21 секундтық фрагмент жеткілікті болды. Дегенмен, Цукербергтің дауысын ажырату оңай болды.

Бірақ, тіпті төмен сапалы жалған видеолар да қоғамның реакциясын тудыруы оңай. АҚШ Өкілдер палатасының спикері, Нэнси Пелосидің «мас» болған видеосы YouTube-те миллиондаған қаралым жинады. Ал негізінде, бұл жай ғана шынайы видеоны баяулату арқылы жасалған жалған видео болатын.

Бұл технология Қазақстанда да пайдаланылады. Жақында танымал рэпер JAY-Z Қазақстан президентіне арнап рэп оқыды деген ақпарат тараған болатын. Видео әлеуметтік желіде лезде тарап, қолданушылар арасында әртүрлі эмоцияларды тудырған еді. Видеодан кейін әлеуметтік желі оқырмандары JAY-Z жақын арада Қазақстанның АҚШ-пен мәдени байланыстар жөніндегі жаңа елшісі болатын шығар деген ойларды туындатты. Десе де кейін бұл видеоның жасанды интеллект, нейрожелі арқылы жасалғаны белгілі болды.

Deepfakes негізінде жатқан технологияны киноиндустрияда, жарнамада немесе тарихи кезеңді жандандыруда қолдануға болады. Мысалы, оның көмегімен Дэвит Бекхэмнің 9 тілде безгектің қауіптілігі туралы айтатын қоғамдық хабарландыру негізіндегі видеосы жасалды.

Флоридадағы Сальвадор Дали мұражайы суретшіні дәл осындай технология арқылы қайта тірілтті. Нәтижесінде көрермендер Далимен араласып, оның әңгімелерін тыңдап, тіпті бірге селфи жасай алды. Дауысты, екпінді және сөйлеу мәнерін жаңғырту үшін Далидің 6000 фотосуреті, 1000 сағат машиналық оқыту және ұқсас пропорциядағы актердің 145 бейнесі, сондай-ақ суретшінің көптеген сұхбаттары мен хаттары алынды.

Deepfakes арқылы алаяқтық пен бопсалау фактілері көбейген

Deepfake бейнелері саяси мақсатта да бірнеше рет қолданылды. Әсіресе, ол кек алудың таптырмас құралына айналып отыр. Алаяқтық пен бопсалаумен айналысатын адамдар бұл технологияның қыр-сырын меңгеруде.

Британдық энергетикалық компанияның бас директорынан алаяқтар осы жолмен 220 000 еуроны алдап, аударып алған. Оқиға қалай болған? Алаяқтар deepfake арқылы бас кеңсе басшысының даусын пайдаланып, көрсетілген соманы шұғыл аударуды сұраған. Олар барлығын сенімді жасағаны соншалық бөлім басшысы бас кеңседегілерден мұны анықтауға тырыспааған. Тіптен, ақшаның басқа есеп шотқа аударып жатқанын да елемеген. Тек «бастық» кезекті аударуды талап еткенде ғана ақшаны алаяқтардың алғанын аңғарған. Аударылған ақшамен қоса алаяқтар да із-түзсіз жоғалып кеткен.

Deepfake авторлары ірі компаниялардың басшыларын өтемақы төлемесе, олардың беделіне нұқсан келтіретін жалған бейнені жариялаймыз деп қорқыту арқылы бопсалауы мүмкін. Сондай-ақ, алаяқтар, мысалы, IТ директорының қоңырауын имитациялау және қызметкерлерді құпия сөздер мен кіру артықшылықтарын беру үшін алдап, сіздің желіңізге енуі мүмкін, содан кейін сіздің құпия деректеріңіз хакерлердің толық иелігінде болады.

Deepfake-терден қалай қорғануға болады?

Кейбір елдерде Deepfake-термен күресті Заң жүзінде іске асыру қарастырылып жатыр. Мәселен, өткен жылы Калифорния штатында deepfake-терді пайдалануды шектейтін екі заң қабылданды. Соның бірі порнографиялық мазмұндағы жалған видео жасау үшін адам бейнелеу технологиясын пайдалануға тыйым салу. Екіншісі, сайлауға 60 күн қалғанда мемлекеттік қызметке кандидаттардың бейнелерін қолдан жасау.

Бұл шаралар жеткілікті ме?

Қауіпсіздік компаниялары адамның шын кейпін, видеодағы кескіндердің жалғандығын тану алгоритмдерін дамытып отырады. Олар бейнедегі кескіндерді талдайды және фейк жасау процесінде орын алатын шамалы бұрмалауларды байқайды. Мысалы, заманауи deepfake генераторлары 2D бетті модельдейді, содан кейін оны бейненің 3D перспективасына сәйкестендіру үшін бұрмалайды. Мұрынның бағыты бойынша адамның жалған кескінін тану оңай. Бір қуанарлығы, deepfake жасау технологиясы әлі де толық жетілдірілмеген. Сол себепті жасанды кадрлар байқалып қалып жатады. Адам бір қарағанда ондай бейнелерді ажырата алады.

Келесі сипаттамалық белгілерге назар аударыңыз:

– біркелкі емес қозғалыс;

– кадрдағы жарықтандырудың өзгеруі немесе жарықты дұрыс түспеуі;

– тері өңіндегі айырмашылықтар;

– бейнедегі адам біртүрлі жыпылықтайды немесе мүлде жыпылықтамайды;

– сөйлеммен еріннің бір-біріне сәйкес келмеуі;

– суреттегі сандық артефактілер.

Дегенмен, технология жақсарған сайын, көзіңіз шындық пен жалғанды ажырата алмай қалады.

Жалған видеоларға қарсы технологиялар

Кейбір дамып келе жатқан технологиялар қазірдің өзінде бейненің түпнұсқалығын қорғауға көмектесуде.

Арнайы шифрлау алгоритмінің көмегімен хэштер бейнеге белгілі бір аралықпен енгізіледі; егер бейне өзгертілсе, хэштер де өзгереді. Сондай-ақ, жасанды интеллект пен блокчейнді пайдалана отырып, бейнелер үшін цифрлық қолтаңбаны жасауға болады.

Deepfakes-пен күресудің тағы бір жолы - бейне мазмұнына бет-әлпетті тану бағдарламалары пайдаланатын пикселдер топтарын бүркемелейтін арнайы сандық артефактілерді енгізетін бағдарламаны пайдалану. Бұл әдіс deepfake алгоритмдерінің жұмысын бәсеңдетеді, нәтижесінде фейктің сапасы төмен болады, бұл өз кезегінде сәтті терең фейктің ықтималдығын азайтады.

Ең жақсы қорғаныс - қауіпсіздік ережелерін сақтау.

Технология deepfake бейнелерінен қорғаудың жалғыз жолы емес. Олармен күресуде қарапайым қауіпсіздік ережелері де өте тиімді.

Мысалы, ақша аударуға қатысты барлық процестерге автоматты тексерулерді енгізу көптеген алаяқтық әрекеттердің, соның ішінде deepfake-терді қолданумен байланысты әрекеттердің алдын алады. Сіз сондай-ақ:

– Қызметкерлеріңізге және отбасыңызға deepfake-тердің қалай жұмыс істейтіні және оған қатысты ықтимал қауіптер туралы түсіндіріңіз.

– Deepfakes-ті ажыратудың қыр-сырын меңгеріп алыңыз.

– Медиа сауаттылығыңызды арттырыңыз және сенімді ақпарат көздерін пайдаланыңыз.

– Қауіпсіздік негіздерін сақтаңыз және «сеніңіз, бірақ тексеріңіз» ережесін қатаң сақтаңыз. Дауыстық пошта мен бейнеқоңырауларға абайлап қарау сізді қандай да бір жолмен алданып қалмайтыныңызға кепілдік бермейді, бірақ бұл көптеген қателіктерден аулақ болуға көмектеседі.

Есіңізде болсын, егер хакерлер үй және корпоративтік желілерге ену үшін deepfake-терді белсенді түрде қолдана бастаса, киберқауіпсіздіктің негізгі ережелерін сақтау тәуекелдерді азайтудың ең маңызды факторы болады:

– Тұрақты сақтық көшірмелер деректеріңізді төлемдік бағдарламадан қорғайды және бүлінген файлдарды қалпына келтіруге көмектеседі.

– Әртүрлі күшті құпия сөздерді пайдаланыңыз - егер бір желі немесе қызмет бұзылса, бұл басқалардың барлығына қауіп төндірмеуге көмектеседі. Мысалы, егер біреу сіздің Facebook парақшаңыздың құпия сөзін біліп алса, ол сіздің барлық басқа да аккаунттарыңызға автоматты түрде қол жеткізеді. Мұндай жағдайдың алдын алу үшін әртүрлі құпия сөздерді пайдаланып үйреніңіз.

– Үй желісін, ноутбук пен смартфонды киберқауіптерден қорғау үшін Kaspersky Total Security сияқты сенімді қауіпсіздік жүйелерін пайдаланыңыз. Ол антивирусты, Wi-Fi қосылымдарының бұзылуын болдырмайтын VPN қызметін және веб-камераны қорғайды.

Deepfake-тер өте қауіпті қарқынмен дамып келеді. Екі жыл бұрын жалған видеодағы қозғалысты беру сапасының төмендігімен оны оңай ажыратуға болатын. Дегенмен, технология бір орында тұрмайды, күн сайын жетілдіріліп отырады. Мысалы, deepfake-тердің соңғы буыны әлдеқайда жақсартылған. Сол себепті видеоның сапасынан шындық пен жалғанды ажырата алмай қалуыңыз мүмкін.

Жақында Қытайдан келген бір топ зерттеуші жасанды интеллект көмегімен deepfake-терді нақты уақытта анықтау әдісін жариялады. Сол топ жариялаған тағы бір мақалада сандық фотосуреттер мен бейнелерді deepfake алгоритмдер арқылы заңсыз иемденуден адам көзіне көрінбейтін сандық шуды қосу арқылы белсенді түрде қорғаудың жолын тапқаны жазылған.

Жасанды интеллекттің мүмкіндіктері дамиды, бірақ әзірге ол адамды толығымен алмастыра алмайды. Сондықтан, deepfake бейнелерін жасауға арналған нейрондық желілер тұтынушылардың назарын аудару үшін бәсекелестікте көмекші құрал ретінде қарастырылуы керек.

Қазіргі уақытта болжам бойынша интернетте 15 000-нан астам deepfake видео тарап үлгерген. Олардың кейбіреулері әзіл ретінде шыққан, бірақ қоғамдық сананы манипуляциялау үшін жасалғандары да бар. Енді жаңа deepfake-терді шығаруға көп дегенде екі күн қажет, сондықтан жақын арада олардың саны біраз артуы мүмкін. Deepfake қаупі жақындаған сайын, оларға қарсы шаралар да қарастырылып, болашақта қолданылатын болады деген үміттеміз. Көріп отырғаныңыздай, технологияның өзін «жаман» немесе «жақсы» деп бағалауға болмайды. Технология дами береді, мәселе адам оны қару ретінде немесе құрал ретінде пайдалануында жатыр.

Deepfake өте  күрделі. Қазірдің өзінде онымен күресу жұмыстары жүргізіліп жатыр. Оны тек қауіпті құрал ретінде ғана емес, адамзатқа пайдалы құралға айналдыруға болады. Технологияны заңнамалық салаға енгізу мүмкін болса, ол болашақ игілігі үшін үлкен мүмкіндіктерге жол ашады.

Тегтер: