Дипфейк: Шындық пен жалғанды қалай ажыратуға болады?
Таңнан кешке дейін адам түрлі жаңалықтар мен деректерге кезігеді. Әлеуметтік желілер ақпаратты бұрынғысынан да қолжетімді еткенімен, шынайы дерек пен жалған мәліметтің ара-жігін ажырату барған сайын күрделене түсуде.
Алматы, NEGE. Бүгінде кез келген желі қолданушысы ақпаратты таратушыға айнала алады. Бір ғана жазба немесе бейнематериал мыңдаған, тіпті миллиондаған адамға санаулы минуттар ішінде жетеді. Осындай жылдамдық кейде тексерілмеген, бұрмаланған немесе әдейі ойдан шығарылған ақпараттың да кең таралуына жол ашады. Мұндай мәліметтер қоғамда жалған түсінік қалыптастырып, адамдардың ой-пікіріне әсер етеді.
Көп жағдайда шындыққа жанаспайтын, кейде тіпті әдейі қолдан жасалған мәліметтер кеңінен таралады. Мұндай контенттің бір мысалы – дипфейктер. Дипфейк – жасанды интеллект көмегімен адамның бейнесін, дауысын немесе қимыл-қозғалысын қолдан жасап, шынайы сияқты етіп көрсету әдісі. Алғашында бұл технология ойын-сауық пен кино индустриясында қолданылса, бүгінде оның теріс мақсатта пайдаланылу қаупі артып отыр.
Дипфейктер өздігінен пайда болмайды. Арнайы бағдарламалар адамдардың интернетке жүктелген суреттерін талдайды. Сіздің демалыста, кафеде, жұмыста, үйде, далада түскен фотоларыңызды жасанды интеллект жүйелері зерттеп, жан-жақты сараптайды.
Дипфейктің ең басты ерекшелігі – оның өте сенімді көрінуі. Арнайы бағдарламалар адамның бет-әлпетін басқа бейнеге дәл сәйкестендіріп, оны сөйлетіп қояды. Кей жағдайларда тіпті кәсіби мамандардың өзі жалған мен шынайы видеоны ажырата алмай жатады. Бұл өз кезегінде ақпараттық қауіпсіздікке үлкен қатер төндіреді.
Мұндай технологиялар көбіне жалған ақпарат таратуда, адамдарды қаралау немесе қоғамдық пікірді манипуляциялауда қолданылуы мүмкін. Мысалы, белгілі бір тұлғаның атынан айтылмаған сөзді айтқызу, немесе болмаған оқиғаны болғандай көрсету арқылы қоғамды шатастыруға болады. Әсіресе саяси немесе әлеуметтік маңызы бар мәселелерде дипфейк қауіпті құралға айналуы ықтимал.
Қазақстанда әлеуметтік желілер сегментінде шенеуніктердің атынан күмәнді жарнаманың бейнероликтері жиі шығып тұрады. Оны көбіне алаяқтар өз мақсатына пайдалануды бастап кеткен.
16 қаңтардан бастап Қазақстанда жасанды интеллектке қатысты заң күшіне енді. Бұл заң нейрожелілердің көмегімен жасалған контентті міндетті түрде арнайы белгілеуді талап етеді. Заң күшіне енгеннен кейін дипфейктер құқықтық бағасын ала бастады.
Жасанды интеллект көмегімен жасалған контентті жариялау және тарату тек анық әрі түсінікті таңбалау болған жағдайда ғана рұқсат етіледі. Таңбалаудың болмауы заң бұзушылық ретінде қарастырылады.
Таңбалау міндеті жеке және заңды тұлғаларға, соның ішінде компанияларға, бұқаралық ақпарат құралдарына, блогерлерге және басқа да ұйымдарға жүктеледі.
Заң таңбалаудың нақты қатаң форматын белгілемейді. Негізгі талап – ол пайдаланушыға түсінікті болуы тиіс.
Таңбалау мынадай түрде болуы мүмкін:
• суретте немесе видеода «ЖИ көмегімен жасалған» деген визуалды белгі;
• материалдың басында немесе алдында берілетін мәтіндік ескерту;
• медиаконтентті ойнату кезінде айтылатын аудио хабарлама;
• контенттің жасанды интеллект арқылы жасалғанын анық көрсететін кез келген өзге формат.
Заңда, әсіресе, дипфейктерге және нақты адамдардың бейнесі немесе дауысы қолданылған материалдарға ерекше назар аударылады.
Қазақстанда дипфейктерге қатысты мәселе өзекті болып бара жатқанын Сенат төрағасы Маулен Әшімбаев та атап өтті. Ол мұндай контент авторларын жауапкершілікке тарту қажет деп санайды.
Оның айтуынша, алаяқтар жасанды интеллектті пайдаланып, әлеуметтік желілерде адамдардың атынан жалған мәлімдемелер жасап, болмаған оқиғаларды «растауға» тырысады немесе азаматтарды алдайды.
«Мәселе тек қоңырауларда ғана емес. Әрі қарай жағдай күрделене береді. Бұл тек бастамасы, алғашқы белгілері ғана. Жасанды интеллект технологиялары дамыған сайын мұндай фейктер, бұрмаланған ақпарат пен манипуляциялар едәуір күрделі мәселеге айналады», – деді ол.
Әшімбаевтың айтуынша, дипфейктерді жасайтын – жасанды интеллекттің өзі емес, нақты адамдар. Сондықтан жауапкершілік те соларға жүктелуі тиіс.
Жалған видеоны қалай анықтауға болады?
• Видеодағы адамның бет-әлпетіне назар аударыңыз. Қимыл-қозғалысы шынайы ма, әлде жасанды көріне ме?
• Видеоның «дірілдеп» тұрғанына, анық-анық еместігіне назар аударыңыз.
• Табиғи қимылдарға мән беріңіз, мысалы, көзін ашып-жұмғанына қараңыз.
• Көлеңке мен жарықтың сәйкестігін бақылаңыз. Олар бір-бірімен үйлесуі керек.
• Скриншот жасап, оны Google арқылы тексеріп, бастапқы дереккөздің шынайылығын анықтаңыз.
Шынайы деректі жалғаннан ажырата білу – тек жеке адамның ғана емес, бүкіл қоғамның қауіпсіздігі үшін маңызды. Саналы көзқарас пен сыни ойлау дағдылары қалыптасқан жағдайда ғана біз ақпараттық кеңістіктегі қауіптерге қарсы тұра аламыз.