$ 506.7  593.14  6.53

ЖИ контентін белгілеу: жасанды интеллектті жаппай енгізу несімен қауіпті?

Жасанды интеллект (ЖИ) технологиялары соңғы жылдары қарқынды дамып, мәтін, сурет, видео сияқты контент түрлерін адам дайындағандай етіп жасай алатын деңгейге жетті. 

Фото: pixabay
Фото: pixabay

Интернетте «deepfake» деп аталатын жалған бейнелер мен дыбыстар, ЖИ жазған мақалалар мен жасанды суреттер көбейді. Осындай жағдайда түрлі елдер билігі ЖИ арқылы жасалған контентке арнайы белгі қою мәселесін көтеруде – бұл жасанды контентті анықтап, халықты жалған ақпараттан қорғау мақсатында ұсынылып отыр. Алайда, жасанды интеллектті күнделікті қолданудың қауіпті жақтары қандай, ЖИ-контентті белгілеу бұл қауіптердің алдын алуға қаншалықты көмектеседі?

Жасанды интеллекттің өнімін белгілеу алғашқылардың бірі болып Қытайда заңнамалық деңгейде енгізілді. Қытай үкіметі 2023 жылдың 10 қаңтарынан бастап ИИ көмегімен жасалған кез келген сандық өнімге – мәтін, бейне, аудио – айрықша белгі қойылуын міндеттеді. Ресми түсіндіруде билік өкілдері жасанды контенттің заңсыз ақпарат, жалған жала таратуға және тұлғалардың беделін түсіретін материалдар жасауға қолданылып жатқанын, сондықтан қоғамды жаңылыстырмау үшін ЖИ-дің қолданылғаны анық көрсетілуі керектігін атап өтті. Мұндай белгілер су таңба (водяной знак) түрінде көрнекі орналастырылып, қоғамдық орындарда жалған тұлға жасауға жол бермеуге тиіс делінген ресми құжатта.

Еуропалық Одақ та осы бағытта қадам жасап отыр. 2023 жылдан бастап ЕО аумағында ЖИ жасаған контентті компаниялар міндетті түрде арнайы таңбамен белгілеуі тиіс деген заң қабылданды. АҚШ-та әзірге ресми талаптар жоқ, бірақ ірі технокомпаниялар 2023 жылы Ақ үйге ерікті түрде контентке су таңбаларын енгізу міндеттелетінін мәлімдеді. Ресейде де 2025 жылдың соңында Мемлекеттік Дума жасанды интеллект жасаған фото мен видеоматериалдарға міндетті белгі қою туралы заң жобасын талқылай бастады. Мысалы, Мемдума төрағасы Вячеслав Володин «нейрожелілер ақпарат кеңістігін біртіндеп жаулап, шынайы материал мен ЖИ өнімін ажырату қиын боп барады» деп дабыл қақты. Депутаттар әрбір ЖИ жасаған видео немесе суретте жасанды интеллект пайдаланылғаны, материалдың иесі мен жасалған күні көрсетілген арнайы белгі болуы керек деп ұсынып отыр.

Жасанды интеллектінің кең таралуы ең алдымен ақпараттық қауіпсіздікке қатер төндіруде. ЖИ арқылы жасалған фейк жаңалықтар мен «deepfake» видеолар қоғамдық пікірді өзгертуге әсер етіп, қарапайым халықты алдау оңайлап барады. Шынайы видео мен жалған жасанды видеоны ажырату күн өткен сайын қиындап, ал әлеуметтік желілерде тараған сенсациялық жалған бейнелер адамдарды адастыруы мүмкін. Мысалы, 2025 жылдың алғашқы 9 айында Ресейде саясаткерлерге қатысты 60-тан астам жалған видео анықталды – бұл алдыңғы жылдың сәйкес кезеңінен 2,5 есе көп деп хабарланды. Мұндай ақпараттық шабуылдар қоғамда дүрбелең туғызып, жалған жаңалықтарға сенуге итермелейді.

Екіншіден, ЖИ қылмыскерлердің құралына айналып отыр. Банктер мен құқық қорғау органдары нейрожелілер арқылы жасалған жалған дауыс пен видеоны алаяқтар жиі қолданып жатқанына назар аудартуда. Мәселен, Ресейде 2024 жылдың бірінші жартысында дипфейк видеолар мен аудио хабарламалар арқылы адамдарды алдау оқиғалары 30%-ке көбейген. Алаяқтар бағдарламалардың көмегімен адамның жүзін, дауысын айнытпай көшіріп, оның туыстары мен таныстарынан ақша сұрататын видеохабарлама жібереді. Дәл осындай жағдайлар қазіргі уақытта Қазақстанда да белең алуда. Мұндай хабарлама алған адам жақынының дауысын естіп, бейнесін көрген соң аңдамай, шын ақша аударып жіберуі ықтимал. Сарапшылардың айтуынша, адамдар мәтін арқылы келген өтінішке күдікпен қарауы мүмкін, алайда бейне немесе аудиода «досының даусын» естігенде, сын көзбен қарау қабілеті көбіне сөнеді. Тіпті дауыс не түр сәл жасанды шықса да, «микрофоны бұзылған шығар», «денсаулығы нашарлап тұр» деп өздері ақтап алуы ықтимал. Нәтижесінде цифрлық алаяқтықтың көлемі еселеп өсуде: әлемдік зерттеуге сәйкес, 2023 жылы дипфейк арқылы жасалатын алаяқтық саны 31 есе, яғни 3000% артқан.

Үшіншіден, жасанды интеллектінің жаппай енуі жалпы қоғамдағы ақпаратқа деген сенімділікті төмендетеді. Шынайы мен жасандыны ажырату қиын болған соң, адамдар көрген-білген контентінің растығына күмәнмен қарай бастайды. Бұл жағдайдың демократиялық процестерге де әсері бар, мысалы, жалған видео арқылы сайлаушылардың көзқарасын өзгерту, беделді тұлғаларды қаралау сияқты ақпараттық шабуылдар жасауға мүмкіндік туып отыр. Осы себепті көптеген мемлекеттер ЖИ контентін бақылауды ұлттық қауіпсіздік пен қоғамдық тұрақтылық мәселесі деп қарастыруда.

Контентті «Бұл ЖИ жасаған» деп белгілеу жоғарыдағы қауіптердің алдын алудың бір амалы ретінде ұсынылғанымен, оның тиімділігі жайлы пікірлер әртүрлі. Ресейде талқыланып жатқан заң бойынша ережені бұзған жеке тұлғаларға 10–15 мың рубль, лауазымды тұлғаларға 100–200 мың, компанияларға 200–500 мың рубль айыппұл салу көзделген. Алайда, сарапшылар мұндай белгіні бақылап отыратын техникалық жүйе құрылмаса, заңның орындалуы екіталай екенін айтады. Желіде еркін таралатын дипфейктер мен алаяқтардың қоңырауларын бұл заң тоқтата алмайды, тек «жасанды интеллектіні пайдаланып қылмыс жасағандарға жаза күшейтілуі мүмкін» деген пікірде мамандар. Сондай-ақ «адал» авторлар ғана белгі қойып, ал зиянкестер оны айналып өтудің жолын табары анық деген күдік бар. Яғни, бұл шара есіктегі құлыптың тек тәртіпті адамдарға ғана әсері бар, ал бұзақыларға тоқтау болмайтыны сияқты болуы ықтимал деп сарапшылар ескертеді.

Сонымен қатар, барлық тұтынушыға контенттің қалай жасалғаны маңызды болмауы да мүмкін. Кейбір аудитория үшін ЖИ жасаған өнім өзі қызық дүние. Мысалы, Мәскеу мемлекеттік университетінің профессоры Михаил Макеенко  «Егер біреу сүйікті жазушысының стилінде ЖИ жазған романдарды оқығанды ұнатса, және онда «Бұл шығарманы ЖИ жазды» деп ашық жазылса – оқырман қарсы емес, сол әлемге қайта еніп кетеді. Ал енді біреулерде ЖИ-ге аллергия болуы мүмкін» деп атап өтті. Яғни, белгі қойылғанның өзінде оны елеп-ескермеуі мүмкін, сұраныс болса ЖИ-контентті тұтыну жалғаса береді.

Дегенмен, көптеген мамандар ЖИ-контентті реттеу қажеттігін мойындайды. Маркировка – халықаралық тәжірибе, кей елдерде заң арқылы, кей жерлерде компаниялардың этикалық бизнес тәртібі ретінде қалыптасқан дейді заңгерлер. Мақсат – тұтынушы хабардың түп-төркінін түсініп, алданбауы, сондықтан көрерменге/оқырманға қандай контент алып отырғанын айқындап беретін белгілер керек. Бұл әсіресе жаңалық, саяси ақпарат, қаржылық кеңес сияқты критикалық мазмұнда өте маңызды. Мысалы, Еуропада deepfake қолданылған жалған жаңалықтар тарату 2020 жылдан заңмен тыйым салынған – мұндай контент анық белгіленбесе, жауапқа тартылады.

Жаппай енген жасанды интеллект екі ұшты қару іспеттес: бір жағынан, технология прогресті жылдамдатып, өмірімізді жеңілдетсе, екінші жағынан, оны зиянды мақсатта пайдалану қатері өсіп барады. Deepfake құралдары арқылы қарапайым адамды алдау, беделді тұлғалардың бейнесін бұрмалау, жалған ақпарат тарату бұрын-соңды болмаған деңгейде қолжетімді болып отыр. Сондықтан, әлем елдері бұған бей-жай қарамай, ЖИ-контентті белгілеп отыру, заңнаманы қатаңдату, жұртты ақпараттық сауаттылыққа үйрету сияқты шараларды қолға алуда.

Әрине, контентке белгі қою – мәселені толық шешпейді. Зиянкестерді тоқтату үшін ЖИ арқылы жасалған фейктерді анықтайтын технологияларды дамытып, құқық қорғау органдары мен платформалар ынтымақтаса әрекет етуі қажет. Дегенмен, «Бұл материал жасанды интеллект көмегімен жасалған» деген ескерту белгілерін енгізу – көпшілікті сақтандырудың және жалған ақпаратты әшкерелеудің бір құралы ретінде маңызды қадам. Жасанды интеллектінің пайдасын қоғам игілігіне жаратумен бірге, оның қауіпті тұстарын ауыздықтау – алдағы жылдардың басты міндеттерінің бірі болмақ.

Сіздің реакцияңыз?
Ұнайды 0
Ұнамайды 0
Күлкілі 0
Ашулы 0