ЖИ көмегімен жасалған фото-видеоны қандай жағдайда таңбалау қажет

Мәжіліс депутаты Екатерина Смышляева жасанды интеллект көмегімен жасалған фото не видеоны қандай жағдайда таңбалау қажет екенін айтты.
Сөзінше, дипфейк ұғымына қатысты сұрақтар туындаған. Депутат оның екі түрі барын айтады.
Біріншісі – білім беру немесе басқа саладағы цифрлық контентте қолдану. Бұл жағдайда ЖИ көмегімен фото жасау барысында адамның келісімін алу және жеке деректерді қорғау туралы заң талаптарын сақтау қажет.
Екіншісі – алаяқтық және басқа да заңсыз мақсатта пайдалану. Бұл жағдайда ЖИ көмегімен жасалған өнім экономикалық шығынға әкелді ме немесе адамның беделіне нұқсан келтірді ме деп қаралады. Әрекет түріне қарай артылатын жауапкершілік те әртүрлі.
«Бұл жерде ақпараттық технологияларды пайдалану жауапкершілікті ауырлататын мән-жай ретінде қарастырылады», – дейді депутат Екатерина Смышляева орталық коммуникациялар қызметінде өткен брифингте.
Сондай-ақ депутат ЖИ көмегімен жасалған фото-видеоны таңбалауды түсіндірді.
«Көпшілік «фото не видеоны жасанды интеллект жүйелері арқылы өңдесем, оны міндетті түрде таңбалауым керек пе» деп сұрап жатыр. Заңда таңбалауға қойылатын талаптарға мұқият қарау керек. Ол жерде, шын мәнінде, болмаған оқиғаны болғандай етіп көрсеткен жағдайда таңбалау қажет.
Демек ойдан шығарылған видео, фотоны таңбалау міндетті», – дейді депутат.
Сөзінше, келешекте дипфейкке қатысты қылмыстық кодекске де жауапкершілікті ауырлатуға қатысты өзгерістер енгізіледі.