Нейрон желілері жалған ақпаратпен қалай күреседі

Нейрон желілері қазір сурет сала алады, мәтінді ғажап жазады, адамдардың жүріс-тұрысына да талдау жасайды. Ол аздай, кейінгі кездері олардың мойнына фейкпен күрес сынды маңызды миссия да «ілінді». Аттап бассаңыз дезинформация қаптаған заманда ақпараттың шын-өтірігін тану оңай емес. Әсіресе, әлеуметтік желіде жалған ақпарат желдей еседі. Мұндайда шындыққа жететін құрал ретінде жасанды интеллектіні іске қосамыз. Бүгінгі материалымызда нейрон желілерінің фейктерді қалай танып қоятынын айтамыз. Оған қоса Қазақстанда қандай технологиялық бастамалар жасалып жатқанына тоқталамыз.
Бұл мәселе неге маңызды?
Фейктерді интернеттегі жалған ақпарат деп қана түсінуге болмайды. Өйткені оның астарында өте үлкен манипуляция жатуы мүмкін. Ол қоғамдық пікірге, тіпті сайлау сынды ауқымды науқандарға әсер етеді. Кризис кезінде көпшіліктің үрейін тудырып, түрлі қақтығысқа себеп болуы ғажап емес. World Economic Forum деректеріне сүйенсек, дезинформейшн пен жалған жаңалықтар адам үшін қауіп тудыратын бестіктің ішінде екен. Әсіресе, ресми дереккөздерге ұқсатып ақпарат тарататын фейктер, дипфейк көмегімен айтпағанды айтқызып қоятын видеолар өте қауіпті.
Бұл жолда жасанды интеллект қалай көмектеседі?
Жасанды интеллект жүйелері фейктермен күресте бастан-аяқ қолданылады:
1. Мәтінге детекция жасайды
Миллондаған жаңалықтарды негізге ала отырып үйретілген нейрон желілері фейк ньюсті жақсы таниды. Қалай?
- Стилистикасынан ажыратады. Фейктер көбіне кликбейт, эмоциялық тұрғыда қатты әсер ететін, «айқайлап» тұратын тақырыптар мен мәтінге құмар келеді. Олардың құрылымы жиі сондай болады.
- Лексикалық талдау жасайды. Жүйе дезинформейшн болуы мүмкін сөздердің жиілігін есептей алады. Сол паттерндерге сүйенеді.
- Реал тайм режимде фактчекиң жасайды. Деректер базасымен (Уикипедия, OpenFact дегендей) интеграция жасалған GPT немесе ChatGPT сынды модельдер сенімді дереккөздерді демде тексеріп, анықтап береді.
2. Фейк суреттерді танып қояды
ResNet, EfficientNet және CLIP сияқты жүйелер бар. Олар:
- Суретті түпнұсқасымен салыстырады;
- Өңделген бе, соны тексеріп береді. Яғни шум талдауы, қысылған ба, көлеңкелер үйлесіп тұр ма, жарық қалай түсіп тұр дегендей факторларды есепке алады;
- Контексін қарайды. Мысалы, егер сол сурет бұрын басқа жерде қолданылған болса, оны жүйе бірден анықтайды.
3. Дипфейкпен күреседі
Ең қиыны да осы десек болады. Қазір жасанды интеллект мына мақсаттарда қолданылып жүр:
- Ерні қалай қимылдайтынын, мимикасы қалай өзгеретінін салыстырады. Мысалы, LipNet, FaceForensics++ деген модельдер бар.
- Видеода көзге көріне қоймайтын, бірақ генерация кезінде шығатын микроартефактілерге талдау жасайды.
- GAN-архитектураларға сүйене жасалған детекторлар жасалады. Олар «жасанды интеллектіге қарсы шығатын жасанды интеллект» принципімен басқа GAN-дардың ізін іздейді.
Басты технологияларға шолу
Технология атауы | Бағыты | Қай жерде қолданылады |
BERT, RoBERTa, GPT | Мәтінді өңдейді, талдау жасайды | Автомат фактчекиң үшін |
CLIP (OpenAI) | Сурет пен мәтіннің байланысын іздейді | Фото мен оның сипаттамасын салыстырғанда пайдаланылады |
Deepfake Detection Challenge models | Дипфейктерді анықтайды | Медиаплатформалар мен арнайы қызмет саласында |
Multimodal Transformers | мәтін+видео+аудионы біріктіреді | Жаңалықтардың рас-өтірігін тексеретін кезде |
Қайда қолданысқа еніп үлгерген?
Әлеуметтік желіде және медиа саласында
- Meta (Facebook пен Instagram) фейк ақпаратты жергілікті тілде тани алатындай өз модельдерін іске қосты.
- YouTube контентті ресми деректермен тексеру үшін жасанды интеллект саласындағы стартаптармен бірлесіп жүмыс істейді.
- X (ex-Twitter) машинаны үйрету технологиясын күмәнді туиттерді анықтау мақсатында пайдаланады.
Мемлекеттік жобаларда
- АҚШ, Еуропа, Қытай елдерінде жалған ақпаратқа мониториң жасайтын ұлттық платформалар жасалып жатыр.
- Digital Report 2024 деректеріне сүйенсек, мұндай бастама Қазақстанда да бар. Әсіресе, сайлауалды кезеңде, төтенше жағдайларда медиабақылау жасау үшін жасанды интеллект алгоритмін жасамақшы.
Мына нәрсені естен шығармауымыз керек:
- MIT ақпараты бойынша, фейктерді танып қоятын нейрон желілерінің дәлдігі 92% шамасында екен.
- Дегенмен жасанды интеллект кейде қателесуі мүмкін. Мұны да ескермесе болмайды.
- Жасанды интеллект кейде елдің мәдениетінің әралуандығынан туатын мәтіндерді түсінбей қалуы мүмкін.
Челленджер
- Жасанды интеллект дамыған сайын алаяқтардың да дамып жатқанын ұмытпау керек. Фейктерді уақыт өткен сайын ажырату қиындап барады.
- Әдеп жағынан мәселе бар. Мемлекет не корпорациялар нейрон желілерін цензура үшін пайдалануы мүмкін деген пікір бар.
- Тіл мен мәдениет әртүрлі. Алгоритмдердің дені ағылшын тілінде өте жақсы жұмыс істейді. Бірақ қазақша, арабша, хинди және т.б. тілдерде ондай керемет істемеуі мүмкін.
Қазақстандағы технологиялық бастамаларға шолу
Factcheck.kz
Factcheck.kz жобасы қазір жасанды интеллектіні дезинформейшнмен күрес үшін белсенді қолданып жүр. Оның алдын-алу үшін тәсілдер ойластырумен де айналысады. Әсіресе, ЖИ арқылы жасалған фейктерді анықтауға баса назар аударып жатыр.
StopFake.kz
StopFake.kz платформасы фейктерді тауып қана қоймай, оны жоққа шығарумен айналысады. Оның ішінде танымал адамдарға жасалған дипфейк-видеоларды анықтайды. Айталық, Қасым-Жомарт Тоқаев, Михаил Ломтадзелердің видеолары бұрын желіде қатты таралып, платформа фейк екенін анықтаған еді.
Бейнебақылау үшін жасанды интеллект қолданылады
Еліміздің кей қалаларында адамның түрін жасанды интеллект арқылы автомат танитын бейнебақылау жүйесі енгізіліп жатыр. Осы технологиялар қылмыскерлерді, із-түссіз жоғалғандарды табуға көмектеседі.
Еске сала кетсек, бұған дейін «даусымызды жазып алып кредит рәсімдеп тастайды екен» деген ақпарат тараған. Осы мәселеге байланысты материал дайындаған.