Новости

Как мошенники манипулируют казахстанцами с помощью ИИ

коллаж kursiv.media, бильд-редактор: Адэлина Мамедова

В эпоху цифровизации мошенники все чаще используют искусственный интеллект для манипуляции людьми, эксплуатируя человеческий фактор и невнимательность. Специалист по информационной безопасности из Кыргызстана Артем Тарасов на медиафоруме ЕС поделился опытом, подчеркнув, как понимание атак помогает избежать ловушек, особенно при работе с ИИ.

Человеческий фактор как ключ к взлому

Артем Тарасов отметил, что в рамках своего выступления он вышел за рамки технических аспектов, сосредоточившись на перспективе атакующего. Участники обсудили реальные кейсы, где жертвы становились уязвимыми не из-за сложных хакерских методов, а из-за собственной наивности. По его словам, основной фактор успеха взлома — человеческий, и здесь решающую роль играет уровень знаний. Чем лучше люди понимают мотивы мошенников и способы их действий, тем легче им защитить свои доступы.

«Промах — спешка. Я сразу скажу и я всегда это говорю. Вы получаете сообщение, ссылкой, файлом, пусть даже от коллеги, от близкого, от подруги. И не делается анализа, действительно ли это от того человека пришло. К сожалению, в наш цифровой век, нужно делать анализ. Нужно делать эту микропаузу и обращать внимание, что это иногда не тот человек, который вам пишет и это приводит к плачевным последствиям», — заметил спикер в беседе с корреспондентом «Курсива»

Тарасов подчеркнул, что в цифровую эпоху необходима привычка к быстрому анализу входящих сообщений, даже от знакомых, чтобы избежать фишинговых атак, где мошенники маскируются под доверенных лиц.

Практические рекомендации по защите

Специалист посоветовал простые, но эффективные меры для минимизации рисков. Он рекомендовал строго разделять рабочие и личные аккаунты, чтобы потеря одного не привела к компрометации всего. Кроме того, Тарасов настаивал на постоянной бдительности. Любое полученное сообщение или файл может быть подделкой, и к нему стоит относиться с паузой для проверки.

«Во-первых, разделяй. Разделяйте рабочие аккаунты отдельно, домашние отдельно. Иначе потом появляется путаница, и если ты теряешь, то ты теряешь все», — заметил он.

Эти шаги, по его мнению, сочетают техническую дисциплину с психологической устойчивостью, помогая пользователям самостоятельно пресекать попытки манипуляции.

Недооцененные риски для медиакоманд

Тарасов выделил ключевую уязвимость медиакоманд — передачу личных данных в третьи источники, включая ИИ-инструменты. Как поклонник ИИ, он активно его изучает, но предупредил о необходимости обезличивания информации перед загрузкой. Многие бездумно делятся данными с чат-ботами вроде ChatGPT, не осознавая, что эти сведения могут быть извлечены и использованы злоумышленниками для целенаправленных атак.

«Основное правило — избегать передачи чувствительных сведений, особенно чужих, но при этом не стоит бояться технологии, а развиваться параллельно с ней, сохраняя осторожность!» — сказал Тарасов в заключении.

Это позволит медиакомандам использовать ИИ продуктивно, не становясь жертвами манипуляций.