Корпоративное мошенничество в эпоху ИИ и цифровизации
2026 год становится переломным: мошенничество ускоряется и «умнеет» благодаря генеративному ИИ и автономным помощникам. Угроза смещается от отдельных инцидентов к системным сценариям, где злоумышленники совмещают социальную инженерию, цифровые подделки и автоматизированные атаки.
Компании больше не могут оперировать бинарной логикой «бот / не бот». Теперь критично отличать легитимного помощника, действующего в интересах пользователя, от вредоносного цифрового агента, который действует под теми же правами, но с противоположными намерениями. Доверенная автоматизация становится центром повестки 2026 года.
По данным прогноза Experian, ситуация на рынке подтверждает масштаб проблемы: Федеральная торговая комиссия США зафиксировала, что в 2025 году потребители потеряли более 12,5 млрд долларов из-за мошенничества, причем объем финансовых потерь вырос на 25%, несмотря на стабильное количество обращений — около 2,3 млн случаев в год. Почти 60% компаний сообщили о росте убытков с 2024 по 2025 год, а 72% руководителей рассматривают ИИ fraud и дипфейки как один из ключевых операционных рисков.
Если в 2020–2025 годах компании в основном реагировали на инциденты точечно, то в 2026 году приоритет меняется: главная задача — научиться управлять доверенной автоматизацией. Это означает необходимость встраивать в процессы:
- четкие механизмы идентификации,
- прозрачные цифровые контроли,
- прослеживаемость действий людей и ботов,
- распределение ответственности и зрелое управление рисками.
Там, где процессы структурированы, прозрачны и контролируются, мошенничество становится дороже, сложнее и менее вероятным, а устойчивость компании повышается.
Экономика ущерба: почему потери растут даже без роста числа инцидентов
Главный парадокс 2025 года — стабильное число заявлений о мошенничестве при росте среднего ущерба. Почему так происходит? Атаки становятся менее массовыми, но более подготовленными и точечными. Злоумышленники активно используют персонализацию, автоматизацию и генеративный ИИ, чтобы повысить эффективность схем.
ИИ резко снизил издержки на подготовку: теперь значительно проще создавать правдоподобные легенды, мимикрировать под конкретную компанию или должность, вести долгие переписки и управлять поведением жертвы.
Важным в оценке рисков становится не количество инцидентов как таковых, а их глубина, тяжесть и скорость обнаружения.
В фокусе:
- сколько операций проходит через усиленную верификацию,
- как быстро компания способна отозвать компрометированный доступ,
- какая доля платежей и закупочных циклов покрыта мониторингом аномалий,
- и насколько полно компании удаётся выявлять неочевидные отклонения до того, как они превращаются в финансовый ущерб.
В условиях растущей сложности атак именно эти KPI зрелости контрольной среды становятся определяющими для операционной устойчивости.
Казахстан: локальные факторы риска и типовые точки уязвимости
В Казахстане темпы цифровизации часто опережают зрелость внутреннего контроля. Компании активно внедряют электронные согласования, онлайн закупки и распределенные модели работы.
При этом часто сохраняются фрагментарные ИТ ландшафты, разрозненные журналы событий, параллельные системы учета и избыточные права доступа. Такая архитектура облегчает манипуляции «на стыках» процессов — там, где контрольные механизмы либо отсутствуют, либо не синхронизированы. Традиционные схемы — подмена первичных документов, злоупотребления в закупках, умышленные корректировки данных — получают «цифровую» форму. Теперь для их выявления нужна аналитика аномалий, сквозные журналы активности, корреляция событий между системами и forensic подход к проверке данных.
Именно поэтому для компаний казахстанского рынка ключевым вызовом становится не скорость цифровизации, а способность выстроить зрелую контрольную среду, которая сможет удерживать эти процессы под управлением.
Карта угроз 2026: от дипфейков до «машинного хаоса»
«Хаос во взаимодействии ботов»: новая реальность для цифровых платформ
Злоумышленники смешивают легитимных цифровых помощников (ботов, действующих от имени пользователя) с вредоносными автоматизированными ботами, которые могут пытаться захватывать аккаунты или подменять операции.
Решение: Архитектура нулевого доверия Zero Trust не только для людей, но и для алгоритмов.
Дипфейки в финансовых процессах
Инцидент в Гонконге на $25,6 млн ущерба: сотрудник финансовой службы транснациональной компании перевел деньги после участия в видеоконференции, на которой все участники — коллеги, руководители, инициаторы запроса — оказались цифровыми дипфейками.
Этот случай стал более масштабным и технологически сложным, чем атаки предыдущих лет Теперь злоумышленники создают полный цифровой коллектив, который выглядит правдоподобно во всех деталях.
Фальшивое видео, поддельный голос, искусственные Zoom аватары стали обычными инструментами мошенников. Теперь сложность не в создании дипфейка, а в том, что злоумышленники заранее собирают данные о сотрудниках, ролях, процессах и контексте, что делает подделку практически неотличимой от реальности.
Золотое правило:
Любая критическая операция — особенно платежи и изменение реквизитов — требует второго независимого канала верификации. Визуальный контакт больше не является подтверждением личности.
HR риски: сотрудники-призраки
Deepfake кандидаты успешно проходят интервью в удаленных командах, а злоумышленники получают доступ к корпоративным системам и данным.
Клоны сайтов и корпоративных порталов
ИИ радикально упрощает создание копий легитимных сайтов — от внутренних порталов до страниц поставщиков. Это означает рост риска: перехвата учетных данных, подмены реквизитов, внедрения фальшивых счетов в цепочку платежей.
Часто именно подрядчик оказывается слабым звеном, а атака внешне выглядит как обычная рабочая коммуникация.
Фишинг с имитацией живого общения
Злоумышленники используют чат ботов, способных: вести натуральный диалог, адаптировать тональность, менять канал связи, поддерживать контекст и «развивать» доверие. Это делает их особенно опасными: сотрудник воспринимает общение как нормальную бизнес коммуникацию, а не как атаку.
Модель защиты 2026: от правил к встроенным контролям
Архитектура доверия для людей и автономных цифровых помощников
Переход к работе с автономными ИИ помощниками требует не просто «регламентов», а полноценной архитектуры доверия. В неё входят правила полномочий, протоколы подтверждения и прозрачные журналы действий. Цель такой архитектуры — обеспечить, чтобы любая автоматизация оставалась управляемой и контролируемой.
Двухканальная верификация и защита от дипфейков
Критические операции — изменение реквизитов, одобрение платежей, выдача доступов — должны подтверждаться по двум независимым каналам.
Принципиальные правила: контакты — только из доверенного справочника, видеозвонок или «личное присутствие» — не являются доказательством личности, любые срочные или «конфиденциальные» запросы требуют дополнительной проверки.
В условиях, когда визуальные подтверждения больше нельзя считать достоверными, устойчивость безопасности обеспечивается только строгими, встроенными процедурами контроля.
Контроль доступа и онбординг сотрудников
Принцип наименьших полномочий становится ключевым инструментом защиты — особенно в условиях удалённой работы. Эффективная модель включает: поэтапную выдачу прав при онбординге, усиленный мониторинг аномалий в течение первых 30–60 дней, обязательный пересмотр «старых» прав доступа, жёсткий контроль исключений. Такая дисциплина снижает риски как от инсайдеров, так и от дипфейковых «кандидатов».
Сценарные тренинги и функциональная готовность
Обучение должно воспроизводить реальные сценарии 2026 года: диалоговый фишинг через чат ботов, «срочные» запросы на платёж, подмена реквизитов, запросы «от руководителя» с использованием синтетического голоса или видео.
Главная цель — сформировать устойчивый навык: замедлиться, перепроверить источник, переключиться на второй канал коммуникации, прежде чем выполнять критическое действие.
Forensic аналитика как инструмент профилактики
Регулярные forensic проверки позволяют находить схемы до того, как ущерб становится материальным. Для этого анализируются: системные логи, цепочки согласований, данные о перемещении прав доступа, справочники контрагентов, аномалии в платежах и закупках.
В 2026 году forensic аналитика перестаёт быть «экстренной мерой» и становится базовым элементом зрелой контрольной среды — обязательным компонентом для компаний с цифровой операционной моделью.
Главные риски
Главные риски 2026 года связаны не столько с самим ИИ, сколько с тем, насколько готово корпоративное управление к его последствиям. По мере того, как в e commerce и сервисных экосистемах расширяется использование автономных ИИ агентов, рынок неизбежно выходит к дискуссии о новой модели ответственности: кто отвечает за действие цифрового агента, если разрешение формально дал пользователь, но итоговая транзакция оказалась мошеннической?
Эта неопределенность порождает ещё один риск: потерю прямого контакта с клиентом, если автономный агент выполняет покупку и исчезает, лишая бизнес-данных, понимания поведения пользователя и возможностей для формирования лояльности — важнейших активов современной розницы.
В корпоративной среде эти тенденции проявятся гораздо глубже и болезненнее:
- Рост количества спорных инцидентов, где сложно определить, кто именно совершил действие — сотрудник, злоумышленник или автономный бот.
- Усиление давления на функции комплаенса и информационной безопасности, поскольку «серая» автоматизация и несинхронизированные ИИ инструменты создают неконтролируемые участки внутри процессов.
- Усложнение расследований, ведь коммуникации, документы и подтверждения действий всё чаще могут быть синтетическими — от голоса и видео до скриншотов и переписок.
В такой среде критически важным становится наличие зрелой контрольной архитектуры, где каждый шаг оставляет проверяемый цифровой след. Поэтому особую значимость приобретают: прозрачная прослеживаемость действий, единые и непротиворечивые журналы событий, четкие правила принятия решений и эскалации, устойчивые процессы валидации и пересмотра доступа.
Именно эти элементы становятся фундаментом корпоративной устойчивости в 2026 году, когда границы между человеком, ИИ ассистентом и злоумышленником становятся все менее различимыми, а цена управленческой ошибки — все выше.
В эпоху стремительного развития ИИ выигрывают не просто технологически продвинутые компании, а те, у кого инновации опираются на эффективную контрольную среду. Практика 2026 года показывает: конкурентоспособность определяется глубиной внедрения механизмов контроля — от двухканальной верификации и строгого управления доступами до мониторинга аномалий, контроля действий автоматизированных агентов и forensic аналитики. Когда эти элементы становятся частью корпоративной «операционной ДНК», атаки становится сложнее, дороже и менее вероятными, а устойчивость компании — выше.