![](https://cdn-kz.kursiv.media/wp-content/uploads/2025/02/54-08-1024x576.jpg)
Компания Google в начале февраля изменила свои правила разработки искусственного интеллекта, убрав из них обязательство воздерживаться от использования технологии для создания оружия и средств наблюдения. Военные разработки ИИ уже идут полным ходом и щедро финансируются. И компания, видимо, решила не отставать от тренда.
День позора
7 декабря 1941 года примерно в 7:55 утра императорская Япония с помощью самолетов и подводных лодок внезапно атаковала американскую военно-морскую базу на гавайском острове Оаху — Перл-Харбор. Американцы были застигнуты врасплох и понесли серьезные потери, что дало повод президенту США Франклину Рузвельту в своей речи на следующий день назвать эту дату «днем позора».
Сайт Национального музея Второй мировой войны в Новом Орлеане перечисляет один стратегический и несколько серьезных тактических просчетов, которые привели к печальному финалу, которого вполне можно было избежать.
Со стратегической точки зрения, отсутствовала координация между Военно-морским флотом и Армией США, которая отвечала за противовоздушную оборону Перл-Харбора. С тактической — из-за этого рассогласования американские военные не смогли вовремя сопоставить тревожные сигналы.
Около 3:20 утра 7 декабря 1941 года тральщик USS Condor доложил о том, что заметил перископ. Это был перископ одной из пяти 46-тонных японских «сверхмалых» подводных лодок, которым было поручено проникнуть в гавань и атаковать корабли. Контакт был командованием проигнорирован — «вам показалось».
В 6:30 утра наблюдатели на судне снабжения USS Antares увидели над водой рубку подводной лодки. Ответственный за охрану гавани Перл-Харбора эсминец USS Ward атаковал и потопил ее, но к общей тревоге это не привело.
Спустя еще 15 минут радар заметил два неопознанных самолета (как позднее выяснилось, это была японская разведка), однако в тот момент их принадлежность определить не удалось. И тревогу, опять-таки, никто не поднял.
И, наконец, в 7:02 радиолокационная станция на Оаху засекла в 88 милях (примерно 140 км) массированный сигнал — это была часть первой волны из 183 нападающих на Перл-Харбор японских самолетов. В 7:15 о сигнале было доложено в Центр воздушной информации, но дежурный офицер решил, что это звено американских B-17, которые должны были возвращаться примерно с того же направления. О том, что в звене около десятка самолетов, а радиолокация заметила более 50, военные друг другу не сообщили.
«Обнаружение первой волны примерно за 40 минут до падения бомб должно было вызвать полную тревогу по крайней мере за 20 минут до атаки. Поскольку линкорам требовалось всего около восьми–десяти минут, чтобы привести корабль в боевую готовность с закрытием всех водонепроницаемых отсеков… даже если удвоить это время… атака все равно должна была застать защитников кораблей в состоянии боевой готовности», — рассказывается на сайте Национального музея Второй мировой войны.
Однако этого не случилось. В итоге Соединенные Штаты потеряли 3435 человек, 188 самолетов, восемь линкоров, три легких крейсера и четыре других судна. Всего лишь из-за того, что некому было собрать крупицы информации в общую картину,
Если бы в 1941 году существовала развитая информационная система на основе ИИ, она значительно повысила бы шансы на предотвращение атаки на Перл-Харбор благодаря анализу аномалий в реальном времени. «ИИ-система могла бы объединить предварительные сигналы и настоять на объявлении тревоги», — считает ChatGPT.
Тут, конечно, интересное слово «настоять». Так и представляю себе, как чат-бот орет синтезированным голосом на командовавшего в 1941 году Тихоокеанским флотом США адмирала Хасбенда Киммела: «Немедленно объявляйте общую боевую тревогу или даю прогноз: с вероятностью 100% будете остаток жизни гальюны драить!»
Шутки шутками, но в наши дни к внедрению военных технологий ИИ в США, судя по всему, относятся очень серьезно.
Военные миллиарды
В 2018 году Министерство обороны США представило свою стратегию в сфере развития военного ИИ.
«Другие нации, особенно Китай и Россия, вкладывают значительные средства в искусственный интеллект для военных целей. Эти инвестиции угрожают подорвать наши технологические и оперативные преимущества и дестабилизировать международный порядок. Являясь хранителем безопасности и процветания общества США, Министерство обороны должно использовать творческий подход и способность Соединенных Штатов решать технические, этические и социальные проблемы, связанные с ИИ, и реализовывать его возможности по сохранению мира и безопасности для будущих поколений», — говорилось в стратегии.
Спустя пять лет, в 2023 году, стратегия была обновлена с упором на ускорение внедрения передовых технологий обработки данных, аналитики и ИИ.
Это «беспрецедентная возможность снабдить руководителей департаментов на всех уровнях необходимыми им данными для более быстрого принятия более обоснованных решений — от зала заседаний до поля боя», — сказал тогда директор по цифровым технологиям и искусственному интеллекту Минобороны Крейг Мартелл.
Параллельно аналитики отметили бурный рост расходов Министерства обороны на разработки, связанные с ИИ.
Потенциальная (полная за несколько лет) стоимость федеральных контрактов, связанных с военным ИИ, выросла почти на 1500%: с $269 млн по состоянию на август 2022 года до $4,3 млрд на август 2023 года. Из всех государственных расходов на разработку ИИ-инструментов на долю Минобороны пришлось 95%, согласно отчету института Брукингса, другие министерства — «в пределах погрешности». На один только 2024 год Пентагон запросил на ИИ-разработки более $3 млрд, по данным Bloomberg.
Основной ИИ-проект армии США (по крайней мере, из тех, о которых известно) — это система Maven, которая разрабатывается с 2017 года. Согласно данным Bloomberg, это платформа, которая в едином интерфейсе Maven Smart System объединяет разнообразные потоки данных, чтобы идентифицировать цели на поле боя.
Это могут быть изображения со спутников, дронов-разведчиков, от радиолокационных систем, которые видят сквозь облака, темноту и дождь, а также инфракрасных датчиков, обнаруживающих тепло, что позволяет искать такие объекты, как двигатели или оружейные заводы. Maven также может анализировать невизуальную информацию, например, путем сбора перекрестных ссылок на теги геолокации из данных электронного наблюдения и каналов социальных сетей.
Система Maven уже применяется. По данным Bloomberg, в начале февраля 2024 года США с ее помощью нанесли удары по более чем 85 целям в Ираке и Сирии, а также неоднократно бомбили объекты в Йемене.
Конечно, коммерческий спрос на ИИ-решения гораздо больше, чем у военных. По оценке Statista, в 2024 году он в глобальном масштабе составил $184 млрд. Зато госзаказы от Минобороны и других ведомств США для американских фирм — более надежный источник финансирования. Достаточно вспомнить недавнюю панику на рынке, связанную с выходом китайского ИИ DeepSeek, который, по собственным данным, не уступает передовым американским ИИ-моделям, но при этом на порядок дешевле в разработке.
Очевидно, что в текущей политической ситуации противостояния с Китаем ни одно американское ведомство, а в особенности разведка и военные, и на пушечный выстрел не подойдут к программе, хотя бы отдаленно связанной с Поднебесной, какой бы эффективной и дешевой эта программа ни была.
В четверг, 6 февраля, например, американские законодатели предложили закон, запрещающий использование DeepSeek на любых правительственных устройствах, пишет The Wall Street Journal.
Деньги и принципы
Между тем, использование ИИ в военных системах порой несет в себе неожиданные сюрпризы.
В 2023 году на конференции Королевского авиационного общества Англии начальник отдела испытаний и эксплуатации ИИ ВВС США Такер Гамильтон рассказал, что в одной из симуляций ИИ боевого дрона проявил «творческий» подход. Ему приказали уничтожить систему ПВО противника, однако финальное решение должен были принимать человек-оператор. Когда человек сказал «нет» на уничтожение ПВО, дрон решил, что человек мешает выполнению главной задачи, и принял решение уничтожить оператора. После переобучения ИИ, нацеленного на то, что уничтожение оператора недопустимо, дрон принял новое решение — уничтожить систему связи, по которой человек передавал сигнал «нет».
Позднее ВВС США объявили, что Гамильтон «оговорился» и ситуация носила чисто гипотетический характер, никаких симуляций с такими результатами на самом деле не проводилось. Но осадок, как говорится, остался.
Что касается проекта Maven, то, по данным Bloomberg, его точность идентификации целей составляет 60% (против 84% у военных аналитиков). «Преимущество, которое вы получаете от алгоритмов, — это скорость», — цитирует агентство технического директора Центрального командования США Шайлер Мур.
Менее точно, но зато быстро выбирает военные цели? Звучит не очень хорошо, по крайней мере, для тех, кто рискует оказаться в зоне работы таких систем. Не удивительно, что у гражданских разработчиков ИИ возникла этическая дилемма. Как я писал в октябре, системы ИИ, по крайней мере, на первом этапе, создавались альтруистами, которые мечтали о том, что это будет технология, работающая на благо всего человечества. Создание военных ИИ в благостную картину как-то не очень вписывается.
Видимо, именно поэтому в 2018 году, когда Google заключил с Пентагоном контракт как раз на разработку компьютерного зрения для Maven, сотрудники компании взбунтовались — тысячи подписали письмо протеста, а некоторые уволились. Контракт не был продлен в 2019 году, когда истек срок его действия.
Кроме того, Google записала в свои принципы разработки ИИ, что не будет заниматься «оружием или другими технологиями, основной целью или применением которых является причинение или прямое содействие причинению вреда людям».
Осенью того же года компания на основе этих принципов отказалась участвовать в конкурсе на создание облачной инфраструктуры ИИ для Минобороны США за $10 млрд, пишет The Washington Post.
Принципы продержались почти семь лет, но в феврале этого года СМИ обратили внимание, что эти строки исчезли с сайта Google «Принципы разработки ИИ».
«Глобальная конкуренция за лидерство в области ИИ происходит в условиях все более сложного геополитического ландшафта. Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь такими основными ценностями, как свобода, равенство и уважение прав человека. И мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность», — написали в официальном блоге компании генеральный директор Google DeepMind Демис Хассабис и старший вице-президент по исследованиям Джеймс Манийка.
Может быть, дело действительно в их понимании национальной безопасности США. А может быть в том, что многие другие крупные технологические компании (Bloomberg упоминает Palantir Technologies, Amazon Web Services, ECS Federal, L3Harris Technologies, Maxar Technologies, Microsoft и Sierra Nevada) уже давно и активно сотрудничают с Минобороны США, и Google решил не оставаться в стороне от этих денег.
Посмотрите, например, как хорошо идут дела у главного разработчика Maven – Palantir Technologies: в мае 2024 года компания получила очередной контракт от Минобороны США на $480 млн. Всего за минувший год Palantir подорожала на 400% и теперь торгуется на исторических максимумах с капитализацией более $250 млрд.
Когда речь идет о больших деньгах, какие уж тут принципы.