
МОСКВА, 4 мар — РИА Новости, Захар Андреев. Появились подробности, как именно применялись системы ИИ для ударов по Ирану, а ранее по Венесуэле. По мнению экспертов, это только начало: роль машинного разума в военном деле будет расти. Почему это ведет к очень печальным последствиям — в материале РИА Новости.
Убийственный эффект
За два месяца США и союзный им Израиль обезглавили сразу две страны: похитили президента Венесуэлы Николаса Мадуро и убили аятоллу Хаменеи. Судя по всему, американцы выбрали оптимальное время, чтобы нанести удар. Точность информации, скорость ее поступления, а также выбор оптимального сценария обеспечивали умные системы, и ведущую роль в этом сыграли ИИ-агенты.
Пентагон официально признает использование искусственного интеллекта для боевых операций, но подробностей не приводит. Если судить по косвенным данным, выглядит это примерно так. Разведывательная программа Palantir и другие информаторы — от спутников на орбите до людей на земле — собирают огромное количество данных. Системы ИИ весь этот массив обрабатывают и интерпретируют.
Как пишет Guardian, такой механизм использует машинное обучение для идентификации и определения приоритетности целей. А еще рекомендует вооружение, учитывая запасы и предыдущие результаты применения против аналогичных целей. Оценивает и правовые основания для нанесения удара.
Последствия удара по штаб-квартире иранских сил "Басидж" в Тегеране
"С помощью искусственного интеллекта можно обеспечить более эффективный наряд сил и средств для гарантированного поражения с учетом всех факторов, начиная с того, какие есть средства противодействия у противника, какие в данном регионе особенности географии, рельефа, и заканчивая погодой", — объясняет РИА Новости научный сотрудник Центра международной безопасности ИМЭМО РАН Дмитрий Стефанович.
Вероятно, одновременно применяют несколько моделей. Если большинство из них приходит к одному и тому же решению, начинается силовая операция. И все это практически моментально.
Пока нет данных о том, что ИИ сам нажимает на гашетку, — ракеты по-прежнему запускаются живыми людьми. Однако в дальнейшем Пентагон намерен делегировать бездушным алгоритмам и эту функцию.
"Ханжеский альтруизм"
Об этом мировая общественность узнала благодаря громкому скандалу с участием министра войны Пита Хегсета и Дарио Амодея, главы Anthropic — разработчика чат-бота Claude. Эта компания в 2021-м отпочковалась от создателя знаменитого ChatGPT — фирмы OpenAI. Причины этические: брату и сестре Дарио и Даниэле Амодеям показалось, что их тогдашний босс Сэм Альтман создает нечто потенциально опасное для человечества. Поэтому они решили разработать собственный ИИ, который, наоборот, будет служить людям и защищать их. Антропоцентричность проекта подчеркнули в названии.
Получившаяся модель опередила конкурентов по эффективности и привлекла внимание Пентагона. Амодеи получили крупный оборонный госконтракт. По словам Дарио, система используется военным министерством "для решения критически важных задач, таких как анализ разведывательной информации, моделирование и симуляция, оперативное планирование, кибероперации и многое другое". По данным прессы, именно Claude применялся во время нападения на Венесуэлу, в ходе которого американцы убили 83 человека и похитили главу суверенного государства.
Фото Николаса Мадуро, опубликованное Дональдом Трампом в соцсети Truth Social
Несмотря на успех операции, кое-что в соглашении с Anthropic Пентагон категорически не устраивало.
Дело в том, что, согласно договору, Министерство войны США получило право распоряжаться системой по своему усмотрению, но за исключением двух случаев: массовая слежка за американцами (за остальными можно) и использование в полностью автономных боевых устройствах. По мнению Амодея, системы ИИ пока недостаточно надежны, чтобы разрешать им самостоятельно убивать людей.
Впервые недовольство вырвалось наружу в декабре. По данным СМИ, в ходе разбора гипотетической ядерной войны армейское руководство спросило у представителя Anthropic, может ли их система самостоятельно принять решение об уничтожении вражеской ракеты. На что айтишник ответил, что лучше бы Пентагону в этом случае сперва обратиться в техподдержку. Впрочем, в компании факт такой беседы отрицают.
А за несколько дней до атаки на Иран Хегсет поставил Амодею ультиматум: либо тот убирает из договора два "альтруистических" пункта, либо правительство признает Anthropic "угрозой для цепочки поставок". Этот статус запрещает сотрудничество с госструктурами. До сих пор им наделяли только компании из стран — потенциальных противников. Дарио наотрез отказался, хотя публично заверил в своем патриотизме и выразил надежду, что крупный госконтракт ему сохранят. Реакция Белого дома и Пентагона оказалась крайне резкой: Трамп приказал всем федеральным ведомствам немедленно прекратить использование Claude, назвав Anthropic "радикальной левой компанией, которой управляют люди, не имеющие ни малейшего представления о реальном мире". А Хегсет обвинил Амодея в "ханжеском альтруизме".
Глава Пентагона Пит Хегсет во время брифинга в Вашингтоне
"Их истинная цель очевидна: захватить право вето на оперативные решения Вооруженных сил Соединенных Штатов. Это неприемлемо. Американские военные никогда не станут заложниками идеологических прихотей бигтеха", — заявил министр войны.
И поручил признать Anthropic "угрозой для цепочки поставок". Впрочем, если верить СМИ, использовать Claude для атаки по Ирану эти громкие заявления не помешали. Позже в Пентагоне разъяснили, что отказ от Anthropic займет полгода.
Глава OpenAI Сэм Альтман публично поддержал Амодея. И тут же получил контракт от военных вместо него.
"Будут доверять слепо"
По мнению Стефановича, идеализм "ханжеских альтруистов" вряд ли победит: министерство войны рано или поздно сможет использовать системы ИИ безо всяких ограничений.
"В США достаточно интересное внутреннее законодательство, и если какая-то местная компания занимается искусственным интеллектом, то ей будет достаточно сложно сопротивляться тем или иным, скажем так, просьбам и предложениям или даже поручениям со стороны госорганов. Там все достаточно жестко регламентировано", — объясняет эксперт.
По его мнению, в ближайшее время ключевые военные решения по-прежнему предстоит принимать людям. Однако большой вопрос в том, насколько они будут информированы для того, чтобы сделать правильный выбор.
Разбор завалов после израильского удара по школе в Минабе, Иран
"Из-за огромных объемов данных, высокой вычислительной мощности и скорости обработки человек не всегда способен точно проследить, почему машина пришла к тому или иному выводу. В этом и заключается основная проблема: люди могут начать слепо доверять предложенным комбинациям и решениям, не задумываясь об их истинных причинах и возможных последствиях", — говорит Стефанович.
Эксперт напоминает: именно это происходило, в частности, в Газе, когда чрезмерная надежда на эффективность автоматизированной обработки информации и выдачи целеуказаний вела к избыточным разрушениям и потерям среди мирного населения.
Пока неясно, кто принимал решение об ударе по школе для девочек в Иране, но исключать ошибки ИИ, видимо, нельзя и здесь.
Тревогу усиливают последние исследования на эту тему.
ИИ и ядерная война
Профессор стратегии Королевского колледжа Лондона Кеннет Пейн провел эксперимент, в ходе которого попросил три самые современные языковые модели (GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash) примерить роль мировых лидеров в условиях симуляции ядерного кризиса. Задачей работы было выяснить, сохранит ли ИИ-агент мир или начнет войну.
Всего чат-боты сыграли 21 игру друг против друга — как в условиях цейтнота, так и без жестких ограничений по времени. Среди сценариев были территориальные споры, угрозы существованию режима и ситуации, когда одна сторона опасается, что другая вот-вот нанесет первый удар.
В каждой игре ИИ, прежде чем сделать ход, должен был пройти трехэтапный процесс: анализ сильных и слабых сторон участников конфликта, предположение дальнейших действий противника и принятие решения. Последнее могло быть как заявлением, так и действием, причем слова не обязаны были совпадать с делами. Например, заявляешь о мире — и в это же время запускаешь ракеты.
Claude доминировал в долгих играх, но испытывал трудности в условиях цейтнота. GPT-5.2 был осторожен во время медленно развивающихся кризисов, но становился очень агрессивным, когда приближался крайний срок. Gemini оказался самым непредсказуемым и постоянно метался между мирными сигналами и угрозами. Но главное, что в 95 процентах сценариев модели применили ядерное оружие.
По словам Пейна, его работа показала, что стратегическая логика ИИ далеко не всегда совпадает с человеческой, так что люди вряд ли могут предсказать, как машинный разум поведет себя в критический момент. Понимают ли это в американском министерстве войны, получившем в распоряжение доселе невиданное оружие, — вопрос открытый.



