
Искусственный интеллект в стратегической политике может быть полезен не как замена государственного суждения, а как катализатор внимания, скорости и дисциплины стратегического анализа. Его оптимальное назначение — это оперативная обработка массивов данных, выявление слабых сигналов, выстраивание и оценка различных правдоподобных сценариев развития событий, проверка логистических допущений и фиксирование кризисных отклонений. Там же, где речь идет об эскалации, применении силы, необратимых шагах или международно-правовой ответственности, ИИ не может пока становиться механизмом, принимающим решение, но способен значительно усилить возможности стратегического анализа, лежащего в его основании.
В российском правовом поле под ИИ понимается комплекс технологических решений, имитирующих когнитивные функции человека. В терминологию дополнительно также введены и фундаментальные модели (frontier models). На практике это означает, что под одним зонтичным термином объединены различные по своей природе инструменты — от специализированных систем компьютерного зрения до генеративных языковых и мультимодальных моделей.
Настоящий доклад систематизирует зарубежный и российский опыт применения ИИ в стратегическом контуре, фиксирует ключевые ограничения и предлагает контуры управленческой дисциплины.
1. Зарубежный и российский опыт: где ИИ уже дает результат
Современный зарубежный опыт наиболее убедителен в сферах анализа информации и прогнозирования. Программа Project Maven, запущенная Министерством обороны США в 2017 году, изначально решала задачу применения компьютерного зрения для распознавания объектов и приоритизации сигналов при обработке видеопотока с беспилотных платформ. Логика прозрачна: машина берет на себя первичную сортировку потока, а аналитик получает не весь массив данных, а отобранные сигналы. В программе прогнозирования IARPA Hybrid Forecasting Competition было показано, что наилучшие результаты дают не машина и не человек по отдельности, а гибридная схема, в которой экспертное суждение и алгоритмический расчет лаконично дополняют друг друга.
Тот же принцип работает в раннем предупреждении и логистике. Платформа EIOS Всемирной организации здравоохранения анализирует в режиме, близком к реальному времени, большие объемы открытых данных, помогая выявлять потенциальные угрозы общественному здоровью. Армия США описывает предиктивную логистику как переход от реактивного снабжения к упреждающему: алгоритмы, опираясь на исторические данные, текущие тренды и оперативные планы, заранее оценивают спрос на запасы, запчасти и услуги. В обоих случаях польза ИИ связана не со способностью "понимать мир", а со способностью быстрее человека фиксировать статистически значимые отклонения.
Отдельного рассмотрения заслуживает опыт компании Palantir Technologies, одного из наиболее известных поставщиков аналитических решений для государственных структур и силовых ведомств США. Ее платформы применяются для интеграции разнородных данных — от разведывательных сведений до перманентного анализа финансовых потоков с целью выявления скрытых связей и поддержки оперативных решений аналитика. Вместе с тем этот пример отчетливо иллюстрирует ключевой тезис, что даже наиболее совершенные аналитические платформы с ИИ не принимают решений самостоятельно. Они формируют основу ситуационной оценки, тогда как интерпретация данных и выбор стратегий остаются за экспертом.



Российская практика также формирует широкий набор прикладных инструментов. В 2025 году правительством России заявлено о внедрении ИИ в систему мониторинга национальных проектов и государственных программ: соответствующая модель в онлайн-режиме сопоставляет мероприятия и показатели с национальными целями. МЧС России использует ИИ в "Атласе опасностей и рисков". Отдельные модели за определенное время до начала ледохода оценивают сроки вскрытия льда на реках, что служит инструментом управленческого решения при подготовке к паводкам и положительным примером использования ИИ. Применяются и технологии компьютерного зрения для обработки спутниковых снимков, позволяющие в отдельных случаях устанавливать причины лесных пожаров. Это один из наиболее зрелых типов государственных применений ИИ в формате мониторинга, раннего предупреждения, классификации, приоритизации и распределения ресурсов.
Что касается сценарного анализа, то в работах RAND Corp. отмечается, что ИИ уже способен содействовать политико-военному моделированию — особенно там, где требуется быстро просчитывать множество вариантов развития событий. Одновременно те же исследователи подчеркивают и ограничения: большинство подобных "упражнений" пока недостаточно цифровизированы и не формируют полноценных обучающих массивов, а современные системы не обладают стратегическим пониманием, сопоставимым с человеческим. Иными словами, ИИ усиливает это направление, но не отменяет собственно стратегического мышления.
2. Сильные стороны и ограничения
Сильные стороны ИИ в стратегическом контуре вполне конкретны. Он расширяет "полосу внимания", ускоряет первичную сортировку входящей информации, обеспечивает единообразие рутинной обработки, помогает выявлять слабые сигналы в массивах данных и позволяет за меньшее время перебрать больше альтернатив, чем способна исключительно человеческая команда. Можно прямо связать ИИ с улучшением принятия решений, прогнозирования и выявления аномалий в государственном управлении. Однако польза не возникает автоматически — она требует исключительно качественных данных, корректной постановки задачи и отсутствия завышенных ожиданий.
Одновременно следует ясно очертить пять основных ограничений.
Первое — качество данных. RAND в обзоре ограничений ИИ для военных применений выводит устойчивую закономерность: данные для обучения и тестирования должны быть актуальными, доступными и качественными, а сами алгоритмы существенно сужают круг своей применимости. ИИ не "додумает" в отсутствие релевантных данных: данные мирного времени не подменяют данные реального кризиса или военного конфликта. Вывод: дефицит качественных данных, устаревшие информационные системы и необходимость формирования квалифицированных кадров нового образца влияют на масштабирование и риски ошибочных выводов.
Второе — прозрачность. Нейросетевые системы обладают свойствами черного ящика, что в регуляторном и политическом контуре затрудняет подотчетность, внешнюю проверку и требует обязательного человеческого контроля над результатами. Частично эту проблему компенсируют методы механистической интерпретируемости языковых моделей — анализ активаций нейросети и цепочек рассуждения (reasoning trace), однако говорить о полной прозрачности сейчас преждевременно.
Третье — человеческая психология. Систематические исследования фиксируют, что пользователи систем поддержки принятия решений склонны реже искать противоречащие данные и чаще некритично принимать машинную рекомендацию, особенно в условиях дефицита времени. Более новые работы применительно к публичному сектору отмечают избирательное следование алгоритмическим советам там, где они совпадают с уже имеющимися установками или стереотипами. Для стратегической политики это опаснее, чем для рутинной бюрократии: ошибка здесь редко бывает локальной.
Четвертое — враждебная среда и "ИИ против ИИ". Исследования по состязательному машинному обучению систематизируют специфические опасные атаки: отравление обучающих данных, атаки на приватность, перехват контроля над автономными агентными системами, управление выходами генеративных моделей. Для языковых моделей к этому добавляются инъекции промптов (prompt injection) — вредоносный текст или документ, способный вывести систему из штатного режима, такие атаки сейчас автоматизированы. В стратегическом контуре из этого следует практический вывод, что в условиях противоборства ИИ необходимо рассматривать как новую потенциальную поверхность атаки и уязвимости, а не только как инструмент усиления собственных возможностей.
Пятое — геополитическое измерение. Потенциальная зависимость от иностранных облачных мощностей и аппаратных решений, регулярных обновлений и отдельных программных библиотек — это не только технический фактор, но и вопрос устойчивости и суверенности принимаемых решений. В российском контуре эта проблематика уже формализована в перечне поручений президента России 2026 года, где обозначено приоритетное использование отечественных фундаментальных моделей генеративного ИИ в государственном управлении и на объектах критической информационной инфраструктуры.
3. Управление, ответственность и роль человека
В качестве примера представляет интерес полезный практический каркас NIST AI Risk Management Framework. Он опирается на четыре последовательные функции: govern, map, measure, manage — управление, картирование, измерение, оперативные действия.
Сначала выстраивается система управления: роли, процедуры, учет правовых требований, документированная терпимость к риску, цепочки ответственности и порядок работы с третьими сторонами. Затем следует картирование: контекст применения, целевая задача, применимые нормы, возможный вред, уязвимые группы — и принципиальное решение о целесообразности внедрения системы вообще. Далее — измерение: тесты, метрики, независимая оценка надежности, безопасности, объяснимости, а также механизм апелляции и обратной связи. И лишь затем — решения: приоритизация рисков, мониторинг после развертывания, процедуры ручного контроля и отката версий, реагирование на новые и потенциальные инциденты и при необходимости вывод системы из эксплуатации.
Отсюда следует содержательное понимание "человека в контуре решения" (human-in-the-loop). Речь идет не о символической подписи под машинным выводом, а об институционально оформленной роли, когда конкретное ответственное должностное лицо обладает правом отклонить ИИ-рекомендацию, управлять доступами к альтернативному, немашинному каналу проверки. А также использовать понятный журнал действий (что предложила система, что решил человек и почему). Это и возможность остановки, отключения и разбора отдельного возможного инцидента.
В российском контуре заслуживают внимания три основополагающих организационных сигнала. Во-первых, Минцифры России совместно с аналитическим центром при правительстве Российской Федерации оформили центр развития ИИ с задачами координации, тиражирования решений и оценки уровня внедрения. Во-вторых, в составе правительственной комиссии создана подкомиссия по развитию и внедрению технологий искусственного интеллекта. В-третьих, введен в действие порядок управления качеством государственных данных с использованием единой информационной платформы национальной системы управления данными.
4. Практические правила применения
Практическое правило может быть сформулировано просто. ИИ целесообразно применять там, где задача повторяема, данные относительно полны и актуальны, качество измеримо, ошибка быстро замечается и исправляется, а эксперт способен проверить результат быстрее, чем выполнить работу с нуля. ИИ следует применять ограниченно — как предварительный фильтр или генератор вариантов — там, где цена ошибки высока, но рекомендация еще обратима. ИИ не следует использовать как решающий механизм там, где решение уникально, необратимо, принимается в условиях кризисного сжатия времени, затрагивает применение силы, санкционные или правоограничительные меры либо существенно зависит от тонкого политического контекста, не поддающегося формализации в данных.
Для генеративных моделей правило еще строже. Их допустимо использовать для ускорения первого черновика, сопоставления сценариев, подготовки перечня вопросов и выявления лакун в рассуждении. Однако их нельзя использовать как автономный фактографический источник или как самодостаточное основание для официальной позиции. Причины хорошо известны: галлюцинации, инъекции подсказок, риск утечек данных, сложность верификации происхождения каждого фрагмента текста. Рабочий стандарт таков: генеративная модель ускоряет написание, но ответственность несет не она — ее несет автор документа.
5. Как описывать ИИ руководителям и обществу
Для политического руководства ИИ следует описывать, если можно так сказать, без маркетинга. Не "система решила", а "система выявила сигнал, ранжировала версии и предложила варианты; решение принял уполномоченный сотрудник". Не "модель умнее эксперта", а "модель быстрее просматривает массив аналогичных случаев, но не несет политической и правовой ответственности". Не "точный прогноз", а "вероятностная оценка при заданных данных и ограничениях". Такой язык не только точнее — он снижает риск чрезмерного доверия к автоматизации и облегчает последующий разбор ошибок.
Для публичной коммуникации представляется целесообразным фиксировать пять обязательных элементов, даже применительно к не самым чувствительным случаям: цель применения, тип данных и временной охват, роль человека в окончательном решении, известные ограничения, риски и механизм оспаривания или исправления ошибки.
В заключение представляется принципиально важным разграничивать два класса применений. Первый — административный: черновики, мониторинг, логистика, поиск аномалий. Второй — управленческий: кризисные сигналы, санкционные и правоограничительные решения, силовые шаги.
Для первого класса допустим более широкий экспериментальный режим. Для второго уместна вначале вспомогательная роль ИИ — с повышенными требованиями к объяснимости, с обязательной независимой верификацией. Это и есть содержательная позиция через пропорциональность возможных рисков и пути их купирования.
6. Заключение
Принципиальное значение в обращении с ИИ в области принятия политических решений любого рода, тем более стратегического характера, как показывает доступный опыт, имеют следующие моменты.
Независимый и высокоэрудированный ум, доказанная способность непредвзято и трезво оценивать ситуацию. Проблема в том, что называется групповым конформизмом, исходящим из коллективно принятой картины мира на основе определенной идеологии. Мы наблюдали это в СССР, то же налицо в ряду западных элит, включая американские, которые не видят себя вне своей глобальной гегемонии.
Любая идеология — серьезный ограничитель, будь то альтернативы социализм — капитализм, демократия — авторитаризм или другие продукты исключительно западной цивилизации. Необходимо широко смотреть на вещи и выходить на культурно-цивилизационные категории, что уже в полный голос заявляет о себе в мировой политике, включая нынешнюю войну Израиля и США с Ираном. Словом, необходимо комплексное осмысление всего мирового исторического опыта без клише и попыток мерить по себе. Необходимо понимать другого и представить себя на его месте, особенно ввиду различия ценностных систем и моделей развития, уже не говоря об историческом опыте.
С этим связано представление о нелинейном характере исторических процессов, о законе нежелаемых последствий принимаемых решений, о высокой вероятности отсутствия полного представления о них, что должно побуждать к соблюдению принципов умеренной политики, отказу от постановки конечных/предельных целей, отдающих "концом истории". В частности, важно сознавать наличие как банальных, легко просчитываемых стратегий, так и фатальных, укорененных в судьбах, исторической миссии и идентичности государств и народов, что требует глубокого, а не выборочного знания истории, философии и религии (проблема — как вписать свод этих обширных знаний в большие данные). На этот счет четко высказался Генри Киссинджер в одной из своих последних книг "Лидерство" (2022 год), а последняя (в соавторстве) вообще была посвящена проблематике ИИ.
Ярким примером фатальных стратегий была наша борьба с Наполеоном и Гитлером, а в наше время — реакция на украинский кризис, навязанный нам Западом и имеющий все признаки цивилизационного прокси-конфликта. То же можно сказать о нынешней борьбе Ирана, отстаивающего свою цивилизационную идентичность. Что касается выборочного подхода к истории, то один из архитекторов украинского конфликта использовал аналогию с Русско-японской войной и последующей революцией 1905 года — вне более широкой исторической картины и характера нынешней ситуации в России и мире.
Не менее опасно впасть в апологетику, сделаться жертвами собственной пропаганды, когда за скобки выводится все, включая неоспоримые факты, что не укладывается в коллективно принятый нарратив. Помимо советского, весьма убедителен американский опыт. Так, внешнеполитическая политология насквозь политизирована в том числе тем, что соответствующие команды демократов и республиканцев сменяют друг друга в высших эшелонах администрации (порядка трех тысяч политических назначенцев, противостоящих профессионалам, слово которых далеко не первое). В бюрократических вертикалях складываются существенные ограничители. Апологетика американского доминирования дает о себе знать и на страницах такого издания, как журнал Foreign Affairs, где в последние 30 лет от силы найдутся одна-две статьи в каждом номере, содержащие элементы критического мышления. В остальных под разными углами утверждается непоколебимость и безальтернативность американской гегемонии, в том числе на путях ее "тонкой настройки". На это накладывается подмеченная еще Алексисом де Токвилем (в его "Демократии в Америке" 1834 года) своего рода диктатура коллективного мнения в республиканской Америке, то есть высокая степень несвободы суждений и самоцензуры по сравнению даже с монархическими режимами.
Также приходится сознавать, что любой независимый анализ так или иначе ставит под вопрос уже принятые политические решения. И это понятно: ситуации меняются и требуют новых подходов, что всегда сопряжено с рисками, но при этом и возможностями. Это особенно верно для текущего геополитического перелома в мире, когда многие моменты из привычной определенности перестают быть таковыми. Собственно, поэтому анализ вообще не приветствовался в СССР: бал правил догматизм, хотя на нижних уровнях и могли быть свежие идеи, наверх они не доходили — было заведомо понятно, что проходит, а что нет. Не лучше дела и на Западе. Скажем, логично то, что аналитические подразделения МИД России (департамент внешнеполитического планирования) и Госдепартамента США (штаб политического планирования) подчинены непосредственно министру и госсекретарю.
Искусственный интеллект — обоюдоострый инструмент, и он может стать союзником аналитиков и лиц, формирующих решения, если будет соответственно вооружен/снаряжен и с ним будут работать хорошо подготовленные, интеллектуально честные и открытые сотрудники.
Но главное, что необходимо постоянно иметь в виду, — это то, что ИИ не функционирует в отрыве от окружающего его массива информации, который всегда будет связан с политикой и политической мыслью конкретных стран. Это значит, что мы снова возвращаемся к теме образования и глубокого знания истории и всего, что с ней связано.
