
Конкурент OpenAI, компания Anthropic, может лишиться контракта на $200 млн с Пентагоном. Компании не нравится, что военные могут использовать ее ИИ для слежки или нанесения ракетных ударов
Компания Anthropic вступил в конфликт с Пентагоном из-за использования ее искусственного интеллекта в военных целях, пишут Reuters и The Wall Street Journal. Информационное агентство указало, что обе стороны конфликта зашли в тупик после продолжительных переговоров по $200 млн контракту.
Целью контракта было внедрение моделей Claude компании Anthropic в военные операции в рамках программы правительства по использованию искусственного интеллекта. Anthropic наравне с Google (Alphabet), xAI Илона Маска и OpenAI получили контракты от Пентагона в 2025 году на внедрение ИИ в оборону Соединенных Штатов.
Напряженность в отношениях с Пентагоном у Anthropic возникла практически сразу после заключения контракта, потому что корпоративные условия соглашения с компанией Anthropic предусматривают запрет на использование ИИ Claude для любых действий, связанных с внутренней слежкой. WSJ пишет, что это ограничивает использование ИИ-агента для Федерального бюро расследований (ФБР) и Иммиграционной и таможенной службы (ICE).
В Anthropic обеспокоены тем, что ее инструменты могут быть использованы для слежки за американцами или содействия в наведении оружия на цель без контроля человека, сообщили агентству Reuters некоторые источники. В Пентагоне негативно восприняли «пользовательское соглашение». Чиновники считают, что у них должна быть возможность внедрять коммерческие технологии ИИ независимо от политики использования компаниями, если они соответствуют законодательству США,
Модели Anthropic обучены избегать действий, которые могут нанести вред, и именно сотрудники компаний будут заниматься перенастройкой ИИ для Пентагона, сообщили Reuters источники.
Ранее глава Anthropic Дарио Амодей заявил, что человечеству нужно «проснуться» и осознать потенциально катастрофические риски, связанные с развитием мощных систем искусственного интеллекта. По его словам, ИИ может использоваться для разработки отдельными лицами и группами людей биологического оружия, которое «в худшем случае способно уничтожить все живое на Земле».