CNBC

Пентагон выбирает OpenAI: как один запрет открыл дорогу к сделке

В пятницу вечером индустрия искусственного интеллекта стала ареной политической драмы с неожиданной развязкой. Генеральный директор OpenAI Сэм Алтман объявил о заключении соглашения с Министерством обороны США. По его словам, компании удалось договориться об условиях использования своих ИИ-моделей в закрытых сетях Пентагона.

«Мы достигли соглашения с Министерством обороны. Во всех наших взаимодействиях они проявили глубокое уважение к вопросам безопасности и желание сотрудничать для достижения наилучшего результата», — написал Алтман в социальных сетях.

Это заявление прозвучало буквально через несколько часов после того, как их главный конкурент, компания Anthropic, оказался в опале. Министр обороны Пит Хегсет присвоил Anthropic статус «риска для безопасности цепочки поставок», что фактически блокирует работу с ней всех подрядчиков ведомства. Ранее президент США дал указание всем федеральным агентствам немедленно прекратить использование технологий этой компании.

Любопытно, что именно Anthropic первой внедрила свои модели в закрытую сеть Пентагона. Переговоры о продлении контракта зашли в тупик из-за принципиальных разногласий. Лаборатория настаивала на гарантиях, что её ИИ не будет использоваться для создания полностью автономного оружия или массовой слежки за американцами. Военные, в свою очередь, хотели получить доступ ко всем законным вариантам применения.

Как выяснилось, у OpenAI были те же самые «красные линии». Алтман в своём обращении подчеркнул, что два ключевых принципа компании — запрет на массовую внутреннюю слежку и сохранение человеческой ответственности за применение силы, включая автономные системы. По его словам, Пентагон согласился закрепить эти принципы в соглашении.

Почему военное ведомство пошло на уступки одной компании, но отказало другой, остаётся не до конца ясным. Некоторые чиновники в течение нескольких месяцев критиковали Anthropic за «чрезмерную озабоченность» безопасностью ИИ, что, возможно, сыграло свою роль.

OpenAI заявила, что создаст технические safeguards для контроля за поведением моделей и направит своих специалистов для поддержки внедрения. Алтман также призвал Пентагон предложить аналогичные условия всем компаниям в отрасли, выразив надежду на деэскалацию и переход к разумным соглашениям.

В Anthropic заявили, что «глубоко опечалены» решением Пентагона и намерены оспорить этот статус в суде. Пока же поле для сотрудничества с крупнейшим заказчиком остаётся открытым только для OpenAI.

Другие новости

P
TechCrunch

Китайские роботы-гуманоиды: как Поднебесная захватывает рынок будущего

На китайском новогоднем гала-концерте роботы в прямом эфире показывали кунг-фу, а компания Honor готовится представить своего первого человекоподобного робота в Барселоне. Это не просто шоу — за вспле...

1 марта 2026 г.
Читать
P
TechCrunch

OpenAI и Пентагон нашли компромисс: ИИ для обороны, но с «техническими гарантиями»

Генеральный директор OpenAI Сэм Альтман объявил в пятницу о заключении соглашения с Министерством обороны США. Документ разрешает военному ведомству использовать модели искусственного интеллекта компа...

1 марта 2026 г.
Читать
P
Webpronews

Невидимая складка: как китайские бренды выигрывают гонку за идеальный гибкий экран

Еще недавно складка на экране была визитной карточкой и главным недостатком гибких смартфонов. Но теперь китайские производители близки к тому, чтобы сделать ее невидимой. Пока Apple не представила ни...

1 марта 2026 г.
Читать