GPT-5.5 пришёл на AWS: OpenAI ломает эксклюзив с Microsoft
OpenAI и AWS расширили партнёрство: GPT-5.5, Codex и Bedrock Managed Agents запущены в Amazon Bedrock в limited preview. Что это значит для рынка.

Семь лет OpenAI продавала свои модели через единственное облако — Microsoft Azure. 28 апреля эта эпоха кончилась: GPT‑5.5, Codex и новый сервис Bedrock Managed Agents появились в Amazon Bedrock. Сделка анонсирована как «расширение стратегического партнёрства AWS и OpenAI», но по сути это публичная декларация: эксклюзивности больше нет.
Что произошло
OpenAI и Amazon объявили запуск трёх продуктов одновременно — все в limited preview. Первый — фронтирные модели OpenAI, включая GPT‑5.5, теперь доступны через Amazon Bedrock рядом с Anthropic Claude, Mistral, Meta Llama и Cohere. Второй — Codex, агент для кодинга OpenAI, который сейчас используют более 4 миллионов человек в неделю, приходит на Bedrock через CLI, desktop‑приложение и расширение для VS Code. Третий — Bedrock Managed Agents, новый сервис для развёртывания production-агентов на инфраструктуре AWS, но на моделях OpenAI.
Главное в этой истории — даже не запуск, а сам факт. Раньше единственным способом купить GPT через корпоративный канал был Azure OpenAI Service. Microsoft в обмен на $13 млрд инвестиций получил эксклюзивные права на хостинг, на использование IP, на проценты с выручки. С февраля 2026 года, когда OpenAI и Amazon впервые объявили о стратегическом партнёрстве, было ясно: эксклюзив рассыпается. Сегодняшний релиз — операционное подтверждение.
Что значит «Codex на AWS»
Codex — продукт OpenAI, который за последний год перепрыгнул из категории «инструменты для разработчиков» в категорию «agentic platforms». На нём пишут код, генерируют тесты, рефакторят legacy, делают research, собирают презентации и спредшиты. Compute под Codex стоит дорого: длинные сессии могут жечь миллионы токенов в день на одного пользователя.
С приходом Codex на Bedrock корпоративные клиенты AWS могут платить за него через свои existing AWS commitments. Это важный технический момент: компании, у которых заключены многомиллионные годовые контракты с Amazon (а это значительная часть Fortune 500), теперь могут расходовать этот бюджет на OpenAI, не открывая отдельный канал в Microsoft. Биллинг, IAM, аудит, шифрование, CloudTrail — всё через Bedrock. С точки зрения procurement-отделов это решает огромную головную боль.
Технически Codex на Bedrock работает через Bedrock API. Authentication — через AWS credentials. Все данные обрабатываются в инфраструктуре Amazon Bedrock. Поддерживается через Codex CLI, Codex desktop app и VS Code extension.
Bedrock Managed Agents — новый продукт
Третья и, возможно, самая интересная часть анонса — Amazon Bedrock Managed Agents, powered by OpenAI. Это новый managed-сервис, который комбинирует frontier-модели OpenAI с инфраструктурой AWS для развёртывания production-агентов.
В отличие от классического подхода «возьми SDK и собери агента сам», Managed Agents даёт готовый harness, оптимизированный под OpenAI-модели. Каждый агент работает с собственной идентичностью, логирует все действия, поддерживает память между сессиями, имеет встроенные tool-use возможности. Под капотом — OpenAI agent harness.
Box, один из первых партнёров, уже использует сервис. CTO Box Бен Кус сформулировал ценность так:
«Enterprise-ы сейчас стремятся развернуть агентов, которые выводят их организацию в следующую фазу AI. С Amazon Bedrock Managed Agents разработчики могут собирать оптимизированные production-приложения, объединяющие сильные стороны последних моделей OpenAI с масштабом, безопасностью и инфраструктурой AWS».
— Бен Кус, CTO Box
Что это значит для Microsoft
Открытый вопрос — как это переваривает Microsoft. Формально OpenAI всегда имел право работать с другими облаками для inference, но на практике первые семь лет существования компании весь enterprise-канал шёл через Azure. Этот шаг — публичное признание, что OpenAI больше не зависит от единственного партнёра.
Для Microsoft это удар по нескольким направлениям. Первое — выручка Azure OpenAI Service: часть корпоративных клиентов, у которых нет AWS commit, уйдёт на Bedrock. Второе — переговорная позиция: Microsoft больше не может играть в «эксклюзив или ничего». Третье — продуктовое: Copilot и GitHub Copilot, построенные на OpenAI-моделях, теперь конкурируют с Codex on Bedrock в той же AWS-экосистеме.
При этом Microsoft не остаётся без козырей. Azure OpenAI Service интегрирован глубже — в Active Directory, Defender, Purview, Fabric. Для компаний, которые годами строили работу вокруг Microsoft 365 и Azure, миграция на AWS не имеет смысла. Но для AWS-нативных компаний (а это огромная часть стартапов и mid-market) выбор поставщика теперь честный.
Сравнение каналов
| Канал | Где хостится | Биллинг | Доступные модели OpenAI |
|---|---|---|---|
| OpenAI напрямую | OpenAI infra | OpenAI invoice | Все, включая experimental |
| Azure OpenAI Service | Azure | Azure commit | GPT-5.5, GPT-5, GPT-4.x, embeddings |
| Amazon Bedrock | AWS | AWS commit | GPT-5.5, Codex, Managed Agents (limited preview) |
Bedrock пока в limited preview — это значит, что ширина модельного каталога меньше, чем у Azure. Но направление движения очевидно: со временем разница сократится.
Для разработчиков
Если у вашей компании уже есть AWS commit и развёрнутый Bedrock — никаких изменений в архитектуре делать не нужно. Вызов GPT‑5.5 через Bedrock API выглядит так же, как вызов любой другой модели в каталоге Bedrock. Codex настраивается на Bedrock через стандартный конфиг провайдера.
Управление identity и шифрование — через AWS native: IAM policies, PrivateLink для приватной сети, KMS для encryption at rest. Логи Codex попадают в CloudTrail и могут быть отправлены в SIEM. Это закрывает 80% того, что обычно тормозит корпоративный compliance‑процесс.
Для individual-разработчиков и стартапов без AWS commit прямой доступ к OpenAI всё равно остаётся быстрее и дешевле — Bedrock добавляет management overhead, который не нужен на маленьком масштабе.
Что это значит
Главный сюжет — рынок enterprise AI-инфраструктуры стал многополярным. До сегодня выбор стоял так: «AWS Bedrock с Anthropic/Mistral» или «Azure с OpenAI». Теперь это «AWS с любым из ведущих провайдеров» против «Azure OpenAI с глубокой Microsoft-интеграцией». Это плохо для маржинальности всех облачных провайдеров — конкуренция за enterprise-AI-нагрузку резко обострилась.
Для рынка моделей это значит, что OpenAI окончательно становится «модельным провайдером», а не «продуктовой компанией с одним облачным каналом». Аналогия с Anthropic, которая давно продаёт через AWS, Google Cloud и собственный API — теперь у OpenAI похожая структура распространения.
Для корпоративных клиентов это однозначная победа: меньше vendor lock-in, больше выбор, возможность использовать существующие cloud commits. Не зря OpenAI подчёркивает в анонсе — «единый путь от экспериментов к production», теперь и в AWS-инфраструктуре.
Выводы
Эксклюзив OpenAI с Microsoft, который определял корпоративную AI-стратегию с 2019 года, формально завершился. Modeling-провайдеры идут к multi-cloud-распространению — Anthropic уже там, OpenAI догнал.
Если вы строите AI-приложение в AWS — больше нет причин делать гибридную архитектуру с отдельным Azure-каналом для OpenAI-моделей. Codex и GPT‑5.5 теперь рядом с Claude и Mistral в одном API.
Что ожидать дальше: расширение Bedrock-каталога OpenAI до полного списка моделей (сейчас в limited preview), вероятная скидка от Amazon для энтерпрайз-клиентов, мигрирующих с Azure, и — самое интересное — реакция Microsoft, которой нужно объяснять рынку, чем теперь отличается Azure OpenAI от просто «OpenAI на любом облаке».


