Год назад Anthropic обещала AI-сотрудников. Где они
22 апреля 2025 года CISO Anthropic пообещал автономных AI-работников через год. Сегодня мы прошли этот срок. Считаем, что вышло.

Ровно год назад, 22 апреля 2025 года, Джейсон Клинтон, тогдашний CISO Anthropic, дал интервью Axios с конкретной датой: в течение года AI-сотрудники с собственными корпоративными ID и логинами начнут ходить по виртуальным коридорам крупных компаний. Не «когда-нибудь в будущем», не «через 5–10 лет» — через 12 месяцев. Эта дата прошла. Считать, что вышло, — самое уместное, что можно сделать сегодня.
Прогноз
Клинтон описал три ключевые черты «AI-сотрудника» в формулировке Anthropic: собственная память на длинном горизонте, специализированная роль в компании, корпоративные креды. То есть не просто автоматизация задач — а сущность, которую офис безопасности, HR и финансовый директор должны учитывать в том же смысле, в каком они учитывают человека. Он выступал не как евангелист, а как CISO — его пойнт был «к этому надо готовить инфобез». Но сама дата — «в течение следующего года» — звучала как обещание.
Параллельно с этим Дарио Амодеи, CEO Anthropic, в марте 2025 предсказал, что через шесть месяцев AI будет «писать 90% кода». Через шесть месяцев Futurism замерил, что не пишет — большинство профессиональных разработчиков продолжали писать большую часть production-кода руками, AI-инструменты выступали как ассистенты, а не как авторы.
Эти два прогноза — не просто предсказания. Это публичные обязательства, под которые компания привлекала инвестиции. Series F на $30 миллиардов, оценка в $350 миллиардов, гонка с OpenAI на capex — всё это дисконтировано в шапки сегодняшних балансов в расчёте на то, что обещанные agentic-сотрудники появятся.
Что случилось вместо обещанного
Год не прошёл впустую. Релизов agentic-инструментов было много, и некоторые — впечатляющие.
Что реально появилось:
- Anthropic Cowork (январь 2026) — асинхронные агенты, которые работают с файловой системой и почтой
- Claude Code Computer Use (апрель 2026) — модель водит мышью по экрану
- OpenAI Codex Computer Use (апрель 2026) — то же от OpenAI
- Anthropic Managed Agents (апрель 2026) — облачные agentic-API
- Mass-deploy agents у Goldman Sachs, Infosys, Palantir — реальные продакшен-кейсы
Но «AI-сотрудник с собственным ID и памятью на год» — нет. Близко никто не подошёл. Самые продвинутые агенты Anthropic и OpenAI работают часами, не неделями. Память — лучше, чем год назад, но всё ещё фрагментирована: либо короткое окно, либо внешний RAG, который очевидно не «помнит». Специализированной роли нет: один и тот же Claude используется для кодинга утром и для маркетинговой почты вечером.
Что прямо провалилось:
- AI-агенты регулярно ломаются на простой математике — независимое исследование 2026 показало, что reliability падает экспоненциально с длиной задачи
- Security-инциденты у Meta, Anthropic, OpenAI с rogue-агентами, которые делали то, что не должны были
- PR-провалы вроде агента-омара, который должен был «работать сотрудником» и не справился даже с задачей купить себе обед
- Исследование от самого Anthropic про labor market impacts показало «ограниченные свидетельства» крупного эффекта на рынок труда
Почему обещание не сработало
В 2025 году была общая надежда индустрии: когда модели достигнут уровня GPT-5 / Opus 5 / Gemini 3, агентность станет «эмерджентной». Достаточно умная модель сама научится действовать долго и согласованно, останется только дать ей инструменты. Эта гипотеза проверялась весь 2025 и часть 2026 — и не подтвердилась.
Что выяснилось вместо этого. Проблема не в качестве отдельного шага. Современные модели делают большинство шагов разумно. Проблема в накоплении ошибок: агент, который правильно делает 95% шагов, на 100-шаговой задаче ошибается в 99% случаев. Математика беспощадная. Чтобы агент работал часами автономно, нужна не «модель умнее», а архитектура, которая ловит и откатывает ошибки. Эту архитектуру никто пока не построил.
Второй сюжет — память. «Собственная память на долгосрок» — не вопрос модели, это вопрос инженерии. Anthropic и OpenAI по сей день экспериментируют с RAG, fine-tune, knowledge-graphs, persistent KV-кэшем. Ничего из этого пока не работает на уровне «человеческой памяти о работе». Лучшее, что есть — Claude Memory от марта 2026, и она сама признаётся в ограничениях.
Третий — специализированные роли. Чтобы AI «занимал должность», ему нужны не только навыки, но и контекст: кто его коллеги, какие политики у компании, какие табу, как принимаются решения. Это построить сложнее, чем модель: это требует вживания в конкретный энтерпрайз. Anthropic, Google и Microsoft пытаются — через OpenClaw, Cowork, Copilot Studio, Workspace AI. Все эти продукты пока — продвинутые ассистенты, не сотрудники.
Что Anthropic говорит сейчас
В блог-посте от марта 2026 Anthropic явно отметила, что свидетельств серьёзного эффекта AI на рынок труда пока «ограничены». Это не покаяние, но это понижение тона. Год назад в той же компании говорили о «50% entry-level white-collar jobs» через 1–5 лет (Дарио Амодеи). Сегодня — «ограниченные свидетельства». Разница огромная.
Параллельно Дарио в марте 2026 в интервью Bernie Sanders на тему AI и безработицы, не настаивал на дате массовой замены людей. Сместил риторику с «когда» на «как» — обсуждал universal basic compute, налог на автоматизацию, четырёхдневную рабочую неделю, public wealth fund. Это правильная риторика для CEO компании, чей основной риск — антитраст и регулирование. Но это не то, что обещал Клинтон.
Где найти AI-сотрудников
Если очень хочется найти что-то близкое к описанию Клинтона апреля 2025, ближе всего — три места.
Колл-центры и поддержка первой линии. AI-агенты отвечают на тикеты, делают рутинный triage, эскалируют сложные кейсы человеку. Это работает, в больших компаниях. Но это не «сотрудник» — это всё ещё инструмент, и сам Anthropic в исследовании labor impacts признаёт, что сокращений на 50% (как обещал Амодеи) не произошло.
Кодовые мини-задачи через Claude Code и Codex. Здесь продвижение реальное. Авто-фиксы багов, генерация тестов, рефакторинги. Но это «pair programming на стероидах», а не «джуниор, которому дали задачу на неделю».
Специфические энтерпрайз-deployments. Goldman Sachs, Palantir, Pentagon (через Anthropic) — там AI-агенты реально встроены в production-процессы. Но это — глубоко кастомизированные системы под конкретные компании, не универсальные «AI-сотрудники».
Вывод и прогноз
Прогноз Джейсона Клинтона апреля 2025 не сбылся. Это нормально — никто не считает это скандалом, и автору этих строк не хочется устраивать «попался ваш CISO». Прогнозы в AI и должны выглядеть так: половина сбывается с задержкой в год-два, половина — никогда.
Полезный урок другой. Когда руководитель AI-компании даёт точную дату с двенадцатимесячным горизонтом, он почти гарантированно ошибается. Это не лживость — это сочетание оптимизма, инвесторских ожиданий и конкретной нестыковки между качеством отдельных шагов и накоплением ошибок в долгих задачах. Через пять лет — может быть. Через год — почти никогда.
Что прогнозировать на следующие 12 месяцев. AI-агенты, которые работают часы (не дни), уже работают и будут работать лучше. Энтерпрайз-deployments через 12 месяцев пройдут от десятков пилотов к сотням. Продуктивность вырастет на 5–15% в письменных и кодовых ролях. Массовых увольнений на 50% не будет. AI-сотрудник с собственным ID и годовой памятью — нет. Когда — неизвестно.
И когда следующий CISO даст вам конкретную годовую дату, ставьте против.


