THINKINGOS
A I L a b o r a t o r y
Материалы блога отражают наш практический опыт и R&D-гипотезы. Там, где приведены эффекты, они зависят от контекста проекта, качества данных, архитектуры и процессов внедрения.
Назад к блогу
AI Coding
30 апреля 2026 10 мин
Coding Agents Token Economics Governance Task Context Execution Layer TaoCoder

Агенты нового поколения

Истории уровня «Uber сжёг годовой AI-бюджет на Claude Code» — сигнал: рынок вошёл в фазу agentic software engineering, где сравнивают уже не “человек vs человек с ИИ”, а архитектуры работы с ИИ. Разбираем, где сгорают деньги и какая архитектура делает агентов предсказуемыми по стоимости.

Агенты нового поколения: почему coding-агенты должны быть экономически управляемыми системами, а не «дорогим чатом»

В апреле 2026 по сети разошлась “кликбейтная” история: у Uber якобы сгорел годовой AI-бюджет из‑за массового использования Claude Code (и частично Cursor) — настолько быстро, что CTO пришлось “вернуться к доске” и пересчитать экономику.1 Более консервативные пересказы формулируют это аккуратнее: планы по AI-расходам оказались занижены из‑за стремительного adoption инструментов вроде Claude Code.23

Важно: нам не принципиально, где ровно проходит граница “весь бюджет” vs “бюджетные ожидания сильно exceeded”. Важен сигнал рынка:

coding-agents перешли в фазу agentic software engineering, где основной риск — не “качество автокомплита”, а экономика и управляемость длинных прогонов.

И это меняет точку сравнения.

Раньше спорили так:

  • “программист руками” vs “программист с ИИ”.

Теперь сравнение другое:

  • программист с ИИ в одном контуре исполнения vs программист с ИИ в другом контуре исполнения.

То есть рынок начинает сравнивать архитектуры работы с ИИ, а не “наличие ИИ”.

1) Почему $/seat улетает в тысячи и десятки тысяч (и почему это не баг)

Классическое ПО продавалось как:

  • $/seat в месяц (предсказуемо);
  • лимиты максимум по функционалу.

Агентные инструменты продаются иначе:

  • иногда есть “seat price”;
  • но реальная стоимость определяется usage: токены, tool calls, выполнение команд, multi-step траектории, ретраи.

Как только агент начинает работать “по-взрослому” (читать репо, планировать изменения, править десятки файлов, гонять тесты и повторять цикл до результата), стоимость начинает вести себя как облачная инфраструктура:

чем больше вы пользуетесь, тем больше платите — и “успех продукта” становится причиной budget shock.

Снаружи это выглядит как абсурд: “$10K в месяц на одно рабочее место токенов — это дичь”.

Но если смотреть на “хардовую” экономику, это может оказаться даже не потолком.

Пример:

  • вы делаете 100–150 задач в день;
  • средняя стоимость задачи в токенах $10 (на тяжёлых задачах);
  • получается $1,000–$1,500 в день;
  • при 22 рабочих днях это $22,000–$33,000 в месяц на одно рабочее место.

Это уже не “стоимость подписки”. Это стоимость execution runtime, и она должна быть управляемой.

Но экономически это закономерно, если агент:

  • постоянно тянет большой контекст;
  • делает много шагов;
  • повторяет тупики;
  • запускает длинные tool loops без ограничения бюджета;
  • не имеет bounded task context и не удерживает “негативные знания”.

2) Что на самом деле “сжигает токены” в coding-агентах

Самое опасное заблуждение: думать, что стоимость определяется “умностью модели”.

На длинных задачах стоимость почти всегда определяется архитектурой исполнения:

  1. Контекстный рост: агент тащит всё больше истории, логов и кода в prompt.
  2. Дрейф и повторы: нет negative knowledge → агент повторяет ветки.
  3. Инструментальная поверхность: чем больше tools, тем больше проб и ошибок.
  4. Отсутствие stop criteria: “пока не получится” превращается в дорогой бесконечный цикл.
  5. Непредсказуемая валидация: если проверки не встроены, агент долго “пишет красиво”, а потом выясняется, что это не работает → новая итерация → новые токены.

Это ровно тот паттерн деградации, который мы описывали в статье про Bounded Task Context Agent: “дорогой чат” вместо управляемого контура работы.4

3) Новая единица сравнения: не “IDE”, а agent runtime

Мы уже писали, что AI IDE стали commodity на уровне UI и базовых agent-features.5

Поэтому и сравнивать в 2026 нужно не “какая IDE приятнее”, а:

  • какой agent runtime у инструмента;
  • как он ограничивает контекст;
  • как он управляет tool surface;
  • как он валидирует результат;
  • как он считает экономику.

Сильный интерфейс без сильной экономики — это просто ускоритель burn rate.

4) Как выглядит агент нового поколения (если говорить честно — как система)

Новый класс агентов отличается не “ещё одной memory-фичей”, а архитектурными инвариантами.

4.1. Bounded task context вместо “бесконечной памяти”

Если задача длинная, контекст должен быть bounded на каждом шаге:

  • внешнее состояние задачи (Task Context);
  • структурированные ссылки вместо копипасты;
  • негативные знания как first-class артефакт;
  • state machine по стадиям и exit criteria.

Это не “промпт-инженерия”. Это операционная архитектура.4

4.2. Governance: разрешения, allowlists и аудит как default

Как только агент трогает файлы/терминал/API, вопрос “что можно” становится обязательным.

Мы уже разбирали, что стандартизация tool interface (MCP) неизбежно тянет за собой стандартизацию контроля (policy enforcement, auditability).6

Если эту часть не сделать системой, она вернётся в виде инцидентов (и финансовых, и security).

4.3. Execution layer: посредник между “интеллектом” и действиями

Между LLM и внешним action surface должен существовать слой, который:

  • нормализует действия (scoped actions вместо “всего OpenAPI”);
  • держит секреты и авторизацию внутри;
  • enforce’ит roles/scopes/tenants;
  • ведёт audit trail;
  • помогает экономике контекста, отдавая LLM-friendly интерфейс вместо сырого API.

Мы называем эту линию execution layer и разбирали её на примере TaoBridge.7

4.4. Cost governor: бюджет и stop rules

Если вы не можете ответить “сколько стоит задача”, то вы не можете управлять AI‑разработкой как бизнесом.

Минимальный набор:

  • budget per task / per repo / per team;
  • max steps / max retries;
  • ранний stop на повторяемых тупиках;
  • отчёт “что именно сожгло бюджет” (context growth, tests loops, tool spam).

5) Где деньги (и почему CFO теперь часть обсуждения agentic coding)

Парадокс agentic coding в том, что стоимость становится “слишком переменной”.

Чтобы управлять этим, полезно считать не “сколько стоит подписка”, а:

$/task = model_tokens_cost + tool_loops_cost + rework_cost + human_review_cost

И сравнивать не “агент написал больше строк”, а:

  • стоимость одной закрытой задачи (или merged PR) в $;
  • variance стоимости на одинаковых задачах (stability);
  • долю задач, где агент ушёл в “runaway loop”.

В этот момент сравнение “человек vs человек с ИИ” действительно заканчивается.

Начинается сравнение:

какой контур работы с ИИ даёт результат предсказуемо по стоимости и риску.

Вывод

Истории про “сгоревший AI‑бюджет на токены” — не повод выключать агентов. Это повод перейти на следующий уровень зрелости.

Агенты нового поколения — это не чат и не “память”. Это управляемые системы, где:

  • контекст ограничен;
  • действия нормализованы и ограничены;
  • результат валидируется как обязательный этап;
  • экономика задач измеряется и управляется.

Именно в эту сторону мы проектируем TaoCoder: как рабочее место для production AI coding, где методология переносится в исполняемую архитектуру, а не остаётся текстом “в rules.md”.

Сноски и источники

Footnotes

  1. Uber Torches Entire 2026 AI Budget on Claude Code in Four Months (Apr 17, 2026). https://www.briefs.co/news/uber-torches-entire-2026-ai-budget-on-claude-code-in-four-months/

  2. Uber CTO says AI spending plans fall short as tools like Claude Code drive costs up (Apr 15, 2026). https://www.indiatoday.in/technology/story/uber-cto-says-ai-spending-plans-fall-short-as-tools-like-claude-code-drive-costs-up-2896621-2026-04-15

  3. Uber’s Anthropic AI Push Hits A Wall—CTO Says Budget Struggles Despite $3.4B Spend (Apr 17, 2026). https://finance.yahoo.com/sectors/technology/articles/ubers-anthropic-ai-push-hits-223109852.html

  4. Bounded Task Context Agent: как строить coding-agent’ов без деградации контекста и непредсказуемой стоимости. /blog/bounded-task-context-agent 2

  5. AI IDE больше не конкурентное преимущество. Конкурентное преимущество — production-архитектура агента. /blog/ai-ide-commodity-governance

  6. MCP взрослеет: стандартизация инструментов и рождение governance-слоя для AI-агентов. /blog/mcp-tools-governance

  7. Почему будущие AI-системы будут строиться вокруг execution layer, а не вокруг одного агента (TaoBridge). /blog/taobridge-execution-layer-future-ai-systems

Production AI Coding

Нужен контролируемый coding-agent?

Опишите задачу, и мы предложим архитектуру контекста, контур валидации и модель контроля стоимости.

Обсудить проект