7 глав о том, как AI-агенты эволюционировали от простых чат-ботов до роевого интеллекта. Отвечай на вопросы, набирай XP, получи свой ранг.
В 2023 году мир увидел ChatGPT — и решил, что будущее AI это чат-боты. Но уже к 2025 году стало понятно: чат — это интерфейс, а не архитектура. Настоящая революция произошла, когда модели научились не просто отвечать на вопросы, а действовать.
Волна 1: Ассистенты (2023) — модель получает промпт и генерирует текст. Это одноходовка: запрос → ответ. Никакой памяти, никаких инструментов. ELIZA 2.0, только умнее.
Волна 2: Агенты (2024) — модель получает цель и набор инструментов. Она сама решает, какие шаги предпринять: вызвать API, прочитать файл, написать код, проверить результат. Это уже цикл: думай → действуй → наблюдай → повтори.
Волна 3: Рои (2025–2026) — несколько агентов работают вместе, каждый со своей специализацией. Один пишет код, другой проверяет, третий деплоит. Они координируются через протоколы и общую память.
Простой чат-бот не может решить задачу, которая требует 15 шагов. Он забудет контекст на 5-м шаге. Агент же работает в цикле ReAct (Reasoning + Acting): рассуждает о задаче, выбирает действие, наблюдает результат, корректирует план.
Представьте разницу: вы просите «найди баг в коде». Чат-бот посмотрит на код и предположит. Агент прочитает файлы, запустит тесты, найдёт падающий тест, проанализирует стектрейс, предложит фикс и сам его применит.
Anthropic в своём ключевом исследовании выделил принцип: «Не используй агентов, когда хватает workflows». Это не отрицание агентов, а призыв к инженерной дисциплине. Есть 6 базовых паттернов — от простого к сложному.
Задача разбивается на последовательные шаги. Выход одного шага — вход следующего. Каждый шаг простой, проверяемый.
Когда использовать: задача естественно декомпозируется на последовательные шаги, где каждый шаг зависит от предыдущего.
Первый LLM-вызов классифицирует запрос и направляет к специализированному обработчику. Как коммутатор в телефонной сети.
Задача разбивается на независимые подзадачи, которые выполняются одновременно. Результаты собираются агрегатором.
Два паттерна: Sectioning (разные аспекты одной задачи) и Voting (одна задача, несколько попыток, лучший результат).
Центральный LLM динамически решает, какие подзадачи создать и как их распределить. В отличие от параллелизации, здесь подзадачи не предопределены — оркестратор сам планирует.
Один LLM генерирует, другой оценивает. Цикл повторяется, пока оценщик не одобрит результат. Это как code review, но автоматизированный.
LLM сам решает, когда остановиться. Он работает в цикле, используя инструменты, пока не достигнет цели или не исчерпает лимиты. Максимальная гибкость, но и максимальные риски.
Чтобы агенты могли работать с внешним миром и друг с другом, нужны стандартные протоколы. В 2025 году появились два ключевых стандарта, которые определили ландшафт.
Создан Anthropic. Решает проблему M×N интеграций: вместо того чтобы каждый AI-клиент писал коннектор к каждому сервису, MCP создаёт единый стандарт подключения.
MCP-сервер предоставляет три типа возможностей:
Транспорт работает через JSON-RPC 2.0 по stdio (локально) или HTTP+SSE (удалённо). Ключевая фича — capability negotiation: клиент и сервер договариваются, что каждый из них поддерживает.
Создан Google. Если MCP — это «агент ↔ инструмент», то A2A — это «агент ↔ агент». Протокол для коммуникации между агентами разных вендоров.
Ключевые концепции A2A:
Эти протоколы комплементарны: MCP даёт агенту руки (доступ к инструментам), A2A даёт голос (общение с другими агентами). Вместе они формируют полноценную экосистему, где агенты разных вендоров могут сотрудничать.
В 2025 году Manus (китайский AI-агент общего назначения) опубликовал статью, которая перевернула представление об «инженерии промптов». Их тезис: prompt engineering мертв, да здравствует context engineering.
Ключевой инсайт: всё, что видит модель — это контекстное окно. Не промпт, не RAG, не fine-tuning — а именно то, что оказалось в контексте на момент генерации. Задача инженера — сделать так, чтобы в контексте оказалась нужная информация в нужном порядке.
1. KV-Cache — ваш компас
KV-cache хранит промежуточные вычисления модели. Попадание в кэш = быстро и дёшево. Промах = дорогая рекомпуляция. Manus научился структурировать контекст так, чтобы максимизировать cache hits — стабильный системный промпт вначале, динамическая информация в конце.
2. Не утопи модель в инструментах
Каждый MCP-инструмент в контексте — это ~400 токенов описания. 100 инструментов = 40K токенов только на описания. Manus использует динамическое подключение инструментов — загружает только те, что релевантны текущей задаче.
3. Файловая система как контекст
Когда информация не помещается в контекст, Manus пишет её в файлы и даёт агенту ссылку. Файл становится «внешней памятью», а контекст содержит только указатель. Это аналог виртуальной памяти в OS — подкачка по требованию.
4. Рефлексия через ошибки
Вместо того чтобы прятать ошибки агента, Manus оставляет их в контексте. Модель видит: «Я пробовал X, это не сработало из-за Y». Это мощный сигнал — модель учится в рамках одной сессии не повторять ошибки.
Manus использует todo-list как центральный механизм координации. Каждый шаг отмечается: [✓] сделано или [ ] в процессе. Модель всегда видит, где она находится в плане. Это решает проблему «потерянного контекста» на длинных задачах.
Отдельный агент — это солдат. Рой агентов — это армия. Идея роевого интеллекта (Swarm Intelligence) пришла из биологии: муравьи, пчёлы, стаи птиц решают сложные задачи без центрального координатора.
Ограничения одиночного агента:
Иерархическая (Manager-Worker)
Менеджер-агент получает задачу, декомпозирует на подзадачи и раздаёт рабочим. Каждый рабочий — специалист в своей области. Менеджер собирает результаты и контролирует качество.
Сеть равных (Peer-to-Peer)
Нет центрального координатора. Агенты общаются напрямую через A2A, передают задачи друг другу по компетенциям. Каждый агент публикует Agent Card с описанием своих навыков.
Конвейер (Pipeline)
Агенты выстроены в цепочку, как на заводском конвейере. Каждый делает свою операцию и передаёт результат следующему. Coder → Reviewer → Tester → Deployer.
Claude Code — использует субагентов для исследования кодовой базы. Главный агент делегирует: «найди все файлы, связанные с аутентификацией» → субагент сканирует проект и возвращает результаты.
Cursor — Background Agents работают параллельно на отдельных ветках. Несколько агентов решают разные задачи одновременно, каждый в своей песочнице.
Devin — полноценная виртуальная машина для каждого агента. Агент может устанавливать зависимости, запускать серверы, тестировать в браузере.
Главный вызов мульти-агентных систем — не создание агентов, а их координация. Кто решает конфликты? Как синхронизировать состояние? Как избежать бесконечных циклов? Ответы на эти вопросы определяют успех роя.
В книге «Agents» от Google собраны паттерны проектирования, выработанные индустрией. Это не академическая теория — это боевые рецепты, проверенные в продакшене.
Мы прошли путь от чат-ботов до роёв. Но это лишь начало. Вот что ждёт нас в ближайшие годы — и почему стоит обратить внимание уже сейчас.
Создание базового агента больше не рокет-сайенс. Фреймворки (LangGraph, CrewAI, AutoGen, OpenAI Agents SDK) позволяют собрать агента за час. Конкурентное преимущество смещается от «умею создать агента» к «умею создать надёжного агента в продакшене».
Ключевые фреймворки 2025–2026:
Как показал Manus, будущее не за «волшебными промптами», а за инженерией контекста. Кто лучше управляет тем, что видит модель — тот получает лучший результат. Это включает:
Вместо «одного умного агента для всего» индустрия движется к экосистемам специалистов:
Когда агент может выполнять код, обращаться к API, отправлять сообщения — ошибка агента = ошибка в продакшене. Тренды в безопасности:
MCP + A2A формируют фундамент для «интернета агентов» — сети, где AI-агенты находят друг друга, договариваются и сотрудничают. Вместо веб-сайтов для людей — API-эндпоинты для агентов. Вместо SEO — Agent Cards.
Мы находимся в точке, аналогичной 1995 году для веб-разработки. Всё только начинается. Агенты — это не мода, это новая парадигма взаимодействия с AI. И те, кто поймёт их архитектуру сегодня, будут строить продукты завтра.