XP 0
Серия 0
Прогресс
0/7
Ранг Новичок

AI Agents Quest

Интерактивное путешествие в мир AI-агентов

7 глав о том, как AI-агенты эволюционировали от простых чат-ботов до роевого интеллекта. Отвечай на вопросы, набирай XP, получи свой ранг.

01 Эволюция: от чат-ботов к роям

В 2023 году мир увидел ChatGPT — и решил, что будущее AI это чат-боты. Но уже к 2025 году стало понятно: чат — это интерфейс, а не архитектура. Настоящая революция произошла, когда модели научились не просто отвечать на вопросы, а действовать.

Три волны AI-систем

Волна 1: Ассистенты (2023) — модель получает промпт и генерирует текст. Это одноходовка: запрос → ответ. Никакой памяти, никаких инструментов. ELIZA 2.0, только умнее.

Волна 2: Агенты (2024) — модель получает цель и набор инструментов. Она сама решает, какие шаги предпринять: вызвать API, прочитать файл, написать код, проверить результат. Это уже цикл: думай → действуй → наблюдай → повтори.

Волна 3: Рои (2025–2026) — несколько агентов работают вместе, каждый со своей специализацией. Один пишет код, другой проверяет, третий деплоит. Они координируются через протоколы и общую память.

// Эволюция в одной строке:
Prompt → Chain → Agent → Multi-Agent → Swarm

// Ключевой сдвиг:
от "модель отвечает" к "модель действует"
от "один мозг" к "команда специалистов"

Почему агенты победили

Простой чат-бот не может решить задачу, которая требует 15 шагов. Он забудет контекст на 5-м шаге. Агент же работает в цикле ReAct (Reasoning + Acting): рассуждает о задаче, выбирает действие, наблюдает результат, корректирует план.

Представьте разницу: вы просите «найди баг в коде». Чат-бот посмотрит на код и предположит. Агент прочитает файлы, запустит тесты, найдёт падающий тест, проанализирует стектрейс, предложит фикс и сам его применит.

Анатомия агента

  • LLM-ядро — мозг, принимающий решения
  • Инструменты — руки: API, файлы, терминал, браузер
  • Память — контекст, история, знания
  • Планировщик — логика декомпозиции задачи на шаги
  • Контур обратной связи — проверка результата и корректировка
// Проверка знаний
Какой ключевой паттерн отличает AI-агента от чат-бота?
A Использование более крупной языковой модели
B Цикл «рассуждай → действуй → наблюдай → повтори»
C Наличие графического интерфейса
D Возможность генерировать изображения
02 6 паттернов оркестрации агентов

Anthropic в своём ключевом исследовании выделил принцип: «Не используй агентов, когда хватает workflows». Это не отрицание агентов, а призыв к инженерной дисциплине. Есть 6 базовых паттернов — от простого к сложному.

1. Prompt Chaining — Цепочка промптов

Задача разбивается на последовательные шаги. Выход одного шага — вход следующего. Каждый шаг простой, проверяемый.

Задача: "Напиши пост для блога"

Шаг 1: Генерация плана → [план]
Шаг 2: План → Написать черновик → [черновик]
Шаг 3: Черновик → Проверка фактов → [результат]
Шаг 4: Результат → Финальная редакция → [пост]

Когда использовать: задача естественно декомпозируется на последовательные шаги, где каждый шаг зависит от предыдущего.

2. Routing — Маршрутизация

Первый LLM-вызов классифицирует запрос и направляет к специализированному обработчику. Как коммутатор в телефонной сети.

Вход: "Мой заказ не пришёл"

Router → [категория: доставка]
→ Агент доставки (специализированный промпт + доступ к API доставки)

3. Parallelization — Параллелизация

Задача разбивается на независимые подзадачи, которые выполняются одновременно. Результаты собираются агрегатором.

Два паттерна: Sectioning (разные аспекты одной задачи) и Voting (одна задача, несколько попыток, лучший результат).

4. Orchestrator-Workers — Оркестратор

Центральный LLM динамически решает, какие подзадачи создать и как их распределить. В отличие от параллелизации, здесь подзадачи не предопределены — оркестратор сам планирует.

5. Evaluator-Optimizer — Оценщик

Один LLM генерирует, другой оценивает. Цикл повторяется, пока оценщик не одобрит результат. Это как code review, но автоматизированный.

6. Autonomous Agent — Автономный агент

LLM сам решает, когда остановиться. Он работает в цикле, используя инструменты, пока не достигнет цели или не исчерпает лимиты. Максимальная гибкость, но и максимальные риски.

Правило Anthropic:
"Используй самый простой паттерн, который решает задачу."

Prompt Chaining > Routing > Parallelization >
Orchestrator > Evaluator > Autonomous Agent
// Проверка знаний
Какой паттерн оркестрации следует использовать, когда подзадачи НЕ известны заранее и должны определяться динамически?
A Prompt Chaining — подзадачи определяются статически
B Parallelization — задачи запускаются параллельно
C Orchestrator-Workers — оркестратор планирует динамически
D Routing — запрос направляется в нужный обработчик
03 Протоколы: MCP и Agent-to-Agent

Чтобы агенты могли работать с внешним миром и друг с другом, нужны стандартные протоколы. В 2025 году появились два ключевых стандарта, которые определили ландшафт.

MCP — Model Context Protocol

Создан Anthropic. Решает проблему M×N интеграций: вместо того чтобы каждый AI-клиент писал коннектор к каждому сервису, MCP создаёт единый стандарт подключения.

Аналогия: USB для AI-агентов.

До MCP: каждый агент + каждый сервис = уникальный коннектор
После MCP: агент ↔ MCP ↔ любой сервис

Архитектура:
Host (IDE/агент) → Client → Server → Resources/Tools/Prompts

MCP-сервер предоставляет три типа возможностей:

  • Resources — данные для чтения (файлы, БД, API). Контролируются приложением.
  • Tools — действия, которые может вызывать модель (CRUD операции, вычисления).
  • Prompts — шаблоны инструкций, подготовленные сервером.

Транспорт работает через JSON-RPC 2.0 по stdio (локально) или HTTP+SSE (удалённо). Ключевая фича — capability negotiation: клиент и сервер договариваются, что каждый из них поддерживает.

A2A — Agent-to-Agent Protocol

Создан Google. Если MCP — это «агент ↔ инструмент», то A2A — это «агент ↔ агент». Протокол для коммуникации между агентами разных вендоров.

// Agent Card — визитка агента
{
  "name": "ResumeAnalyzer",
  "skills": ["parse_resume", "match_job"],
  "endpoint": "https://agent.example.com",
  "auth": "OAuth2"
}

// Клиент находит агента через Agent Card
// и отправляет ему Task через A2A Protocol

Ключевые концепции A2A:

  • Agent Card — JSON-файл с описанием возможностей агента (как robots.txt для AI)
  • Task — единица работы с жизненным циклом (submitted → working → completed)
  • Message/Part — обмен сообщениями с типизированным контентом (текст, файлы, формы)
  • Artifact — результат работы агента (файл, данные, отчёт)

MCP + A2A = Полная экосистема

Эти протоколы комплементарны: MCP даёт агенту руки (доступ к инструментам), A2A даёт голос (общение с другими агентами). Вместе они формируют полноценную экосистему, где агенты разных вендоров могут сотрудничать.

// Проверка знаний
В чём главное различие между MCP и A2A протоколами?
A MCP создан Google, а A2A создан Anthropic
B MCP — связь агента с инструментами, A2A — связь агента с агентами
C MCP работает только локально, A2A — только в облаке
D MCP использует GraphQL, а A2A — REST
04 Context Engineering: уроки Manus

В 2025 году Manus (китайский AI-агент общего назначения) опубликовал статью, которая перевернула представление об «инженерии промптов». Их тезис: prompt engineering мертв, да здравствует context engineering.

Контекстное окно — это всё

Ключевой инсайт: всё, что видит модель — это контекстное окно. Не промпт, не RAG, не fine-tuning — а именно то, что оказалось в контексте на момент генерации. Задача инженера — сделать так, чтобы в контексте оказалась нужная информация в нужном порядке.

"Мы не программируем агентов.
Мы проектируем контекст, в котором они работают."
— Команда Manus

4 принципа context engineering от Manus

1. KV-Cache — ваш компас

KV-cache хранит промежуточные вычисления модели. Попадание в кэш = быстро и дёшево. Промах = дорогая рекомпуляция. Manus научился структурировать контекст так, чтобы максимизировать cache hits — стабильный системный промпт вначале, динамическая информация в конце.

2. Не утопи модель в инструментах

Каждый MCP-инструмент в контексте — это ~400 токенов описания. 100 инструментов = 40K токенов только на описания. Manus использует динамическое подключение инструментов — загружает только те, что релевантны текущей задаче.

3. Файловая система как контекст

Когда информация не помещается в контекст, Manus пишет её в файлы и даёт агенту ссылку. Файл становится «внешней памятью», а контекст содержит только указатель. Это аналог виртуальной памяти в OS — подкачка по требованию.

4. Рефлексия через ошибки

Вместо того чтобы прятать ошибки агента, Manus оставляет их в контексте. Модель видит: «Я пробовал X, это не сработало из-за Y». Это мощный сигнал — модель учится в рамках одной сессии не повторять ошибки.

Todo-list как backbone

Manus использует todo-list как центральный механизм координации. Каждый шаг отмечается: [✓] сделано или [ ] в процессе. Модель всегда видит, где она находится в плане. Это решает проблему «потерянного контекста» на длинных задачах.

// Структура контекста Manus:
[System Prompt — стабильный, кэшируемый]
[Tool Definitions — динамические, по задаче]
[Todo List — текущее состояние плана]
[Conversation History — с ошибками!]
[Current Task Context — файлы, данные]
// Проверка знаний
Почему Manus оставляет ошибки агента в контексте вместо удаления?
A Для отладки — чтобы разработчики видели логи
B Для экономии токенов — удаление стоит дорого
C Модель учится не повторять ошибки в рамках сессии
D Протокол MCP запрещает удалять сообщения
05 Роевой интеллект

Отдельный агент — это солдат. Рой агентов — это армия. Идея роевого интеллекта (Swarm Intelligence) пришла из биологии: муравьи, пчёлы, стаи птиц решают сложные задачи без центрального координатора.

От одного агента к рою

Ограничения одиночного агента:

  • Контекстное окно — один агент не может «знать всё» о большом проекте
  • Специализация — один промпт не может быть одинаково хорош для кодирования, тестирования и деплоя
  • Надёжность — одна ошибка ломает всю цепочку
  • Скорость — последовательное выполнение медленнее параллельного

Архитектуры мульти-агентных систем

Иерархическая (Manager-Worker)

Менеджер-агент получает задачу, декомпозирует на подзадачи и раздаёт рабочим. Каждый рабочий — специалист в своей области. Менеджер собирает результаты и контролирует качество.

Сеть равных (Peer-to-Peer)

Нет центрального координатора. Агенты общаются напрямую через A2A, передают задачи друг другу по компетенциям. Каждый агент публикует Agent Card с описанием своих навыков.

Конвейер (Pipeline)

Агенты выстроены в цепочку, как на заводском конвейере. Каждый делает свою операцию и передаёт результат следующему. Coder → Reviewer → Tester → Deployer.

Паттерн OpenAI Swarm:

1. Каждый агент = набор инструкций + инструменты
2. Handoff: агент передаёт управление другому
3. Контекст передаётся через context_variables
4. Оркестрация на стороне клиента, не сервера

Примеры из реального мира

Claude Code — использует субагентов для исследования кодовой базы. Главный агент делегирует: «найди все файлы, связанные с аутентификацией» → субагент сканирует проект и возвращает результаты.

Cursor — Background Agents работают параллельно на отдельных ветках. Несколько агентов решают разные задачи одновременно, каждый в своей песочнице.

Devin — полноценная виртуальная машина для каждого агента. Агент может устанавливать зависимости, запускать серверы, тестировать в браузере.

Проблема координации

Главный вызов мульти-агентных систем — не создание агентов, а их координация. Кто решает конфликты? Как синхронизировать состояние? Как избежать бесконечных циклов? Ответы на эти вопросы определяют успех роя.

// Проверка знаний
Что является главным вызовом в мульти-агентных системах?
A Создание достаточно умных отдельных агентов
B Координация агентов: конфликты, синхронизация, циклы
C Стоимость API-запросов к языковым моделям
D Ограничения операционной системы на параллельные процессы
06 21 паттерн из Google Agent Whitepaper

В книге «Agents» от Google собраны паттерны проектирования, выработанные индустрией. Это не академическая теория — это боевые рецепты, проверенные в продакшене.

Когнитивные архитектуры

  1. ReAct — Reasoning + Acting. Модель чередует рассуждения и действия. Базовый цикл всех современных агентов.
  2. Chain-of-Thought (CoT) — модель «думает вслух», разбивая решение на шаги. Улучшает точность на 40%+ на сложных задачах.
  3. Tree-of-Thought (ToT) — вместо одной цепочки мыслей модель исследует дерево вариантов. Параллельный поиск лучшего пути.
  4. Reflexion — модель анализирует свои прошлые ошибки и формулирует выводы для следующих попыток.

Управление инструментами

  1. Dynamic Tool Selection — загрузка только релевантных инструментов (паттерн Manus).
  2. Tool Chaining — последовательный вызов инструментов, где выход одного = вход другого.
  3. Parallel Tool Calls — вызов нескольких инструментов одновременно, когда они независимы.
  4. Human-in-the-Loop Tools — агент запрашивает подтверждение человека перед опасными действиями.

Память и контекст

  1. RAG (Retrieval-Augmented Generation) — поиск релевантной информации перед генерацией.
  2. Episodic Memory — хранение истории взаимодействий для обучения на своём опыте.
  3. Semantic Memory — база знаний с фактами и концепциями.
  4. Procedural Memory — сохранение успешных стратегий и процедур для повторного использования.
  5. Context Window Management — стратегии сжатия и ротации контекста (суммаризация, приоритизация).

Мульти-агентные паттерны

  1. Supervisor — агент-супервизор контролирует группу рабочих агентов.
  2. Debate — агенты спорят и критикуют решения друг друга для повышения качества.
  3. Ensemble — несколько агентов решают одну задачу, лучший ответ выбирается голосованием.
  4. Handoff — передача задачи от одного агента другому с сохранением контекста.

Безопасность и надёжность

  1. Guardrails — ограничения на действия агента (allowlists, rate limits, sandboxing).
  2. Graceful Degradation — агент умеет корректно обрабатывать сбои и переходить в безопасный режим.
  3. Audit Trail — полное логирование всех решений и действий для отладки.
  4. Capability Boundaries — чёткое определение того, что агент может и не может делать.
Золотое правило Google:
"Agents should be trustworthy, not just capable."

Агент должен быть надёжным, а не просто умным.
Лучше сказать "я не знаю", чем галлюцинировать.
// Проверка знаний
Какой паттерн использует несколько агентов, которые «спорят» друг с другом для повышения качества ответа?
A Ensemble — голосование за лучший ответ
B Debate — агенты критикуют решения друг друга
C Reflexion — модель анализирует свои ошибки
D Handoff — передача задачи другому агенту
07 Дорожная карта: куда идут агенты

Мы прошли путь от чат-ботов до роёв. Но это лишь начало. Вот что ждёт нас в ближайшие годы — и почему стоит обратить внимание уже сейчас.

Тренд 1: Агенты становятся commodity

Создание базового агента больше не рокет-сайенс. Фреймворки (LangGraph, CrewAI, AutoGen, OpenAI Agents SDK) позволяют собрать агента за час. Конкурентное преимущество смещается от «умею создать агента» к «умею создать надёжного агента в продакшене».

Ключевые фреймворки 2025–2026:

  • OpenAI Agents SDK — минималистичный: Agent + Handoff + Guardrails
  • LangGraph — граф-ориентированная оркестрация с состоянием
  • CrewAI — мультиагентные «команды» с ролями
  • Claude Code — агент с прямым доступом к терминалу и файловой системе

Тренд 2: Context Engineering > Prompt Engineering

Как показал Manus, будущее не за «волшебными промптами», а за инженерией контекста. Кто лучше управляет тем, что видит модель — тот получает лучший результат. Это включает:

  • Управление KV-cache и структурой контекста
  • Динамическую загрузку/выгрузку инструментов
  • Файловую систему как расширение памяти
  • Стратегии суммаризации и сжатия контекста

Тренд 3: Специализированные агенты

Вместо «одного умного агента для всего» индустрия движется к экосистемам специалистов:

  • Coding agents (Cursor, Claude Code, Devin, Windsurf)
  • Research agents (Deep Research, Perplexity)
  • Data agents (аналитика, визуализация, ETL)
  • DevOps agents (деплой, мониторинг, инцидент-менеджмент)

Тренд 4: Безопасность становится критичной

Когда агент может выполнять код, обращаться к API, отправлять сообщения — ошибка агента = ошибка в продакшене. Тренды в безопасности:

  • Sandboxing — каждый агент в изолированной среде
  • Permission systems — явные разрешения на каждое действие
  • Audit trails — полное логирование для пост-анализа
  • Human-in-the-loop — человек одобряет критические действия

Тренд 5: Агентский интернет

MCP + A2A формируют фундамент для «интернета агентов» — сети, где AI-агенты находят друг друга, договариваются и сотрудничают. Вместо веб-сайтов для людей — API-эндпоинты для агентов. Вместо SEO — Agent Cards.

Дорожная карта разработчика AI-агентов:

1. Освой один фреймворк (OpenAI SDK / LangGraph)
2. Изучи MCP — создай свой MCP-сервер
3. Практикуй context engineering
4. Строй мульти-агентные системы
5. Думай о безопасности с первого дня
6. Следи за A2A — это будущее интеграций

Финальная мысль

Мы находимся в точке, аналогичной 1995 году для веб-разработки. Всё только начинается. Агенты — это не мода, это новая парадигма взаимодействия с AI. И те, кто поймёт их архитектуру сегодня, будут строить продукты завтра.

// Проверка знаний
Куда смещается конкурентное преимущество в мире AI-агентов к 2026 году?
A К созданию самой большой языковой модели
B К написанию лучших промптов
C К созданию надёжных агентов в продакшене
D К обучению собственных моделей с нуля
0
Очки XP
0
Верных
0
Макс серия