Volcano от Kong: TypeScript SDK для MCP‑нативных мульти‑LLM агентов
Что такое Volcano и зачем он нужен
Volcano — это открытый TypeScript SDK от Kong, предназначенный для создания production‑готовых AI‑агентов, которые выполняют многошаговые рабочие процессы с участием нескольких LLM. SDK делает Model Context Protocol (MCP) первоклассным интерфейсом: автоматизирует дискавери инструментов, их вызов и передачу контекста, сокращая количество «склеивающего» кода и сохраняя корпоративные механизмы безопасности и наблюдаемости.
Компактный цепочный API
Volcano предлагает удобный цепочный API (.then(…).run()), который передает промежуточный контекст между шагами и позволяет менять LLM для каждого шага — например, планировать одним моделем и исполнять другим. SDK включает функции, важные для production: автоматические повторные попытки, таймауты на шаг, пул соединений для MCP‑серверов, поддержка OAuth 2.1 и OpenTelemetry для трассировки и метрик.
Пример: девятистрочный рабочий поток
SDK демонстрирует преимущество краткости: рабочий поток, который обычно потребовал бы 100+ строк кода, можно выразить в нескольких строках. Пример из релиза Kong показывает, как связать два LLM и два MCP‑сервера в одном агенте:
import { agent, llmOpenAI, llmAnthropic, mcp } from "volcano-ai";
// Setup: two LLMs, two MCP servers
const planner = llmOpenAI({ model: "gpt-5-mini", apiKey: process.env.OPENAI_API_KEY! });
const executor = llmAnthropic({ model: "claude-4.5-sonnet", apiKey: process.env.ANTHROPIC_API_KEY! });
const database = mcp("https://api.company.com/database/mcp");
const slack = mcp("https://api.company.com/slack/mcp");
// One workflow
await agent({ llm: planner })
.then({
prompt: "Analyze last week's sales data",
mcps: [database] // Auto-discovers and calls the right tools
})
.then({
llm: executor, // Switch to Claude
prompt: "Write an executive summary"
})
.then({
prompt: "Post the summary to #executives",
mcps: [slack]
})
.run();
Ключевые возможности
- Цепочный API для построения многошаговых рабочих процессов с передачей контекста
- MCP‑нативное использование инструментов: передайте MCP‑серверы, SDK сам найдет и вызовет нужные инструменты
- Поддержка нескольких поставщиков LLM в одном потоке
- Стриминг промежуточных и итоговых результатов для интерактивности
- Настраиваемые повторные попытки и таймауты для надежности
- Hooks до/после шагов для кастомизации и инструментирования
- Типизированная обработка ошибок для понятных сбоев в исполнении агентов
- Параллельное выполнение, ветвления и циклы для сложной логики
- Наблюдаемость через OpenTelemetry для сквозной трассировки и метрик
- Поддержка OAuth 2.1 и пул соединений для безопасного и эффективного доступа к MCP
- Лицензия Apache-2.0
Интеграция с MCP‑стеком Kong
Volcano играет роль SDK для разработчиков внутри MCP‑управляемой контрольной плоскости. Konnect и AI Gateway от Kong добавляют уровни управления и эксплуатации: автогенерация MCP‑серверов, централизованная OAuth 2.1 для MCP, наблюдаемость за инструментами, рабочими потоками и подсказками в дашбордах Konnect. Портал разработчика Konnect может выступать как MCP‑сервер, что позволяет инструментам и агентам автоматически обнаруживать API, запрашивать доступ и программно использовать конечные точки. Kong также анонсировал MCP Composer и MCP Runner для проектирования, генерации и эксплуатации MCP‑интеграций.
Практическое значение для команд
Для команд, создающих внутренние агенты, Volcano сокращает объем интеграционного кода и централизует важные операционные аспекты — аутентификацию, повторные попытки и трассировку. Опираясь на MCP как каноничный интерфейс инструментов, SDK снижает риск отклонения от протокола и упрощает аудит и управление по мере роста использования агентов в организации.