Volcano от Kong: TypeScript SDK для MCP‑нативных мульти‑LLM агентов

Что такое Volcano и зачем он нужен

Volcano — это открытый TypeScript SDK от Kong, предназначенный для создания production‑готовых AI‑агентов, которые выполняют многошаговые рабочие процессы с участием нескольких LLM. SDK делает Model Context Protocol (MCP) первоклассным интерфейсом: автоматизирует дискавери инструментов, их вызов и передачу контекста, сокращая количество «склеивающего» кода и сохраняя корпоративные механизмы безопасности и наблюдаемости.

Компактный цепочный API

Volcano предлагает удобный цепочный API (.then(…).run()), который передает промежуточный контекст между шагами и позволяет менять LLM для каждого шага — например, планировать одним моделем и исполнять другим. SDK включает функции, важные для production: автоматические повторные попытки, таймауты на шаг, пул соединений для MCP‑серверов, поддержка OAuth 2.1 и OpenTelemetry для трассировки и метрик.

Пример: девятистрочный рабочий поток

SDK демонстрирует преимущество краткости: рабочий поток, который обычно потребовал бы 100+ строк кода, можно выразить в нескольких строках. Пример из релиза Kong показывает, как связать два LLM и два MCP‑сервера в одном агенте:

import { agent, llmOpenAI, llmAnthropic, mcp } from "volcano-ai";


// Setup: two LLMs, two MCP servers
const planner = llmOpenAI({ model: "gpt-5-mini", apiKey: process.env.OPENAI_API_KEY! });
const executor = llmAnthropic({ model: "claude-4.5-sonnet", apiKey: process.env.ANTHROPIC_API_KEY! });
const database = mcp("https://api.company.com/database/mcp");
const slack = mcp("https://api.company.com/slack/mcp");


// One workflow
await agent({ llm: planner })
 .then({
   prompt: "Analyze last week's sales data",
   mcps: [database]  // Auto-discovers and calls the right tools
 })
 .then({
   llm: executor,  // Switch to Claude
   prompt: "Write an executive summary"
 })
 .then({
   prompt: "Post the summary to #executives",
   mcps: [slack]
 })
 .run();

Ключевые возможности

Интеграция с MCP‑стеком Kong

Volcano играет роль SDK для разработчиков внутри MCP‑управляемой контрольной плоскости. Konnect и AI Gateway от Kong добавляют уровни управления и эксплуатации: автогенерация MCP‑серверов, централизованная OAuth 2.1 для MCP, наблюдаемость за инструментами, рабочими потоками и подсказками в дашбордах Konnect. Портал разработчика Konnect может выступать как MCP‑сервер, что позволяет инструментам и агентам автоматически обнаруживать API, запрашивать доступ и программно использовать конечные точки. Kong также анонсировал MCP Composer и MCP Runner для проектирования, генерации и эксплуатации MCP‑интеграций.

Практическое значение для команд

Для команд, создающих внутренние агенты, Volcano сокращает объем интеграционного кода и централизует важные операционные аспекты — аутентификацию, повторные попытки и трассировку. Опираясь на MCP как каноничный интерфейс инструментов, SDK снижает риск отклонения от протокола и упрощает аудит и управление по мере роста использования агентов в организации.