GLM-5-Turbo: цены, сравнение с GLM-5 и настройка OpenClaw

Zhipu AI выпустила GLM-5-Turbo: $1.20/1M input, tool call error rate 0.67%, закрытая лицензия. Сравнение с GLM-5, ценами конкурентов и инструкция подключения.

GLM-5-Turbo: цены, сравнение с GLM-5 и настройка OpenClaw
TL;DR: Zhipu AI выпустила GLM-5-Turbo — закрытую версию GLM-5 для агентных задач. $1.20/1M токенов на вход, контекст 200K, ошибки вызова инструментов 0.67% (у базовой GLM-5 — от 2.3% до 6.4%). Доступна через API и на OpenRouter.

Китайская Zhipu AI (торговая марка Z.AI) выпустила GLM-5-Turbo, вариант флагманской GLM-5, оптимизированный для агентных воркфлоу. Главная целевая платформа — OpenClaw, независимый open source проект.

Чем GLM-5-Turbo отличается от GLM-5

GLM-5-Turbo построена на базе GLM-5 (744B параметров, MoE с ~44B активных на токен), но заточена под агентное выполнение. Основные отличия по данным OpenRouter:

GLM-5 GLM-5-Turbo
Контекст 200K 200K
Макс. выход 128K 128K
Лицензия MIT (open source) Закрытая
Tool call error rate 2.3–6.4% 0.67%
E2E latency 9.3–11.2 сек 8.2 сек
Throughput 40–70 tok/s (зависит от провайдера) ~48 tok/s
First token latency 0.4–1.1 сек 2.9 сек

Главная разница в надёжности вызова инструментов: 0.67% ошибок против 2.3–6.4% у базовой модели. Для агентов, которые цепочкой вызывают инструменты, каждый промах может сорвать весь воркфлоу. Тут Turbo заметно стабильнее.

Зато первый токен приходит медленнее (2.9 сек против 0.4–1.1 сек у GLM-5 через Friendli/Parasail). Для чат-ботов это минус, для агентов, где важнее завершить задачу целиком, менее критично.

Сколько стоит

Цены на Z.AI API: $1.20/1M input, $4.00/1M output. На OpenRouter со скидкой 20%: $0.96/$3.20. Для контекста, по данным TokenCost:

Модель Input/1M Output/1M
MiniMax M2.5 $0.15 $0.60
Kimi K2.5 $0.35 $1.40
GLM-5 (base) $1.00 $3.20
GLM-5-Turbo $1.20 $4.00
Claude Haiku 4.5 $1.00 $5.00
Claude Sonnet 4.5 $3.00 $15.00
Claude Opus 4.6 $5.00 $25.00

GLM-5-Turbo стоит чуть дороже базовой GLM-5, и в 8 раз дороже MiniMax M2.5. При этом MiniMax M2.5 набирает 80.2 на SWE-bench против 77.8 у GLM-5. Аргумент Zhipu в том, что SWE-bench не измеряет то, что важно для агентов: стабильность длинных цепочек вызовов и работу с инструментами.

Для подписчиков GLM Coding доступны тарифы: Lite ($27/квартал), Pro ($81/квартал), Max ($216/квартал). Pro-подписчики получают GLM-5-Turbo сразу, Lite — с апреля.

Как подключить GLM-5-Turbo

Через OpenAI SDK

API совместим с OpenAI SDK. Минимальная миграция:

from openai import OpenAI

client = OpenAI(
    api_key="ваш-z-ai-api-key",
    base_url="https://api.z.ai/api/paas/v4/",
)

response = client.chat.completions.create(
    model="glm-5-turbo",
    messages=[
        {"role": "user", "content": "Ваш промпт"}
    ],
)

Через OpenRouter дешевле ($0.96 вместо $1.20 за 1M input) и есть автоматические фоллбэки:

from openai import OpenAI

client = OpenAI(
    api_key="ваш-openrouter-key",
    base_url="https://openrouter.ai/api/v1",
)

response = client.chat.completions.create(
    model="z-ai/glm-5-turbo",
    messages=[
        {"role": "user", "content": "Ваш промпт"}
    ],
)

Поддерживаются function calling, thinking mode, structured output и стриминг. Ключ API получается на z.ai.

В OpenClaw

Инструкция по документации Z.AI:

  1. Установить OpenClaw:
curl -fsSL https://openclaw.ai/install.sh | bash
  1. При настройке (openclaw onboard --install-daemon) выбрать Z.AI как провайдера и ввести API-ключ.
  2. Переключить модель на GLM-5-Turbo. В файле ~/.openclaw/openclaw.json добавить модель в секцию models.providers.zai.models:
{
  "id": "glm-5-turbo",
  "name": "GLM-5-Turbo",
  "reasoning": true,
  "input": ["text"],
  "contextWindow": 204800,
  "maxTokens": 131072
}
  1. Поменять дефолтную модель в agents.defaults.model:
"primary": "zai/glm-5-turbo",
"fallbacks": ["zai/glm-5", "zai/glm-4.7"]
  1. Перезапустить: openclaw gateway restart.

Skills (навыки агента) ставятся через ClawHub: clawhub search "тема"clawhub install название. Именно рост использования Skills с 26% до 45% стал одной из причин, почему Zhipu сделала отдельную модель под OpenClaw.

Бенчмарк ZClawBench

Вместе с моделью Zhipu представила ZClawBench — свой бенчмарк для агентных сценариев, построенный на типичных задачах OpenClaw. Покрывает настройку окружений, разработку, поиск информации, анализ данных и автоматизацию.

Результаты ZClawBench — GLM-5-Turbo обходит GLM-5 и ряд конкурентов в агентных задачах

По радарной диаграмме от Zhipu, GLM-5-Turbo обходит базовую GLM-5 во всех категориях. Но тут важная оговорка: конкретные цифры ZClawBench пока не опубликованы, это данные вендора без независимой валидации. Датасет и траектории выложены в открытый доступ, так что проверить можно.

Пишу про модели, агентов и инструменты для разработки с AI — подписывайся в Telegram.

Zhipu пошли нетипичным путём: вместо того чтобы взять готовую модель и прикрутить function calling сверху, они тренировали GLM-5-Turbo на агентных данных с самого начала. По анализу VentureBeat, модель позиционируется не как замена GLM-5, а как коммерческий ответвление: быстрее, стабильнее в агентных цепочках, но закрытая.

GLM-5 вышла под MIT-лицензией, и Zhipu строила репутацию на открытости. GLM-5-Turbo закрыта. Zhipu обещает, что наработки из Turbo попадут в будущие open source релизы, но саму модель открывать не планирует.

Для тех, кто строит агентов и ищет альтернативу OpenAI с Anthropic, GLM-5-Turbo — вариант с нативной поддержкой MCP и OpenAI-совместимым API. Но цена не бюджетная: MiniMax M2.5 в 8 раз дешевле и на SWE-bench набирает больше. Аргумент за Turbo — стабильность инструментов в длинных агентных цепочках, и тут данные OpenRouter (0.67% ошибок) пока выглядят убедительно.

Что ещё почитать