Claude Code: 5 провайдеров с Anthropic API в 2026

Пять китайских AI-провайдеров с нативной поддержкой Anthropic Messages API: Z.ai, DeepSeek, Kimi, MiniMax и Alibaba Qwen. Настройка, цены, ограничения.

Claude Code: 5 провайдеров с Anthropic API в 2026
TL;DR: Claude Code работает не только с моделями Anthropic. Пять китайских AI-провайдеров реализовали нативную совместимость с Anthropic Messages API: Z.ai (GLM-модели от $10/мес), DeepSeek ($0.28/M токенов), Kimi ($0.60/M), MiniMax ($0.30/M) и Alibaba Qwen (от $0.05/M). Подключаешь через ANTHROPIC_BASE_URL — и работаешь в Claude Code как обычно, только дешевле.

Если ты пользуешься Claude Code, то знаешь: подписка Max стоит $100/мес, а API-токены улетают быстрее, чем хотелось бы. Но Anthropic предусмотрели возможность подключения сторонних провайдеров через переменную ANTHROPIC_BASE_URL — и несколько компаний этим воспользовались.

Меня интересовали провайдеры с нативной поддержкой Anthropic Messages API. Не прокси, не маркетплейсы, а те, кто реализовал совместимый эндпоинт у себя. Нашёл пять таких, все китайские. Совпадение? Не думаю.

Как это работает

Механика простая. Claude Code по умолчанию отправляет запросы на api.anthropic.com. Но если задать переменную ANTHROPIC_BASE_URL, запросы пойдут на указанный адрес. Провайдер на другом конце должен понимать формат Anthropic Messages API — и всё.

Настроить можно через ~/.claude/settings.json:

{
  "env": {
    "ANTHROPIC_BASE_URL": "https://your-provider.com/anthropic",
    "ANTHROPIC_AUTH_TOKEN": "your-api-key"
  }
}

Или через переменные окружения в ~/.zshrc:

export ANTHROPIC_BASE_URL="https://your-provider.com/anthropic"
export ANTHROPIC_AUTH_TOKEN="your-api-key"

Удобный вариант — shell-алиасы для быстрого переключения между провайдерами:

glm() {
  ANTHROPIC_BASE_URL=https://api.z.ai/api/anthropic \
  ANTHROPIC_AUTH_TOKEN="$ZAI_API_KEY" \
  claude "$@"
}

dsk() {
  ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic \
  ANTHROPIC_AUTH_TOKEN="$DEEPSEEK_API_KEY" \
  claude "$@"
}

Ещё можно переопределить, какая модель стоит за каждым алиасом Claude Code:

export ANTHROPIC_MODEL="glm-4.7"
export ANTHROPIC_SMALL_FAST_MODEL="glm-4.5-air"

Подробнее про все переменные окружения — в справочнике по переменным Claude Code.

1. Z.ai — GLM-модели от $10/мес

Z.ai — международный бренд Zhipu AI, разработчика семейства GLM. Они тренируют свои модели с нуля, это не перепродажа. Флагман GLM-5 весит 744 миллиарда параметров (MoE) и набирает 77.8 на SWE-bench Verified.

У Z.ai есть отдельный Coding Plan — подписка специально под AI-кодинг с Anthropic-совместимым эндпоинтом:

План Цена/мес Модели Промптов за 5 ч
Lite $10 GLM-4.5, 4.6, 4.7 ~80
Pro $30 + GLM-5 ~400
Max $80 + приоритет ~1 600

Если подписка не нравится — можно платить за токены. GLM-4.7 стоит $0.60/$2.20 за миллион (вход/выход), GLM-5 — $1.00/$3.20. Для сравнения — Claude Sonnet 4 это $3/$15. Разница в 5-7 раз. А GLM-4.7-Flash вообще бесплатный.

Настройка:

{
  "env": {
    "ANTHROPIC_BASE_URL": "https://api.z.ai/api/anthropic",
    "ANTHROPIC_AUTH_TOKEN": "ваш-ключ-z-ai",
    "ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-4.7",
    "ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-5",
    "ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air",
    "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1"
  }
}

Есть нюансы, которые стоит знать. GLM-5 тратит квоту в 3 раза быстрее обычных моделей. На плане Lite GLM-5 вообще недоступна — только с Pro. В пиковые часы (14:00-18:00 UTC+8) бывают задержки, и судя по отзывам на Reddit, проблема не редкая. Серверы в Сингапуре — задержка из России заметная, но терпимая.

11 февраля 2026 Z.ai подняли цены на ~30% из-за роста спроса. Старые подписчики сохраняют прежние условия до конца текущего цикла оплаты.

Попробовать: z.ai

2. DeepSeek — reasoning по цене кофе

DeepSeek сделали свой Anthropic-совместимый эндпоинт, и настраивается он за минуту.

Документация DeepSeek по Anthropic-совместимому API

Настройка:

{
  "env": {
    "ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
    "ANTHROPIC_AUTH_TOKEN": "ваш-deepseek-ключ",
    "ANTHROPIC_MODEL": "deepseek-chat",
    "ANTHROPIC_SMALL_FAST_MODEL": "deepseek-chat",
    "API_TIMEOUT_MS": "600000",
    "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1"
  }
}

Доступны две модели на базе DeepSeek-V3.2: deepseek-chat (общего назначения) и deepseek-reasoner (с цепочкой рассуждений, аналог extended thinking). Reasoning-модель хороша для сложных задач, когда надо разобраться в чужом коде или продебажить что-то неочевидное.

Цены — одни из самых низких на рынке: $0.28 за миллион входных токенов и $0.42 за выход. При попадании в кеш — $0.028. Это в 50-100 раз дешевле Claude Opus.

Но есть важные ограничения. Картинки не поддерживаются — если Claude Code попытается отправить скриншот, API вернёт ошибку 400. Prompt caching-директивы (cache_control) тихо игнорируются — каждый запрос платит полную стоимость входных токенов. И budget_tokens для thinking mode тоже не работает — модель сама решает, сколько рассуждать.

Ещё момент: если передать имя модели Claude (например, claude-sonnet-4-20250514), DeepSeek тихо подставит deepseek-chat без ошибки. Можно не заметить, что работаешь не с той моделью.

Со стабильностью бывает по-разному. Иногда запросы висят по 30-40 секунд, иногда всё летает. Поэтому API_TIMEOUT_MS=600000 (10 минут) — рекомендация от самих DeepSeek. Для основной работы я бы не стал полагаться только на них, но как бюджетный вариант — вполне рабочий.

Попробовать: deepseek.com

3. Kimi (Moonshot AI) — самый богатый выбор моделей

Moonshot AI, создатели ассистента Kimi, тоже реализовали Anthropic-совместимый эндпоинт. И у них, пожалуй, самая интересная линейка моделей из всех пяти провайдеров.

Платформа Moonshot AI — документация по интеграции с Claude Code
Модель Контекст Thinking Vision Input $/M Output $/M
kimi-k2.5 256K Да Да $0.60 $3.00
kimi-k2-0905-preview 256K Нет Нет $0.60 $2.50
kimi-k2-thinking-turbo 256K Да Нет $1.15 $8.00
kimi-k2-turbo-preview 256K Нет Нет $1.15 $8.00

kimi-k2.5 умеет и thinking, и vision, и agent-режим. Архитектура MoE: 1 триллион параметров, 32 миллиарда активных. При регистрации дают $5 бесплатного кредита, хватит потыкать.

Настройка:

{
  "env": {
    "ANTHROPIC_BASE_URL": "https://api.moonshot.ai/anthropic",
    "ANTHROPIC_AUTH_TOKEN": "sk-ваш-ключ-moonshot",
    "ANTHROPIC_MODEL": "kimi-k2.5",
    "ANTHROPIC_SMALL_FAST_MODEL": "kimi-k2-0905-preview",
    "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1",
    "API_TIMEOUT_MS": "600000"
  }
}

kimi-k2-0905-preview при $0.60/$2.50 неплохо справляется с агентным кодингом. По данным Moonshot, модель стабильно работает на 200-300 последовательных tool calls. Для ежедневных задач цена приятная.

Есть особенность: Anthropic-эндпоинт пересчитывает температуру по формуле real_temperature = request_temperature × 0.6. Если Claude Code задаёт температуру 1.0, модель на самом деле получит 0.6. На практике разница малозаметная, но знать стоит.

Скорость генерации у обычных моделей (~34 tok/s) заметно ниже Claude Sonnet (~91 tok/s). Turbo-версии быстрее (60-100 tok/s), но и дороже в 3 раза.

Попробовать: platform.moonshot.ai

4. MiniMax — дешевле всех по токенам

MiniMax тихо сделали, пожалуй, самый дешёвый Anthropic-совместимый API. Флагман M2.5 — reasoning-модель на 230 миллиардов параметров (10 миллиардов активных, MoE). На SWE-bench Verified набирает 80.2%, что даже выше GLM-5.

Документация MiniMax по Anthropic-совместимому API

Вот цены:

Модель Input $/M Output $/M Cache Read $/M Скорость
MiniMax-M2.5 $0.30 $1.20 $0.03 ~60 tps
MiniMax-M2.5-highspeed $0.60 $2.40 $0.03 ~100 tps
MiniMax-M2.1 $0.30 $1.20 $0.03 ~60 tps
MiniMax-M2 $0.30 $1.20 $0.03 ~100 tps

$0.30 за миллион входных токенов — это в 50 раз дешевле Claude Opus и в 10 раз дешевле Sonnet. А prompt cache read по $0.03 — вообще копейки, учитывая, что Claude Code отправляет большие системные промпты при каждом запросе.

Настройка:

{
  "env": {
    "ANTHROPIC_BASE_URL": "https://api.minimax.io/anthropic",
    "ANTHROPIC_AUTH_TOKEN": "ваш-ключ-minimax",
    "ANTHROPIC_MODEL": "MiniMax-M2.5",
    "ANTHROPIC_SMALL_FAST_MODEL": "MiniMax-M2.5",
    "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1",
    "API_TIMEOUT_MS": "3000000"
  }
}

По совместимости с Anthropic API всё неплохо: tools, thinking, streaming работают. Картинки не поддерживаются (как и у DeepSeek). stop_sequences тихо игнорируется, а Claude Code их использует для управления генерацией, так что иногда модель выдаёт лишний текст на выходе.

И ещё: M2.5 любит поговорить. На бенчмарках она генерирует в 4 раза больше токенов, чем средняя модель. По деньгам это некритично (токены-то дешёвые), но ответы заметно длиннее, чем у Claude.

Попробовать: platform.minimax.io

5. Alibaba Qwen — от $0.05 за миллион токенов

Alibaba Cloud Model Studio (DashScope) — самый крупный игрок в этом списке. Линейка моделей тут шире всех: от бюджетного qwen-flash за $0.05/M до qwen3-max за $1.20/M. Плюс отдельная кодинговая модель qwen3-coder-plus.

Alibaba Cloud Model Studio — документация по интеграции с Claude Code
Модель Контекст Thinking Input $/M Output $/M
qwen3-coder-plus 1M Нет $1.00 $5.00
qwen3.5-plus 1M Да $0.40 $2.40
qwen3-max 252K Да $1.20 $6.00
qwen-flash 1M Нет $0.05 $0.40

Контекстное окно до 1 миллиона токенов, больше чем у остальных четырёх провайдеров. Но подвох в том, что цена растёт вместе с контекстом. qwen3-coder-plus при 0-32K стоит $1.00/$5.00, а при 256K-1M уже $6.00/$60.00. Claude Code склонен раздувать контекст, потому что отправляет полную историю разговора. Так что реальный чек может оказаться выше, чем ты рассчитывал.

Есть и свой Coding Plan — подписка для AI-кодинга:

План Цена/мес Лимит за 5 ч Лимит за месяц
Lite $10 1 200 запросов 18 000 запросов
Pro $50 6 000 запросов 90 000 запросов

Лимиты заметно щедрее, чем у Z.ai: 1 200 запросов за 5 часов на Lite (у Z.ai — 80 промптов). Но учитывай, что один пользовательский запрос в Claude Code может генерировать 5-30 вызовов API.

Настройка pay-as-you-go:

{
  "env": {
    "ANTHROPIC_BASE_URL": "https://dashscope-intl.aliyuncs.com/apps/anthropic",
    "ANTHROPIC_AUTH_TOKEN": "ваш-ключ-dashscope",
    "ANTHROPIC_MODEL": "qwen3-coder-plus",
    "ANTHROPIC_SMALL_FAST_MODEL": "qwen-flash"
  }
}

Для Coding Plan — другой эндпоинт и ключ:

{
  "env": {
    "ANTHROPIC_BASE_URL": "https://coding-intl.dashscope.aliyuncs.com/apps/anthropic",
    "ANTHROPIC_AUTH_TOKEN": "sk-sp-ваш-ключ-coding-plan"
  }
}

Новым пользователям дают 1 миллион токенов бесплатно на каждую модель — хватит для серьёзного теста. А до 31 марта 2026 есть скидка 50% на первый месяц Coding Plan.

Из ограничений: картинки через международный Anthropic-эндпоинт не поддерживаются (на китайском работают через VL-модели). Thinking mode есть не у всех моделей — qwen3-coder-plus его не поддерживает.

Попробовать: alibabacloud.com/product/model-studio

Сравнительная таблица

Провайдер Модели Input $/M Output $/M Подписка Thinking
Z.ai GLM-4.5 — GLM-5 $0 — $1.20 $0 — $5.00 от $10/мес Да (GLM-5)
DeepSeek V3.2 (chat/reasoner) $0.028 — $0.28 $0.42 Нет Да (reasoner)
Kimi K2, K2.5, K2-thinking $0.10 — $1.15 $2.50 — $8.00 Нет Да (K2.5, thinking)
MiniMax M2, M2.1, M2.5 $0.30 — $0.60 $1.20 — $2.40 Нет Да (M2.5)
Alibaba Qwen3-Coder, 3.5, Flash $0.05 — $1.20 $0.40 — $6.00 от $10/мес Да (3.5-plus, max)

Для сравнения: Claude Sonnet 4 стоит $3/$15, Claude Opus 4.6 — $15/$75 за миллион токенов.

Что не работает у всех

Тут честно: ни один из пяти провайдеров не заменяет Claude полностью. Есть общие проблемы.

Vision — нигде толком не работает через Anthropic-эндпоинт. Kimi-k2.5 вроде поддерживает картинки, но именно через Anthropic API это ограничено. Если ты регулярно скидываешь скриншоты в Claude Code, будут ошибки.

Системный промпт Claude Code заточен под Claude. Другие модели могут не так точно следовать внутренним инструкциям. Я замечал, что на сложных multi-step задачах модели иногда теряют нить.

С prompt caching ситуация пёстрая. DeepSeek игнорирует cache_control полностью. MiniMax и Alibaba реализовали свой кеш. Z.ai и Kimi кешируют автоматически.

И обязательно добавляй CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 при работе с любым сторонним провайдером. Без этого Claude Code шлёт фоновые запросы к Anthropic и впустую тратит квоту.

Какой провайдер выбрать

Думаю, выбор зависит от ситуации.

Нужен самый дешёвый вариант? DeepSeek за $0.28/M. Качество не Claude, но для быстрых задач хватает.

Хочешь подписку без подсчёта токенов? Z.ai Lite за $10/мес или Alibaba Lite за $10/мес. У Alibaba щедрее лимиты (1 200 запросов за 5 часов против 80 у Z.ai), зато у Z.ai модели GLM заточены под кодинг.

Важно соотношение цены и качества? Тогда MiniMax M2.5 за $0.30/$1.20. На SWE-bench набирает 80.2%, есть thinking mode, и при этом дешевле почти всех.

Нужен контекст до 1M токенов? Alibaba Qwen. Только следи за размером контекста: цена прыгает на длинных сессиях.

Хочешь thinking + vision + agents в одном? Kimi K2.5.

Лично я сижу на Claude Opus для основной работы, а для мелких задач переключаюсь на Z.ai через shell-алиас. Одна команда в терминале, и ты уже в том же Claude Code, но на другой модели.

FAQ

Можно ли использовать Claude Code вообще без подписки Anthropic?

Да. Если задать ANTHROPIC_BASE_URL на любого из пяти провайдеров, Claude Code будет работать без Anthropic API-ключа. Нужен только ключ от выбранного провайдера.

Будут ли работать все фичи Claude Code со сторонними моделями?

Не все. Extended thinking работает у тех моделей, которые его поддерживают (deepseek-reasoner, kimi-k2-thinking, MiniMax-M2.5, qwen3-max). Но vision, MCP passthrough и некоторые beta-фичи Anthropic — нет. Если возникают ошибки, добавь CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1.

Как быстро переключаться между провайдерами?

Shell-алиасы — лучший вариант. Добавь в ~/.zshrc функции для каждого провайдера и вызывай glm, dsk, kimi вместо claude. Подробнее про настройку — в гайде по settings.json.

Безопасно ли отправлять код через этих провайдеров?

Код уходит на серверы провайдера. Z.ai заявляет, что данные не хранятся (серверы в Сингапуре). DeepSeek — серверы в Китае. Alibaba — Сингапур для международного API. Для чувствительных проектов лучше использовать Anthropic напрямую или корпоративные решения вроде AWS Bedrock и Google Vertex.

Какие модели лучше всего работают с Claude Code?

По моему опыту, лучше работают модели, заточенные под код: GLM-5-Code, qwen3-coder-plus, kimi-k2-0905-preview. Универсальные тоже тянут, но с кодерскими специализациями меньше косяков.

Что ещё почитать