Claude Code auto mode: AI сам решает, что безопасно

Anthropic запустил auto mode в Claude Code: вместо ручного одобрения каждого действия AI-классификатор сам решает, безопасно ли выполнение.

Claude Code auto mode: AI сам решает, что безопасно
TL;DR: Anthropic запустил auto mode в Claude Code. Вместо ручного одобрения каждого действия отдельная модель-классификатор на Sonnet 4.6 сама решает, безопасно ли выполнение. Пока доступно только для Team-планов.

Если ты работал с Claude Code, то знаешь главную боль: бесконечные промпты «разрешить это действие?». Особенно раздражает, когда запускаешь длинный рефакторинг и уходишь за кофе, а Claude стоит и ждёт подтверждения на каждый файл.

До сих пор были два варианта: либо вручную одобрять всё, либо включить bypassPermissions и надеяться на лучшее. Первый вариант убивает продуктивность, второй может привести к неприятным последствиям.

Как работает auto mode в Claude Code

Auto mode добавляет третий путь. Перед каждым действием (shell-команда, сетевой запрос) отдельная модель-классификатор на базе Claude Sonnet 4.6 анализирует контекст разговора и решает, соответствует ли действие твоему запросу. Классификатор не видит содержимое файлов и результаты выполнения команд, поэтому вредоносный контент на веб-странице или в файле не сможет на него повлиять.

Чтение файлов и редактирование в рабочей директории одобряются автоматически, без вызова классификатора. Дополнительные токены тратятся только на shell-команды и сетевые запросы.

Что блокируется по умолчанию

Типичный пример: curl | bash и любой скачанный код, force push в main, деплой в прод, массовое удаление в облаке, изменение IAM-прав, отправка секретов наружу. Если классификатор ошибся и заблокировал безопасное действие 3 раза подряд (или 20 за сессию), auto mode приостанавливается и возвращается ручное подтверждение.

Ограничения

Auto mode пока в research preview. Требуется Team-план (Enterprise и API на подходе), модели Sonnet 4.6 или Opus 4.6. Не работает на Haiku, claude-3 и сторонних провайдерах (Bedrock, Vertex). Anthropic предупреждает: классификатор может пропустить рискованные действия, если контекст неоднозначен.


Думаю, auto mode закрывает реальную проблему. Работа с Claude Code в default режиме напоминала вождение, где на каждом перекрёстке нужно показывать паспорт. bypassPermissions снимал эту боль, но ценой любых гарантий. Auto mode ставит адекватного охранника вместо шлагбаума. Не идеально, но куда лучше, чем было.

Что ещё почитать