Firecrawl CLI: веб-скрейпинг из терминала для AI-агентов

CLI для Firecrawl — скрейпинг, краулинг и AI-агент для извлечения данных с любого сайта прямо из терминала. 500 бесплатных кредитов для старта.

Firecrawl CLI: веб-скрейпинг из терминала для AI-агентов
TL;DR: Firecrawl CLI — консольный инструмент для скрейпинга, краулинга и поиска по вебу. Превращает любой сайт в чистый markdown или структурированные данные для LLM. Бесплатно — 500 страниц, дальше от $16/мес.

Если ты работаешь с AI-агентами или просто хочешь быстро вытащить данные с сайта, рано или поздно упираешься в одну проблему: большинство скрейперов ломаются на JavaScript-страницах, возвращают мусорный HTML или требуют танцев с бубном для настройки. Firecrawl CLI — попытка решить это одной командой в терминале.

Что это и зачем

Firecrawl — Web Data API для AI. Даёшь ему URL, получаешь чистый контент: markdown, JSON, структурированные данные. Без возни с парсерами и headless-браузерами.

CLI — обёртка над их API для работы прямо из терминала. Запустили в январе 2026 года, и за пару месяцев инструмент оброс интеграциями с Claude Code, OpenAI Codex, Gemini CLI через Skills-протокол.

По заявлениям разработчиков, Firecrawl покрывает 96% веба, включая тяжёлые JS-страницы, и отдаёт результат менее чем за секунду. На бенчмарках — больше 80% покрытия контента при тестировании на 1000 URL. Цифры, конечно, маркетинговые, но в целом инструмент работает заметно надёжнее, чем голый curl.

Быстрый старт

Установка в одну строку — нужен Node.js:

npm install -g firecrawl-cli

Или сразу с полной настройкой (логин + браузер):

npx -y firecrawl-cli@latest init --all --browser

После установки залогинься:

firecrawl login

Откроется браузер для авторизации. Можно также задать API-ключ через переменную окружения FIRECRAWL_API_KEY.

Первый скрейп:

firecrawl https://example.com

Вот и всё. На выходе — чистый markdown с содержимым страницы. Весь процесс занимает секунд тридцать, если Node.js уже стоит.

Что умеет

Scrape — извлечение контента

Самая простая команда. Берёт URL, вытаскивает содержимое:

firecrawl scrape https://example.com --format markdown,links --only-main-content

Форматов куча: markdown, HTML, raw HTML, ссылки, картинки, скриншоты, JSON. Можно брать только основной контент без навигации и футеров. JS-страницы рендерит с настройкой задержки, что полезно для SPA.

Search — поиск по вебу

Поиск по вебу с возможностью сразу заскрейпить найденное:

firecrawl search "React server components" --tbs qdr:w --scrape

--tbs qdr:w фильтрует за последнюю неделю. Есть фильтры по источникам, категориям, локации. Я использую это для ресёрча: нашёл релевантное и сразу вытащил текст.

Crawl — обход сайта

Рекурсивный краулинг с настройкой глубины и лимита страниц:

firecrawl crawl https://docs.example.com --wait --limit 100

Флаг --wait заставляет дождаться завершения. Без него процесс запускается асинхронно. Это удобно для больших сайтов — запустил и вернулся за результатом.

Map — карта сайта

Находит все URL на домене, но ничего не скрейпит:

firecrawl map https://example.com

Полезная штука перед краулингом. Сначала смотришь, сколько на сайте страниц, потом решаешь что тащить.

Agent — AI-агент

Вот это, мне кажется, самое интересное. Описываешь задачу словами, агент сам разбирается:

firecrawl agent "Extract pricing plans from this SaaS website" --wait

5 запусков в день бесплатно. Агент сам навигирует по сайту, кликает, скроллит. По сути это браузерная автоматизация, только вместо xpath-селекторов ты пишешь на человеческом языке.

Интеграция с AI-агентами

CLI можно подключить как Skill для Claude Code, Codex и других агентов:

firecrawl setup skills
firecrawl setup mcp

После этого агент сам скрейпит и ищет когда нужно. Я, например, использую Firecrawl через MCP в Claude Code и это реально экономит время.

Тарифы

План Цена/мес Кредиты Параллельных запросов
Free $0 500 (разово) 2
Hobby $16 3 000 5
Standard $83 100 000 50
Growth $333 500 000 100
Scale $599 1 000 000 150
Enterprise По запросу Без лимита Custom

Цены при годовой оплате. 1 кредит = 1 скрейп или 1 страница при краулинге. Поиск стоит 2 кредита за 10 результатов. Браузерная автоматизация — 2 кредита в минуту.

Бесплатного плана хватит попробовать и понять, подходит ли инструмент. 500 страниц — это, по сути, один небольшой сайт. Карточку не просят.

Вердикт

Инструмент крепкий. Если тебе нужен скрейпинг из терминала и ты готов платить за облачный API, Firecrawl CLI делает это хорошо.

Бесплатных 500 кредитов хватит разве что попробовать. Hobby за $16 тоже не разгуляешься с 3 000 кредитами. Но для задач вроде «собрать данные с 50 страниц документации» этого достаточно.

Думаю, главная фишка — интеграция с AI-агентами. Когда Claude Code сам вызывает firecrawl scrape по ходу работы, это снимает кучу ручных действий. Если работаешь в таком стеке, попробовать точно стоит. Если нет — есть бесплатные альтернативы вроде curl + readability-cli, просто с ними придётся повозиться.

GitHub - firecrawl/cli: CLI and Agent Skill for Firecrawl - Add scrape, search, and browsing capabilities to your AI agents
CLI and Agent Skill for Firecrawl - Add scrape, search, and browsing capabilities to your AI agents - firecrawl/cli

Что ещё почитать