Firecrawl CLI: веб-скрейпинг из терминала для AI-агентов
CLI для Firecrawl — скрейпинг, краулинг и AI-агент для извлечения данных с любого сайта прямо из терминала. 500 бесплатных кредитов для старта.
TL;DR: Firecrawl CLI — консольный инструмент для скрейпинга, краулинга и поиска по вебу. Превращает любой сайт в чистый markdown или структурированные данные для LLM. Бесплатно — 500 страниц, дальше от $16/мес.
Если ты работаешь с AI-агентами или просто хочешь быстро вытащить данные с сайта, рано или поздно упираешься в одну проблему: большинство скрейперов ломаются на JavaScript-страницах, возвращают мусорный HTML или требуют танцев с бубном для настройки. Firecrawl CLI — попытка решить это одной командой в терминале.
Что это и зачем
Firecrawl — Web Data API для AI. Даёшь ему URL, получаешь чистый контент: markdown, JSON, структурированные данные. Без возни с парсерами и headless-браузерами.
CLI — обёртка над их API для работы прямо из терминала. Запустили в январе 2026 года, и за пару месяцев инструмент оброс интеграциями с Claude Code, OpenAI Codex, Gemini CLI через Skills-протокол.
По заявлениям разработчиков, Firecrawl покрывает 96% веба, включая тяжёлые JS-страницы, и отдаёт результат менее чем за секунду. На бенчмарках — больше 80% покрытия контента при тестировании на 1000 URL. Цифры, конечно, маркетинговые, но в целом инструмент работает заметно надёжнее, чем голый curl.
Быстрый старт
Установка в одну строку — нужен Node.js:
npm install -g firecrawl-cli
Или сразу с полной настройкой (логин + браузер):
npx -y firecrawl-cli@latest init --all --browser
После установки залогинься:
firecrawl login
Откроется браузер для авторизации. Можно также задать API-ключ через переменную окружения FIRECRAWL_API_KEY.
Первый скрейп:
firecrawl https://example.com
Вот и всё. На выходе — чистый markdown с содержимым страницы. Весь процесс занимает секунд тридцать, если Node.js уже стоит.
Что умеет
Scrape — извлечение контента
Самая простая команда. Берёт URL, вытаскивает содержимое:
firecrawl scrape https://example.com --format markdown,links --only-main-content
Форматов куча: markdown, HTML, raw HTML, ссылки, картинки, скриншоты, JSON. Можно брать только основной контент без навигации и футеров. JS-страницы рендерит с настройкой задержки, что полезно для SPA.
Search — поиск по вебу
Поиск по вебу с возможностью сразу заскрейпить найденное:
firecrawl search "React server components" --tbs qdr:w --scrape
--tbs qdr:w фильтрует за последнюю неделю. Есть фильтры по источникам, категориям, локации. Я использую это для ресёрча: нашёл релевантное и сразу вытащил текст.
Crawl — обход сайта
Рекурсивный краулинг с настройкой глубины и лимита страниц:
firecrawl crawl https://docs.example.com --wait --limit 100
Флаг --wait заставляет дождаться завершения. Без него процесс запускается асинхронно. Это удобно для больших сайтов — запустил и вернулся за результатом.
Map — карта сайта
Находит все URL на домене, но ничего не скрейпит:
firecrawl map https://example.com
Полезная штука перед краулингом. Сначала смотришь, сколько на сайте страниц, потом решаешь что тащить.
Agent — AI-агент
Вот это, мне кажется, самое интересное. Описываешь задачу словами, агент сам разбирается:
firecrawl agent "Extract pricing plans from this SaaS website" --wait
5 запусков в день бесплатно. Агент сам навигирует по сайту, кликает, скроллит. По сути это браузерная автоматизация, только вместо xpath-селекторов ты пишешь на человеческом языке.
Интеграция с AI-агентами
CLI можно подключить как Skill для Claude Code, Codex и других агентов:
firecrawl setup skills
firecrawl setup mcp
После этого агент сам скрейпит и ищет когда нужно. Я, например, использую Firecrawl через MCP в Claude Code и это реально экономит время.
Тарифы
| План | Цена/мес | Кредиты | Параллельных запросов |
|---|---|---|---|
| Free | $0 | 500 (разово) | 2 |
| Hobby | $16 | 3 000 | 5 |
| Standard | $83 | 100 000 | 50 |
| Growth | $333 | 500 000 | 100 |
| Scale | $599 | 1 000 000 | 150 |
| Enterprise | По запросу | Без лимита | Custom |
Цены при годовой оплате. 1 кредит = 1 скрейп или 1 страница при краулинге. Поиск стоит 2 кредита за 10 результатов. Браузерная автоматизация — 2 кредита в минуту.
Бесплатного плана хватит попробовать и понять, подходит ли инструмент. 500 страниц — это, по сути, один небольшой сайт. Карточку не просят.
Вердикт
Инструмент крепкий. Если тебе нужен скрейпинг из терминала и ты готов платить за облачный API, Firecrawl CLI делает это хорошо.
Бесплатных 500 кредитов хватит разве что попробовать. Hobby за $16 тоже не разгуляешься с 3 000 кредитами. Но для задач вроде «собрать данные с 50 страниц документации» этого достаточно.
Думаю, главная фишка — интеграция с AI-агентами. Когда Claude Code сам вызывает firecrawl scrape по ходу работы, это снимает кучу ручных действий. Если работаешь в таком стеке, попробовать точно стоит. Если нет — есть бесплатные альтернативы вроде curl + readability-cli, просто с ними придётся повозиться.
Что ещё почитать
- CLI-Anything: превращаем любой софт в CLI для AI-агентов — похожая идея, но для произвольного софта
- Claude Code: как сэкономить токены на MCP с Tool Search — оптимизация MCP-интеграций
- Kimi Code — open-source CLI-агент для кодинга — ещё один CLI-инструмент в мире AI-агентов