MemPalace: память для AI-агентов
Open-source система памяти для AI-агентов от Миллы Йовович. 96.6% recall на LongMemEval, полностью локальная, бесплатная, с MCP-интеграцией.
TL;DR: MemPalace — open-source система памяти для AI-агентов, которая хранит все разговоры локально в ChromaDB и организует их по архитектуре «дворца памяти». 96.6% recall на LongMemEval без единого API-вызова. Бесплатная, работает через MCP.
Большинство систем памяти решают проблему через суммаризацию. LLM сама выбирает, что «важно», извлекает факт вроде «пользователь предпочитает Postgres» и выбрасывает весь разговор, где ты объяснял почему именно Postgres. MemPalace предлагает другой подход: сохранить всё дословно, а потом сделать это находимым через структуру.
Кто за этим стоит
Проект выпустили Милла Йовович (актриса, да) и Бен Сигман (разработчик). Релиз v3.0.0 состоялся 6 апреля 2026 года. За два дня — 24.6k звёзд на GitHub, 3k форков, публикации в десятке изданий.
Почему актриса делает инструмент для AI-разработчиков, README не объясняет. Зато объясняют бенчмарки: результаты воспроизведены независимо на M2 Ultra за 5 минут.
Как устроен MemPalace: архитектура дворца
Древние греки запоминали длинные речи, мысленно раскладывая идеи по комнатам воображаемого здания. MemPalace делает то же самое с AI-памятью, только вместо воображения работают ChromaDB и структурированная иерархия.
Верхний уровень — крылья (Wings). У каждого проекта, человека или темы своё крыло. Внутри крыла — комнаты (Rooms) по темам: auth-migration, graphql-switch, ci-pipeline. Комнаты соединяются залами (Halls) — это типы памяти, одинаковые в каждом крыле: факты, события, открытия, предпочтения, советы.
Между крыльями работают туннели (Tunnels). Если тема auth-migration упоминается и у человека Kai, и у проекта Driftwood — туннель свяжет их автоматически. На нижнем уровне — шкафы (Closets) с текстовыми саммари и ящики (Drawers) с оригинальными файлами, дословно, без суммаризации.
┌─────────────────────────────────────────────┐
│ WING: Person │
│ ┌──────────┐ ──hall── ┌──────────┐ │
│ │ Room A │ │ Room B │ │
│ └────┬─────┘ └──────────┘ │
│ ▼ │
│ ┌──────────┐ ┌──────────┐ │
│ │ Closet │ ───▶ │ Drawer │ │
│ └──────────┘ └──────────┘ │
└─────────┼───────────────────────────────────┘
tunnel
┌─────────┼───────────────────────────────────┐
│ WING: Project │
│ ┌────┴─────┐ ──hall── ┌──────────┐ │
│ │ Room A │ │ Room C │ │
│ └────┬─────┘ └──────────┘ │
│ ▼ │
│ ┌──────────┐ ┌──────────┐ │
│ │ Closet │ ───▶ │ Drawer │ │
│ └──────────┘ └──────────┘ │
└─────────────────────────────────────────────┘
Тесты на 22 000+ реальных разговоров показали разницу в структурированном поиске:
| Тип поиска | Recall R@10 |
|---|---|
| По всем шкафам | 60.9% |
| Внутри крыла | 73.1% |
| Крыло + зал | 84.8% |
| Крыло + комната | 94.8% |
Разница между поиском «по всему» и «по крылу + комнате» составляет 34 процентных пункта. Технически это стандартная фильтрация метаданных ChromaDB, не какой-то уникальный механизм.
170 токенов на старте: стек памяти MemPalace
MemPalace использует четырёхуровневый стек. Два нижних уровня загружаются всегда, два верхних — по запросу:
| Уровень | Что хранит | Размер |
|---|---|---|
| L0 | Идентичность AI | ~50 токенов |
| L1 | Критичные факты: команда, проекты, предпочтения | ~120 токенов |
| L2 | Контекст комнаты: недавние сессии, текущий проект | По запросу |
| L3 | Глубокий семантический поиск по всем шкафам | По запросу |
AI просыпается с L0 + L1 (~170 токенов) и уже знает твой мир. Для сравнения: загрузить всё через LLM-суммаризацию — ~650K токенов и примерно $507 в год. MemPalace с пятью поисками за сессию — ~13 500 токенов и ~$10 в год.
Бенчмарки MemPalace: 96.6% без API-вызовов
| Бенчмарк | Режим | Результат | API |
|---|---|---|---|
| LongMemEval R@5 | Raw (ChromaDB) | 96.6% | Ноль |
| LongMemEval R@5 | Hybrid + Haiku rerank | 100% (500/500) | ~500 вызовов |
| LoCoMo R@10 | Raw, уровень сессии | 60.3% | Ноль |
96.6% в raw режиме — лучший опубликованный результат на LongMemEval, не требующий ни API-ключа, ни облака, ни LLM.
Для контекста — как выглядят конкуренты:
| Система | LongMemEval R@5 | Нужен API | Цена |
|---|---|---|---|
| MemPalace (hybrid) | 100% | Опционально | Бесплатно |
| Supermemory ASMR | ~99% | Да | — |
| MemPalace (raw) | 96.6% | Нет | Бесплатно |
| Mastra | 94.87% | Да (GPT) | Стоимость API |
| Mem0 | ~85% | Да | $19–249/мес |
| Zep | ~85% | Да | $25/мес+ |
100% с Haiku rerank — результат реальный (файлы есть), но пайплайн ранжирования пока не включён в публичные скрипты бенчмарков. Команда обещает добавить.
AAAK и что пошло не так после запуска
AAAK — экспериментальный lossy-диалект сокращений: коды сущностей, структурные маркеры, усечение предложений. Задача — упаковать повторяющиеся сущности в меньше токенов. Если одна и та же команда упоминается сотни раз в тысячах сессий, коды сущностей амортизируются.
На практике AAAK пока не оправдывает ожиданий. На коротких текстах оверхед кодов и разделителей стоит больше, чем экономия.
В первые часы после релиза сообщество нашло проблемы в README: пример токенов AAAK был посчитан через len(text)//3 вместо реального токенизатора, «30x lossless compression» оказался преувеличением (AAAK lossy по природе), «+34% palace boost» — стандартная фильтрация метаданных ChromaDB, детекция противоречий (fact_checker.py) не подключена к графу знаний.
Мила и Бен не стали отмалчиваться. Они опубликовали подробный разбор ошибок прямо в README: что было неправильно, что подтверждено, что в работе. Для проекта, который набрал 24k звёзд за два дня, реакция на критику важнее самого запуска.
Как подключить MemPalace
Установка через pip:
pip install mempalace
mempalace init ~/projects/myapp
mempalace mine ~/projects/myapp
mempalace mine ~/chats/ --mode convos
Три режима загрузки: projects (код и документация), convos (экспорты переписок с Claude, ChatGPT, Slack) и general (автоклассификация по типам: решения, вехи, проблемы, предпочтения).
Для Claude, ChatGPT, Cursor или Gemini подключение через MCP:
claude mcp add mempalace -- python -m mempalace.mcp_server
После этого AI получает 19 инструментов: поиск по памяти, навигация по дворцу, граф знаний, дневники специализированных агентов. Спрашиваешь «что мы решили про авторизацию в прошлом месяце?» — Claude сам вызовет mempalace_search и ответит из сохранённых разговоров.
Для локальных моделей (Llama, Mistral) — через CLI:
mempalace wake-up > context.txt
mempalace search "auth decisions" > results.txt
Всё работает оффлайн. ChromaDB на твоей машине, данные никуда не уходят. Требования: Python 3.9+ и chromadb>=0.4.0.
Граф знаний MemPalace: SQLite вместо Neo4j
Ещё одна штука, которая заслуживает внимания: граф знаний с временными сущностями. Работает как Zep Graphiti, только на SQLite вместо Neo4j. Локальный и бесплатный.
from mempalace.knowledge_graph import KnowledgeGraph
kg = KnowledgeGraph()
kg.add_triple("Kai", "works_on", "Orion", valid_from="2025-06-01")
kg.invalidate("Kai", "works_on", "Orion", ended="2026-03-01")
Факты имеют окна валидности. Когда что-то перестаёт быть правдой, инвалидируешь. Запросы текущего состояния не вернут устаревшие данные, исторические вернут. Полезно, когда люди переходят между проектами, а тебе нужно знать, кто чем занимается сейчас, а не полгода назад.
Стоит ли пробовать MemPalace
Проблема потери контекста между сессиями AI реальна, и MemPalace подходит к ней прямолинейно: сохрани всё дословно, ищи через структуру. Проще и надёжнее, чем пытаться научить LLM решать, что важно.
Если ведёшь долгий проект с AI-ассистентом и устал каждый раз объяснять контекст заново, тут есть конкретная польза. Тимлидам тоже пригодится: история решений команды в одном месте, с поиском.
Проект молодой (v3.0.0, релиз 6 апреля 2026). AAAK-диалект не работает как обещано, детекция противоречий не подключена к графу знаний, есть открытые баги (shell injection в hooks, segfault на macOS ARM64). Но базовый функционал (raw mode + ChromaDB + MCP) работает и даёт рекордные результаты на бенчмарках.
MIT-лицензия, полностью локальный, без подписок. Попробовать точно стоит.
Что ещё почитать
- Память AI-агентов: контекст, RAG, графы и mem0 — основы: как агенты запоминают, от контекстного окна до графов знаний. MemPalace идёт дальше Mem0 именно в этом направлении
- 3 паттерна воркфлоу AI-агентов — архитектуры агентных систем, в которые вписывается память
- Что такое agent harness — обвязка, которая делает AI полезным. MemPalace — одна из таких обвязок
- 8 уровней агентного инжиниринга — от простого промптинга до автономных систем с памятью