MemPalace: память для AI-агентов

Open-source система памяти для AI-агентов от Миллы Йовович. 96.6% recall на LongMemEval, полностью локальная, бесплатная, с MCP-интеграцией.

MemPalace: память для AI-агентов
TL;DR: MemPalace — open-source система памяти для AI-агентов, которая хранит все разговоры локально в ChromaDB и организует их по архитектуре «дворца памяти». 96.6% recall на LongMemEval без единого API-вызова. Бесплатная, работает через MCP.

Большинство систем памяти решают проблему через суммаризацию. LLM сама выбирает, что «важно», извлекает факт вроде «пользователь предпочитает Postgres» и выбрасывает весь разговор, где ты объяснял почему именно Postgres. MemPalace предлагает другой подход: сохранить всё дословно, а потом сделать это находимым через структуру.

Кто за этим стоит

Проект выпустили Милла Йовович (актриса, да) и Бен Сигман (разработчик). Релиз v3.0.0 состоялся 6 апреля 2026 года. За два дня — 24.6k звёзд на GitHub, 3k форков, публикации в десятке изданий.

Почему актриса делает инструмент для AI-разработчиков, README не объясняет. Зато объясняют бенчмарки: результаты воспроизведены независимо на M2 Ultra за 5 минут.

Как устроен MemPalace: архитектура дворца

Древние греки запоминали длинные речи, мысленно раскладывая идеи по комнатам воображаемого здания. MemPalace делает то же самое с AI-памятью, только вместо воображения работают ChromaDB и структурированная иерархия.

Верхний уровень — крылья (Wings). У каждого проекта, человека или темы своё крыло. Внутри крыла — комнаты (Rooms) по темам: auth-migration, graphql-switch, ci-pipeline. Комнаты соединяются залами (Halls) — это типы памяти, одинаковые в каждом крыле: факты, события, открытия, предпочтения, советы.

Между крыльями работают туннели (Tunnels). Если тема auth-migration упоминается и у человека Kai, и у проекта Driftwood — туннель свяжет их автоматически. На нижнем уровне — шкафы (Closets) с текстовыми саммари и ящики (Drawers) с оригинальными файлами, дословно, без суммаризации.

┌─────────────────────────────────────────────┐
│  WING: Person                               │
│    ┌──────────┐  ──hall──  ┌──────────┐     │
│    │  Room A  │            │  Room B  │     │
│    └────┬─────┘            └──────────┘     │
│         ▼                                   │
│    ┌──────────┐      ┌──────────┐           │
│    │  Closet  │ ───▶ │  Drawer  │           │
│    └──────────┘      └──────────┘           │
└─────────┼───────────────────────────────────┘
        tunnel
┌─────────┼───────────────────────────────────┐
│  WING: Project                              │
│    ┌────┴─────┐  ──hall──  ┌──────────┐     │
│    │  Room A  │            │  Room C  │     │
│    └────┬─────┘            └──────────┘     │
│         ▼                                   │
│    ┌──────────┐      ┌──────────┐           │
│    │  Closet  │ ───▶ │  Drawer  │           │
│    └──────────┘      └──────────┘           │
└─────────────────────────────────────────────┘

Тесты на 22 000+ реальных разговоров показали разницу в структурированном поиске:

Тип поиска Recall R@10
По всем шкафам 60.9%
Внутри крыла 73.1%
Крыло + зал 84.8%
Крыло + комната 94.8%

Разница между поиском «по всему» и «по крылу + комнате» составляет 34 процентных пункта. Технически это стандартная фильтрация метаданных ChromaDB, не какой-то уникальный механизм.

170 токенов на старте: стек памяти MemPalace

MemPalace использует четырёхуровневый стек. Два нижних уровня загружаются всегда, два верхних — по запросу:

Уровень Что хранит Размер
L0 Идентичность AI ~50 токенов
L1 Критичные факты: команда, проекты, предпочтения ~120 токенов
L2 Контекст комнаты: недавние сессии, текущий проект По запросу
L3 Глубокий семантический поиск по всем шкафам По запросу

AI просыпается с L0 + L1 (~170 токенов) и уже знает твой мир. Для сравнения: загрузить всё через LLM-суммаризацию — ~650K токенов и примерно $507 в год. MemPalace с пятью поисками за сессию — ~13 500 токенов и ~$10 в год.

Бенчмарки MemPalace: 96.6% без API-вызовов

Бенчмарк Режим Результат API
LongMemEval R@5 Raw (ChromaDB) 96.6% Ноль
LongMemEval R@5 Hybrid + Haiku rerank 100% (500/500) ~500 вызовов
LoCoMo R@10 Raw, уровень сессии 60.3% Ноль

96.6% в raw режиме — лучший опубликованный результат на LongMemEval, не требующий ни API-ключа, ни облака, ни LLM.

Для контекста — как выглядят конкуренты:

Система LongMemEval R@5 Нужен API Цена
MemPalace (hybrid) 100% Опционально Бесплатно
Supermemory ASMR ~99% Да
MemPalace (raw) 96.6% Нет Бесплатно
Mastra 94.87% Да (GPT) Стоимость API
Mem0 ~85% Да $19–249/мес
Zep ~85% Да $25/мес+

100% с Haiku rerank — результат реальный (файлы есть), но пайплайн ранжирования пока не включён в публичные скрипты бенчмарков. Команда обещает добавить.

Разбираю AI-инструменты, тестирую и пишу — подписывайся в телеге.

AAAK и что пошло не так после запуска

AAAK — экспериментальный lossy-диалект сокращений: коды сущностей, структурные маркеры, усечение предложений. Задача — упаковать повторяющиеся сущности в меньше токенов. Если одна и та же команда упоминается сотни раз в тысячах сессий, коды сущностей амортизируются.

На практике AAAK пока не оправдывает ожиданий. На коротких текстах оверхед кодов и разделителей стоит больше, чем экономия.

96.6% recall — это результат raw режима (дословное хранение в ChromaDB). AAAK-компрессия пока снижает recall до 84.2%.

В первые часы после релиза сообщество нашло проблемы в README: пример токенов AAAK был посчитан через len(text)//3 вместо реального токенизатора, «30x lossless compression» оказался преувеличением (AAAK lossy по природе), «+34% palace boost» — стандартная фильтрация метаданных ChromaDB, детекция противоречий (fact_checker.py) не подключена к графу знаний.

Мила и Бен не стали отмалчиваться. Они опубликовали подробный разбор ошибок прямо в README: что было неправильно, что подтверждено, что в работе. Для проекта, который набрал 24k звёзд за два дня, реакция на критику важнее самого запуска.

Как подключить MemPalace

Установка через pip:

pip install mempalace
mempalace init ~/projects/myapp
mempalace mine ~/projects/myapp
mempalace mine ~/chats/ --mode convos

Три режима загрузки: projects (код и документация), convos (экспорты переписок с Claude, ChatGPT, Slack) и general (автоклассификация по типам: решения, вехи, проблемы, предпочтения).

Для Claude, ChatGPT, Cursor или Gemini подключение через MCP:

claude mcp add mempalace -- python -m mempalace.mcp_server

После этого AI получает 19 инструментов: поиск по памяти, навигация по дворцу, граф знаний, дневники специализированных агентов. Спрашиваешь «что мы решили про авторизацию в прошлом месяце?» — Claude сам вызовет mempalace_search и ответит из сохранённых разговоров.

Для локальных моделей (Llama, Mistral) — через CLI:

mempalace wake-up > context.txt
mempalace search "auth decisions" > results.txt

Всё работает оффлайн. ChromaDB на твоей машине, данные никуда не уходят. Требования: Python 3.9+ и chromadb>=0.4.0.

Граф знаний MemPalace: SQLite вместо Neo4j

Ещё одна штука, которая заслуживает внимания: граф знаний с временными сущностями. Работает как Zep Graphiti, только на SQLite вместо Neo4j. Локальный и бесплатный.

from mempalace.knowledge_graph import KnowledgeGraph

kg = KnowledgeGraph()
kg.add_triple("Kai", "works_on", "Orion", valid_from="2025-06-01")
kg.invalidate("Kai", "works_on", "Orion", ended="2026-03-01")

Факты имеют окна валидности. Когда что-то перестаёт быть правдой, инвалидируешь. Запросы текущего состояния не вернут устаревшие данные, исторические вернут. Полезно, когда люди переходят между проектами, а тебе нужно знать, кто чем занимается сейчас, а не полгода назад.

Стоит ли пробовать MemPalace

Проблема потери контекста между сессиями AI реальна, и MemPalace подходит к ней прямолинейно: сохрани всё дословно, ищи через структуру. Проще и надёжнее, чем пытаться научить LLM решать, что важно.

Если ведёшь долгий проект с AI-ассистентом и устал каждый раз объяснять контекст заново, тут есть конкретная польза. Тимлидам тоже пригодится: история решений команды в одном месте, с поиском.

Проект молодой (v3.0.0, релиз 6 апреля 2026). AAAK-диалект не работает как обещано, детекция противоречий не подключена к графу знаний, есть открытые баги (shell injection в hooks, segfault на macOS ARM64). Но базовый функционал (raw mode + ChromaDB + MCP) работает и даёт рекордные результаты на бенчмарках.

MIT-лицензия, полностью локальный, без подписок. Попробовать точно стоит.

MemPalace на GitHub
The highest-scoring AI memory system ever benchmarked. And it's free.

Что ещё почитать