Turbo Quant Memory — це шар пам’яті, який перетворює AI-агента з “розумного, але короткозорого помічника” на стабільного члена команди.
Якщо ви працюєте з Claude Code, Codex, Cursor, OpenCode, Gemini CLI або будь-яким MCP-клієнтом, саме так зберігається інституційна пам’ять вашого продукту.
Більшість AI-флоу ламаються в одному місці: пам’ять.
- Корисні висновки губляться в чатах.
- Кожна нова задача стартує майже з нуля.
- Команда знову і знову пояснює одне й те саме.
Turbo Quant Memory робить знання постійними, пошуковими та придатними до повторного використання.
| Типовий AI-процес | З Turbo Quant Memory |
|---|---|
| Агент забуває контекст між сесіями | Агент продовжує роботу з уже збережених знань |
| Рішення заховані в старих тредах | Рішення стають нотатками, які легко знайти |
| Знання тримається на окремих людях | Знання стає спільним активом команди |
| Контекст витрачається на повторне читання | Більше бюджету залишається на міркування |
Ваші агенти перестають бути “тимчасовими чат-асистентами” і починають працювати як повноцінні учасники команди.
- Local-first підхід: пам’ять під вашим контролем.
- Один шар пам’яті для багатьох клієнтів.
- Безперервність між агентами: можна почати в Codex, продовжити в Gemini CLI і повернутися в Codex з тією самою project memory.
- Орієнтація на реальну розробку: рішення, патерни, handoff-и.
- Прозорість: знання структуроване й перевіряється.
Використайте цей сценарій на 60 секунд:
- Встановіть один раз:
uv tool install git+https://github.com/Lexus2016/turbo_quant_memory@v0.3.1- Додайте MCP-сервер
tqmemoryу клієнт (клієнт запускатиме його автоматично):
# Codex
codex mcp add tqmemory -- turbo-memory-mcp serve
# Gemini CLI
gemini mcp add tqmemory turbo-memory-mcp serve
# Claude Code (project scope)
claude mcp add --scope project tqmemory -- turbo-memory-mcp serve- Перезапустіть клієнт і викличте будь-який інструмент
tqmemory.
Потрібен готовий конфіг для Gemini CLI, Cursor, OpenCode або Antigravity? Візьміть його з CLIENT_INTEGRATIONS.uk.md.
Створіть файл .tqmemoryignore в корені проєкту, щоб виключити директорії або файли з Markdown-індексації. Формат аналогічний .gitignore — один glob-патерн на рядок, # для коментарів.
# Пропустити дублі workspace-шаблонів
workspace-*
# Пропустити runtime-звіти
data/reports/*.md
# Пропустити згенерований контент
output/Ignore-файл підхоплюється автоматично при виклику index_paths(...). Патерни зіставляються як з іменами директорій, так і з повними відносними шляхами. Пошук іде вгору від індексованого кореня до .tqmemoryignore або межі .git.
Директорії node_modules, .git, __pycache__, dist та build завжди ігноруються за замовчуванням.
У стандартному локальному встановленні це працює з коробки. Не потрібні окремий sync-сервіс, export/import або окрема memory-конфігурація під кожного агента.
Це спільна локальна памʼять, а не віддалена хмарна синхронізація. Якщо Codex і Gemini CLI працюють на одній машині та відкривають той самий репозиторій, вони автоматично використовують один і той самий memory layer.
Щоб мати одну спільну project memory між Codex, Gemini CLI та іншими MCP-клієнтами:
- Один раз встановіть
turbo-memory-mcpна машині. - Додайте той самий MCP-сервер
tqmemoryу кожен клієнт, яким користуєтесь. - Відкривайте той самий репозиторій у кожному клієнті.
Коли ці умови виконані, клієнти автоматично бачать одну й ту саму project memory. Тобто можна почати роботу в Codex, продовжити в Gemini CLI, а потім повернутися в Codex без повторного відновлення контексту.
Якщо якийсь клієнт стартує не з кореня репозиторію, явно задайте TQMEMORY_PROJECT_ROOT, щоб він визначав той самий project identity.
- інженерні команди, що будують AI-first процеси
- соло-розробники з кількома агентами
- продуктові команди, яким потрібна стабільна якість AI-виконання
- усі, хто втомився повторювати контекст щодня
Turbo Quant Memory дає:
- швидший старт кожної нової задачі
- менше повторних помилок
- безперервність між сесіями
- вищу віддачу від кожного запуску агента
На реальному корпусі цього репозиторію компактний memory-шлях показує сильну економію, яка напряму зменшує витрати на модель:
- лише
semantic_search: у середньому -63.96% байтів до моделі semantic_search + hydrate(top1): у середньому -44.1% байтів- середня затримка
semantic_search: 68.13 мс - середня затримка
hydrate: 41.63 мс
Чому це практична перевага:
- менше повторного читання означає менше платних вхідних токенів
- нижчий токен-обсяг означає нижчу вартість кожної задачі
- контекстний бюджет іде на міркування, а не на повторне завантаження файлів
- Задокументовано shared-memory handoff між Codex і Gemini CLI в README та client integration docs.
- Додано готову Gemini CLI фікстуру і smoke-check кроки для перевірки того самого
tqmemoryсервера в різних клієнтах. - Чітко пояснено, що shared memory означає локальну безперервність роботи на одній машині, а не віддалену хмарну синхронізацію.
- Інтеграції з клієнтами: CLIENT_INTEGRATIONS.uk.md
- Технічна специфікація: TECHNICAL_SPEC.uk.md
- Стратегія пам’яті: MEMORY_STRATEGY.uk.md
- Бенчмарки: benchmarks/latest.uk.md