Skip to content

Latest commit

 

History

History
152 lines (99 loc) · 9.59 KB

File metadata and controls

152 lines (99 loc) · 9.59 KB

Turbo Quant Memory for AI Agents

Титульна ілюстрація Turbo Quant Memory

Latest release Python 3.11+ MCP server Local-first

Інші мови: English | Russian

Turbo Quant Memory — це шар пам’яті, який перетворює AI-агента з “розумного, але короткозорого помічника” на стабільного члена команди.

Якщо ви працюєте з Claude Code, Codex, Cursor, OpenCode, Gemini CLI або будь-яким MCP-клієнтом, саме так зберігається інституційна пам’ять вашого продукту.

Чому Це Важливо

Більшість AI-флоу ламаються в одному місці: пам’ять.

  • Корисні висновки губляться в чатах.
  • Кожна нова задача стартує майже з нуля.
  • Команда знову і знову пояснює одне й те саме.

Turbo Quant Memory робить знання постійними, пошуковими та придатними до повторного використання.

Чому Команди Обирають Turbo Quant Memory

Типовий AI-процес З Turbo Quant Memory
Агент забуває контекст між сесіями Агент продовжує роботу з уже збережених знань
Рішення заховані в старих тредах Рішення стають нотатками, які легко знайти
Знання тримається на окремих людях Знання стає спільним активом команди
Контекст витрачається на повторне читання Більше бюджету залишається на міркування

Головна Обіцянка

Ваші агенти перестають бути “тимчасовими чат-асистентами” і починають працювати як повноцінні учасники команди.

Що Робить Його Особливим

  • Local-first підхід: пам’ять під вашим контролем.
  • Один шар пам’яті для багатьох клієнтів.
  • Безперервність між агентами: можна почати в Codex, продовжити в Gemini CLI і повернутися в Codex з тією самою project memory.
  • Орієнтація на реальну розробку: рішення, патерни, handoff-и.
  • Прозорість: знання структуроване й перевіряється.

Швидкий Старт

Використайте цей сценарій на 60 секунд:

  1. Встановіть один раз:
uv tool install git+https://github.com/Lexus2016/turbo_quant_memory@v0.3.1
  1. Додайте MCP-сервер tqmemory у клієнт (клієнт запускатиме його автоматично):
# Codex
codex mcp add tqmemory -- turbo-memory-mcp serve

# Gemini CLI
gemini mcp add tqmemory turbo-memory-mcp serve

# Claude Code (project scope)
claude mcp add --scope project tqmemory -- turbo-memory-mcp serve
  1. Перезапустіть клієнт і викличте будь-який інструмент tqmemory.

Потрібен готовий конфіг для Gemini CLI, Cursor, OpenCode або Antigravity? Візьміть його з CLIENT_INTEGRATIONS.uk.md.

Ігнорування Файлів При Індексації

Створіть файл .tqmemoryignore в корені проєкту, щоб виключити директорії або файли з Markdown-індексації. Формат аналогічний .gitignore — один glob-патерн на рядок, # для коментарів.

# Пропустити дублі workspace-шаблонів
workspace-*

# Пропустити runtime-звіти
data/reports/*.md

# Пропустити згенерований контент
output/

Ignore-файл підхоплюється автоматично при виклику index_paths(...). Патерни зіставляються як з іменами директорій, так і з повними відносними шляхами. Пошук іде вгору від індексованого кореня до .tqmemoryignore або межі .git.

Директорії node_modules, .git, __pycache__, dist та build завжди ігноруються за замовчуванням.

Спільна Памʼять Між Агентами

У стандартному локальному встановленні це працює з коробки. Не потрібні окремий sync-сервіс, export/import або окрема memory-конфігурація під кожного агента.

Це спільна локальна памʼять, а не віддалена хмарна синхронізація. Якщо Codex і Gemini CLI працюють на одній машині та відкривають той самий репозиторій, вони автоматично використовують один і той самий memory layer.

Щоб мати одну спільну project memory між Codex, Gemini CLI та іншими MCP-клієнтами:

  1. Один раз встановіть turbo-memory-mcp на машині.
  2. Додайте той самий MCP-сервер tqmemory у кожен клієнт, яким користуєтесь.
  3. Відкривайте той самий репозиторій у кожному клієнті.

Коли ці умови виконані, клієнти автоматично бачать одну й ту саму project memory. Тобто можна почати роботу в Codex, продовжити в Gemini CLI, а потім повернутися в Codex без повторного відновлення контексту.

Якщо якийсь клієнт стартує не з кореня репозиторію, явно задайте TQMEMORY_PROJECT_ROOT, щоб він визначав той самий project identity.

Для Кого Це

  • інженерні команди, що будують AI-first процеси
  • соло-розробники з кількома агентами
  • продуктові команди, яким потрібна стабільна якість AI-виконання
  • усі, хто втомився повторювати контекст щодня

Чому Треба Обрати Саме Це

Turbo Quant Memory дає:

  • швидший старт кожної нової задачі
  • менше повторних помилок
  • безперервність між сесіями
  • вищу віддачу від кожного запуску агента

Перевага, Підтверджена Бенчмарками Та Економією Витрат

Зведення бенчмарків

На реальному корпусі цього репозиторію компактний memory-шлях показує сильну економію, яка напряму зменшує витрати на модель:

  • лише semantic_search: у середньому -63.96% байтів до моделі
  • semantic_search + hydrate(top1): у середньому -44.1% байтів
  • середня затримка semantic_search: 68.13 мс
  • середня затримка hydrate: 41.63 мс

Чому це практична перевага:

  • менше повторного читання означає менше платних вхідних токенів
  • нижчий токен-обсяг означає нижчу вартість кожної задачі
  • контекстний бюджет іде на міркування, а не на повторне завантаження файлів

Що Додано У v0.3.1

  • Задокументовано shared-memory handoff між Codex і Gemini CLI в README та client integration docs.
  • Додано готову Gemini CLI фікстуру і smoke-check кроки для перевірки того самого tqmemory сервера в різних клієнтах.
  • Чітко пояснено, що shared memory означає локальну безперервність роботи на одній машині, а не віддалену хмарну синхронізацію.

Де Подивитися Деталі