Другие языки: English | Ukrainian
Использовать один локальный stdio MCP-сервер везде, а затем адаптировать его к каждому клиенту через максимально тонкий конфиг.
Общий runtime-контракт:
- идентификатор сервера:
tqmemory - команда запуска:
turbo-memory-mcp serve - запись по умолчанию:
project - режим чтения по умолчанию:
hybrid
| Клиент | Статус | Быстрое подключение | Готовый файл | Примечание |
|---|---|---|---|---|
| Claude Code | production-ready | claude mcp add --scope project tqmemory -- turbo-memory-mcp serve |
examples/clients/claude.project.mcp.json | поддерживает project и user MCP scopes |
| Codex | production-ready | codex mcp add tqmemory -- turbo-memory-mcp serve |
examples/clients/codex.config.toml | Codex лучше запускать из целевого репозитория |
| Gemini CLI | production-ready | gemini mcp add tqmemory turbo-memory-mcp serve |
examples/clients/gemini.settings.json | поддерживает settings.json, gemini mcp add и проверку MCP status |
| Cursor | production-ready | используйте готовый файл | examples/clients/cursor.project.mcp.json | project config является самым надёжным вариантом по умолчанию |
| OpenCode | production-ready | используйте готовый файл | examples/clients/opencode.config.json | локальный MCP-конфиг под ключом mcp |
| Antigravity | compatibility target | используйте готовый файл | examples/clients/antigravity.mcp.json | архитектурно совместим, но требует smoke-теста в реальном приложении |
- Поддерживает
claude mcp add ...,.mcp.jsonи project либо user scopes. - Project scope лучше, когда память должна оставаться привязанной к конкретному репозиторию.
- Используйте общий runtime-контракт без лишних обёрток.
- Поддерживает MCP-конфигурацию и
codex mcp add .... - Codex нужно запускать из целевого репозитория или явно задавать
TQMEMORY_PROJECT_ROOT. - Не нужно передавать путь репозитория в MCP
args; сервер сам определяет проект из process working directory.
- Поддерживает
~/.gemini/settings.json,gemini mcp add ...иgemini mcp list. - Gemini CLI стоит запускать в целевом репозитории или явно задавать
TQMEMORY_PROJECT_ROOT, если MCP запускается в другом месте. - Если Gemini показывает сервер как настроенный, но не подключённый, нужно доверить текущую папку для stdio MCP-подключения.
- Поддерживает project
.cursor/mcp.jsonи user~/.cursor/mcp.json. - Project config стоит использовать, когда память должна оставаться repo-specific.
- User config имеет смысл только тогда, когда межпроектный сценарий действительно нужен.
- Поддерживает локальные MCP-описания под ключом
mcp. - В репозитории уже есть готовый к merge конфиг.
- Команду стоит держать локальной и простой:
["turbo-memory-mcp", "serve"].
- Текущие гайды и integration-сигналы показывают совместимый custom MCP flow.
- Репозиторий содержит raw config пример.
- Antigravity стоит считать архитектурно совместимым, но production-proven его можно называть только после реального smoke test.
В стандартной локальной установке общая project memory работает из коробки.
- Не нужен отдельный sync-сервис.
- Не нужен export/import handoff.
- Не нужен отдельный memory-backend под конкретного клиента.
Codex, Gemini CLI и другие MCP-клиенты могут продолжать одну и ту же project memory, когда они:
- используют один и тот же серверный контракт
tqmemory - работают на одной машине с одним и тем же локальным storage root
- открывают один и тот же репозиторий или определяют один и тот же
TQMEMORY_PROJECT_ROOT
Это общая локальная память, а не удалённая облачная синхронизация.
Во всех клиентах должен действовать один и тот же контракт:
| Элемент | Стандарт |
|---|---|
| Имя MCP-сервера | tqmemory |
| Команда запуска | turbo-memory-mcp serve |
| Словарь scope | project, global, hybrid |
| Install guidance | сначала release install, потом source install |
Эта одинаковость важна, потому что docs, prompts, smoke-тесты и поведение агентов не расходятся между клиентами.
Вместе должны поставляться:
- по одному готовому файлу для каждого поддерживаемого клиента
- один smoke checklist для всех клиентов
- один install contract, привязанный к текущему release
- один server id и одна launch-команда везде
Стратегия интеграции намеренно простая:
- один сервер
- одна команда запуска
- один словарь scope
- только тонкие client-specific обёртки там, где они действительно нужны