Releases: borro/ragcli
v0.4.1
Патч-релиз с явным и предсказуемым управлением proxy для всего LLM-трафика в ragcli, включая и chat-запросы, и embeddings.
Что изменилось
В ragcli появилась отдельная настройка proxy для всех HTTP-запросов к LLM backend’у.
Добавлено
- Новый глобальный флаг
--proxy-url - Новый глобальный флаг
--no-proxy - Новая переменная окружения
LLM_PROXY_URL - Новая переменная окружения
LLM_NO_PROXY
Поведение
--proxy-url/LLM_PROXY_URLпринудительно отправляют все LLM-запросы через указанный proxy URL--no-proxy/LLM_NO_PROXY=trueполностью отключают любой proxy дляragcli, включая proxy из окружения- Если новые настройки не заданы,
ragcliсохраняет стандартное поведение Go черезHTTP_PROXY,HTTPS_PROXYиNO_PROXY - Одинаковая proxy-логика теперь применяется и к chat completion, и к embeddings
- Явный proxy override имеет приоритет над системными proxy-настройками окружения
UX и документация
- Обновлены help-тексты CLI и локализованные описания новых флагов
- README дополнен примерами использования для Linux и Windows
- В debug-логах теперь показывается режим proxy без утечки credentials
Валидация и надёжность
- Некорректный proxy URL теперь приводит к понятной ошибке уже на старте
- Добавлены тесты на CLI binding, proxy override,
no-proxy, fixed proxy и безопасное логирование proxy-адреса
Зачем обновляться
v0.4.1 полезен для корпоративных сетей, Windows-окружений и любых сценариев, где важно не зависеть от неявного поведения HTTP_PROXY и иметь полный контроль над маршрутизацией запросов к LLM.
v0.4.0
Крупный релиз с локализацией CLI, переработкой retrieval-слоя для rag и hybrid, и улучшением стабильности tools.
Главное
- Добавлена локализация интерфейса CLI.
- Язык теперь определяется автоматически по системной locale и окружению.
- Важно: локализация зависит от переменных окружения и системной locale, но её можно явно переопределить через
--langилиRAGCLI_LANG. - Поддерживаются
enиru. - Приоритет такой:
--lang→RAGCLI_LANG→ автоопределение системной locale → fallback вen.
Что изменилось
ragиhybridпереведены на общий retrieval-слой с выделенными shared helpers.- Старые retrieval-индексы теперь инвалидируются корректно после изменений формата кеша.
- Упрощено хранение индекса и добавлен streaming source file вместо лишнего удержания данных в памяти.
- В
ragисправлена публикация temp index files на Windows. - В
toolsorchestration limit увеличен до 20 шагов, а при достижении лимита добавлена принудительная финализация ответа. - Упрощён flow auto context length resolution и fallback для
mapиhybrid. - Тесты изолированы от реальных backend’ов и загруженных моделей, чтобы снизить флаки и зависимость от внешнего окружения.
Зачем обновляться
v0.4.0 делает CLI заметно удобнее для реального использования в разных локалях и окружениях, а rag/hybrid становятся стабильнее за счёт более чистого retrieval pipeline и корректной работы с кешами. Для пользователей tools это также обновление на более предсказуемое завершение длинных orchestration-сценариев.
v0.3.2
Патч-релиз про более надёжный выбор лимита контекста в map и hybrid, плюс правка CI/coverage.
Что изменилось
- Добавлено автоопределение context length модели для
map(через LM Studio/api/v1/models, с fallback-проверкой по ошибке переполнения контекста). --lengthтеперь работает как строгий override: если флаг/переменнаяLENGTHзаданы, автоопределение не используется.- Если автоопределение недоступно,
mapиспользует безопасный fallback10000. hybridв режиме fallback наmapтеперь использует ту же логикуauto-or-default, чтобы поведение было консистентным.- Расширены тесты для резолва context length, caching, warmup-сценария и strict override.
- Исправлен workflow покрытия в CI (
codecovupload и порядок шагов).
Зачем обновляться
v0.3.2 снижает риск ручного подбора --length и делает обработку больших файлов стабильнее на разных OpenAI-compatible backend’ах. При этом для предсказуемых сценариев остаётся полный контроль через явный --length.
v0.3.1
Небольшой patch-релиз с улучшением диагностики embedding-ошибок.
Что изменилось
ragcliтеперь сохраняет и возвращает исходную причину ошибки после исчерпания retry при запросах к embedding endpoint.- Вместо общего сообщения об ошибке пользователь получает более полезный контекст, например конкретный
503или другую ошибку backend'а.
v0.3.0
Крупный релиз с новым режимом hybrid для анализа больших файлов и переработкой UX командной строки.
Важное изменение
Если вы раньше использовали --verbose для debug-логов, в v0.3.0 нужно перейти на --debug.
Главное
- Добавлен новый режим
hybridдля grounded large-file analysis. hybridкомбинирует lexical retrieval, semantic retrieval по embeddings, локальное дочитывание контекста и map-style извлечение фактов по найденным регионам.- Для
ragиhybridтеперь явно задокументированы требования к embedding endpoint (/embeddings).
Улучшения CLI
- Добавлен пользовательский progress reporting через
--verboseво всех CLI-режимах. - Debug-логи отделены от пользовательских ошибок.
- Флаг
--verboseв прежнем смысле переименован в--debug. - Без
--debugошибки печатаются вstderrкратко и чище, без лишнего debug-шума.
Почему это релиз 0.3.0
Это не просто patch-обновление:
- появился новый режим работы
hybrid; - изменилось поведение и семантика CLI-флагов;
- обновился подход к диагностике и прогрессу выполнения.
v0.2.4
Релиз улучшает map-режим и делает вывод ragcli заметно удобнее в терминале.
Что изменилось
mapпереведён с byte/line-based chunking на приблизительные лимиты по токенам.- Улучшено поведение map-reduce pipeline:
- аккуратнее нормализуются и дедуплицируются факты;
- reduce-фаза лучше сохраняет разные полезные наблюдения и меньше схлопывает смысл;
- добавлены оценки token budget и более подробная диагностика pipeline.
- Финальный Markdown-ответ теперь красиво рендерится в интерактивном терминале через
glamour. - Добавлен
--rawдля отключения terminal markdown rendering и вывода исходного текста как есть. - При выводе в pipe или redirect по-прежнему печатается сырой Markdown без ANSI-оформления.
- Добавлены тесты для нового chunking,
map-поведения и output formatting.
Зачем обновляться
v0.2.4 полезен, если вы используете map на больших текстах и хотите более предсказуемую работу относительно контекстных лимитов модели. Дополнительно CLI стал приятнее для интерактивного использования: ответы в терминале читаются лучше, а для скриптов сохраняется сырой текстовый вывод.
v0.2.3
Релиз с фокусом на переработку CLI и улучшение DX при работе с ragcli из терминала.
Что изменилось
- CLI переведён на
urfave/cli v3. - Улучшены help-экраны, структура команд и вывод
version. - Исправлена обработка глобальных флагов и аргументов prompt, включая случаи, когда prompt содержит токены, похожие на флаги.
- Усилено тестовое покрытие CLI-сценариев: help, version, binding аргументов, нормализация значений и совместимость с prompt parsing.
- README переработан и приведён в соответствие с актуальным поведением CLI.
Зачем обновляться
v0.2.3 делает интерфейс командной строки более предсказуемым и удобным в повседневном использовании, особенно если ragcli запускается из shell-скриптов, CI или с нетривиальными prompt-аргументами.
v0.2.2
Исправили Windows-сборку, чтобы снизить вероятность ложных срабатываний антивируса. Для windows/amd64 убраны -s -w, Linux и macOS без изменений.
v0.2.1
Патч-релиз с фокусом на стабильность tools-режима, улучшение диагностики и усиление тестового покрытия.
Что изменилось
- Улучшено поведение
tools-режима при зацикливании или stalled tool loops: теперь CLI корректно завершает работу с финализацией ответа вместо жёсткого сбоя. - Улучшены prompt и диагностика в
tools, особенно для случаев, когда модели не хватает контекста о подключённом файле. - Добавлены дополнительные тесты для
tools,rag,inputи LLM client. - README синхронизирован с текущим поведением и структурой проекта.
Зачем обновляться
v0.2.1 делает agentic file exploration надёжнее в реальных сценариях, где модель может:
- терять контекст о доступном файле;
- зацикливаться на вызовах инструментов;
- нестабильно завершать multi-step tool calling.
Это небольшое, но полезное обновление для тех, кто активно использует ragcli tools в CLI-автоматизации и локальных OpenAI-compatible backends.
v0.2.0
ragcli v0.2.0
В v0.2.0 проект получил крупное внутреннее переустройство: CLI стал чище, режимы map, rag и tools оформлены как отдельные subcommands, а кодовая база разбита на более понятные модули. Это релиз про стабилизацию архитектуры, упрощение сопровождения и подготовку к дальнейшему развитию.
ВАЖНО
Аргумент -mode удалён.
Раньше режим работы выбирался через флаг, например:
./ragcli -mode map "..."Теперь режимы вынесены в отдельные subcommands:
./ragcli map "..."
./ragcli rag "..."
./ragcli tools "..."Если ragcli используется в скриптах, CI или automation-задачах, вызовы нужно обновить под новый формат CLI.
Что изменилось
- переработана структура CLI вокруг
map,ragиtools - вынесен
composition rootприложения и упрощён dispatch команд - упрощено логирование и добавлены lifecycle-логи приложения
- LLM-клиент переведён на
go-openaitypes и централизованные requester-интерфейсы - обновлён README и синхронизирован с текущей архитектурой проекта
- улучшена организация тестов и внутренних пакетов