Просто напишите OpenClaw: «Исследуй X» → готово.
🇺🇸 English · 🇨🇳 中文 · 🇯🇵 日本語 · 🇰🇷 한국어 · 🇫🇷 Français · 🇩🇪 Deutsch · 🇪🇸 Español · 🇧🇷 Português · 🇷🇺 Русский · 🇸🇦 العربية
🏆 Галерея статей · 🧑
🧪 Мы ищем тестировщиков! Попробуйте запустить пайплайн со своей исследовательской идеей из любой области и расскажите нам о результатах. Ваш фидбек напрямую влияет на развитие проекта. → Руководство по тестированию | → 中文测试指南 | → 日本語テストガイド
- [08.04.2026] Этические принципы и ответственное использование! — Добавлены комплексные этические рекомендации: академическая честность, прозрачность, проверка цитат, предотвращение злоупотреблений, двойное использование. Статьи, сгенерированные ИИ — это черновики, а не готовые работы.
- [01.04.2026] v0.4.0 — Система Human-in-the-Loop Co-Pilot — AutoResearchClaw больше не является чисто автономным. Новая HITL-система добавляет 6 режимов вмешательства (
full-auto,gate-only,checkpoint,step-by-step,co-pilot,custom), настраиваемые политики для каждого этапа и глубокое взаимодействие человека и ИИ. Включает: Мастерскую идей для совместного формирования гипотез, Навигатор бейзлайнов для обзора дизайна экспериментов, Совместное написание статьи с Paper Co-Writer, SmartPause (динамическое вмешательство по уровню уверенности), обучение на интервенциях (ALHF), проверку утверждений на антигаллюцинацию, контроль бюджета затрат, ветвление пайплайна для параллельного исследования гипотез и CLI-команды (attach/status/approve/reject/guide). → Полное руководство HITL - [30.03.2026] Гибкая загрузка навыков — AutoResearchClaw теперь поддерживает загрузку открытых и пользовательских навыков из любой дисциплины для расширения исследовательских возможностей. 19 предустановленных навыков включены в качестве готовых примеров — научное письмо, дизайн экспериментов, химия, биология и др., включая навык агентной эволюции A-Evolve, предоставленный сообществом. Загружайте свои навыки через
researchclaw skills installили поместитеSKILL.mdв.claude/skills/. См. Библиотека навыков. - [22.03.2026] v0.3.2 — Кроссплатформенная поддержка + крупное обновление стабильности — AutoResearchClaw теперь работает с любым ACP-совместимым агентом (Claude Code, Codex CLI, Copilot CLI, Gemini CLI, Kimi CLI) и поддерживает мессенджеры (Discord, Telegram, Lark, WeChat) через мост OpenClaw. Новый CLI-agent бэкенд генерации кода делегирует Stage 10 и 13 внешним CLI-агентам с контролем бюджета и управлением таймаутами. Включает систему защиты от фабрикации (VerifiedRegistry + цикл диагностики и ремонта экспериментов), 100+ исправлений багов, модульный рефакторинг executor, автоопределение
--resume, усиление повторов LLM и исправления от сообщества.
Предыдущие версии
- [18.03.2026] v0.3.1 — OpenCode Beast Mode + Контрибьюты сообщества — Новый режим "Beast Mode" перенаправляет сложную генерацию кода в OpenCode с автоматической оценкой сложности и безопасным фоллбэком. Добавлена поддержка провайдера Novita AI, улучшена потокобезопасность, повышена надежность парсинга ответов LLM, а также исправлено более 20 багов благодаря PR от сообщества и внутреннему аудиту.
- [17.03.2026] v0.3.0 — Интеграция с MetaClaw — AutoResearchClaw теперь поддерживает кросс-сессионное обучение через MetaClaw: ошибки пайплайна → структурированные уроки → переиспользуемые навыки, которые внедряются во все 23 этапа. Робастность в контролируемых экспериментах выросла на +18.3%. Фича опциональна (
metaclaw_bridge.enabled: true) и полностью обратно совместима. См. Руководство по интеграции. - [16.03.2026] v0.2.0 — Три мультиагентные подсистемы (CodeAgent, BenchmarkAgent, FigureAgent), защищенная Docker-песочница с поддержкой сетевых политик, 4-этапный аудит качества статьи (поиск ИИ-галлюцинаций, оценка по 7 критериям, чек-лист NeurIPS) и более 15 исправлений багов с продакшена.
- [15.03.2026] v0.1.0 — Релиз AutoResearchClaw: полностью автономный исследовательский пайплайн из 23 этапов, который превращает одну идею в готовую для конференции статью. Без вмешательства человека.
# Полностью автономный режим — без участия человека
pip install -e . && researchclaw setup && researchclaw init && researchclaw run --topic "Ваша исследовательская идея" --auto-approve
# Режим Co-Pilot — совместная работа с ИИ в ключевых точках принятия решений
researchclaw run --topic "Ваша исследовательская идея" --mode co-pilotВы придумываете. AutoResearchClaw пишет. Вы направляете ключевые решения.
Задайте тему исследования — и получите полноценную академическую статью с реальным обзором литературы из OpenAlex, Semantic Scholar и arXiv, экспериментами в песочнице с учетом вашего железа (автоопределение GPU/MPS/CPU), статистическим анализом, мультиагентным рецензированием и готовым LaTeX-кодом для конференций NeurIPS/ICML/ICLR. Запускайте полностью автономно или используйте режим Co-Pilot, чтобы направлять ИИ в критических точках — выбирайте направления исследований, проверяйте дизайн экспериментов и совместно пишите статью. Никаких выдуманных ссылок.
| 📄 | paper_draft.md | Полная академическая статья (Введение, Обзор литературы, Метод, Эксперименты, Результаты, Заключение) |
| 📐 | paper.tex | Готовый LaTeX-код (шаблоны NeurIPS / ICLR / ICML) |
| 📚 | references.bib | Реальные BibTeX-ссылки из OpenAlex, Semantic Scholar и arXiv — автоматически отфильтрованные под цитаты в тексте |
| 🔍 | verification_report.json | 4-уровневая проверка целостности и релевантности цитирования (arXiv, CrossRef, DataCite, LLM) |
| 🧪 | experiment runs/ | Сгенерированный код + результаты из песочницы + структурированные JSON-метрики |
| 📊 | charts/ | Автоматически сгенерированные графики сравнения с планками погрешностей и доверительными интервалами |
| 📝 | reviews.md | Мультиагентное рецензирование с проверкой согласованности методологии и результатов |
| 🧬 | evolution/ | Уроки для самообучения, извлеченные из каждого запуска |
| 📦 | deliverables/ | Все итоговые материалы в одной папке — готовы к загрузке в Overleaf |
Пайплайн работает от начала до конца — полностью автономно или с совместным участием человека (human-in-the-loop). Если эксперименты падают — он чинит код. Если гипотезы не подтверждаются — он меняет направление. Если цитаты оказываются фейковыми — он их удаляет. Если вы хотите направить процесс — он останавливается и слушает.
🌍 Запускайте где угодно. AutoResearchClaw не привязан к одной платформе. Используйте его автономно через CLI, подключите к OpenClaw или интегрируйте с любым ACP-совместимым агентом — 🤖 Claude Code, 💻 Codex CLI, 🐙 Copilot CLI, ♊ Gemini CLI, 🌙 Kimi CLI. Благодаря мосту сообщений OpenClaw вы можете запустить полное исследование из 💬 Discord,
# 1. Клонируйте и установите
git clone https://github.com/aiming-lab/AutoResearchClaw.git
cd AutoResearchClaw
python3 -m venv .venv && source .venv/bin/activate
pip install -e .
# 2. Настройка (интерактивная — устанавливает OpenCode beast mode, проверяет Docker/LaTeX)
researchclaw setup
# 3. Конфигурация
researchclaw init # Интерактивный режим: выбор провайдера LLM, создание config.arc.yaml
# Или вручную: cp config.researchclaw.example.yaml config.arc.yaml
# 4. Запуск
export OPENAI_API_KEY="sk-..."
researchclaw run --config config.arc.yaml --topic "Ваша исследовательская идея" --auto-approveРезультаты → artifacts/rc-YYYYMMDD-HHMMSS-<hash>/deliverables/ — готовые к компиляции LaTeX, BibTeX, код экспериментов, графики.
📝 Минимальная конфигурация
project:
name: "my-research"
research:
topic: "Ваша тема исследования"
llm:
base_url: "https://api.openai.com/v1"
api_key_env: "OPENAI_API_KEY"
primary_model: "gpt-4o"
fallback_models: ["gpt-4o-mini"]
experiment:
mode: "sandbox"
sandbox:
python_path: ".venv/bin/python"| Фича | Как это работает |
|---|---|
| 🧑 |
6 режимов вмешательства — от полностью автономного до пошагового. Направляйте ИИ в критических решениях (гипотезы, бейзлайны, написание статьи) или дайте ему работать самостоятельно. SmartPause автоматически определяет, когда помощь человека будет полезна. |
| 🔄 Цикл PIVOT / REFINE | На 15-м этапе система автономно решает: ПРОДОЛЖИТЬ, УЛУЧШИТЬ (подобрать параметры) или СМЕНИТЬ КУРС (PIVOT). Артефакты версионируются автоматически. |
| 🤖 Мультиагентные дебаты | Генерация гипотез, анализ результатов и рецензирование проходят в формате структурированных дебатов с разных точек зрения. |
| 🧬 Самообучение | Из каждого запуска извлекаются уроки (обоснование решений, ошибки в коде, аномалии в метриках) с периодом полураспада в 30 дней. Будущие запуски учатся на прошлых ошибках. |
| 📚 База знаний | Каждый запуск пополняет структурированную базу знаний по 6 категориями (решения, эксперименты, находки, литература, вопросы, рецензии). |
| 🛡️ Сторожевой модуль Sentinel | Фоновый мониторинг качества: обнаружение NaN/Inf, проверка соответствия текста статьи реальным данным, оценка релевантности цитат, защита от фабрикации фактов. |
| 🔍 Проверка утверждений | Инлайн-фактчекинг: извлекает утверждения из текста, сгенерированного ИИ, и сверяет их с собранной литературой. Отмечает необоснованные цитаты и выдуманные числа. |
| 🌿 Ветвление исследований | Ответвление пайплайна для одновременного исследования нескольких направлений, сравнение результатов бок о бок и слияние лучшего пути. |
AutoResearchClaw полностью совместим с OpenClaw. Установите его в OpenClaw и запускайте автономные исследования одним сообщением — или используйте отдельно через CLI, Claude Code или любой другой ИИ-ассистент.
Если вы уже используете OpenClaw как своего ИИ-ассистента:
1️⃣ Отправьте URL репозитория в OpenClaw
2️⃣ OpenClaw автоматически прочитает RESEARCHCLAW_AGENTS.md → поймет структуру пайплайна
3️⃣ Напишите: "Проведи исследование на тему [ваша тема]"
4️⃣ Готово — OpenClaw сам склонирует, установит, настроит, запустит и вернет результаты
Вот и всё. OpenClaw берет на себя git clone, pip install, настройку конфигов и запуск пайплайна. Вы просто общаетесь в чате.
💡 Что происходит под капотом
- OpenClaw читает
RESEARCHCLAW_AGENTS.md→ принимает на себя роль исследовательского оркестратора - OpenClaw читает
README.md→ понимает процесс установки и структуру пайплайна - OpenClaw копирует
config.researchclaw.example.yaml→config.yaml - Запрашивает ваш API-ключ (или использует переменную окружения)
- Выполняет
pip install -e .+researchclaw run --topic "..." --auto-approve - Возвращает готовую статью, LaTeX, код экспериментов и список литературы
Для более глубокой интеграции в AutoResearchClaw встроена система адаптеров с 6 опциональными возможностями:
# config.arc.yaml
openclaw_bridge:
use_cron: true # ⏰ Запуск исследований по расписанию
use_message: true # 💬 Уведомления о прогрессе (Discord/Slack/Telegram)
use_memory: true # 🧠 Сохранение знаний между сессиями
use_sessions_spawn: true # 🔀 Запуск параллельных подсессий для независимых этапов
use_web_fetch: true # 🌐 Поиск в интернете в реальном времени при обзоре литературы
use_browser: false # 🖥️ Сбор статей через браузерКаждый флаг активирует типизированный протокол адаптера. Если OpenClaw поддерживает эти функции, адаптеры используют их без изменения кода. Подробности см. в integration-guide.md.
AutoResearchClaw может использовать любого ACP-совместимого агента в качестве LLM-бэкенда — API-ключи не требуются. Агент общается через acpx, поддерживая единую сессию на протяжении всех 23 этапов.
| Агент | Команда | Примечания |
|---|---|---|
| Claude Code | claude |
Anthropic |
| Codex CLI | codex |
OpenAI |
| Copilot CLI | gh |
GitHub |
| Gemini CLI | gemini |
|
| OpenCode | opencode |
SST |
| Kimi CLI | kimi |
Moonshot |
# config.yaml — пример ACP
llm:
provider: "acp"
acp:
agent: "claude" # Любая команда CLI ACP-совместимого агента
cwd: "." # Рабочая директория для агента
# base_url и api_key не нужны — агент сам управляет авторизацией.# Просто запускайте — агент использует свои собственные учетные данные
researchclaw run --config config.yaml --topic "Ваша идея" --auto-approve| Способ | Как запустить |
|---|---|
| CLI | researchclaw run --topic "..." --auto-approve (автономный) или --mode co-pilot (совместный) |
| Python API | from researchclaw.pipeline import Runner; Runner(config).run() |
| Claude Code | Читает RESEARCHCLAW_CLAUDE.md — просто напишите "Run research on [topic]" |
| Copilot CLI | researchclaw run --topic "..." с llm.acp.agent: "gh" |
| OpenCode | Читает .claude/skills/ — такой же интерфейс на естественном языке |
| Любой AI CLI | Скормите RESEARCHCLAW_AGENTS.md в контекст → агент сам поймет, что делать |
Фаза A: Определение области Фаза E: Выполнение экспериментов
1. TOPIC_INIT 12. EXPERIMENT_RUN
2. PROBLEM_DECOMPOSE 13. ITERATIVE_REFINE ← самовосстановление
Фаза B: Поиск литературы Фаза F: Анализ и принятие решений
3. SEARCH_STRATEGY 14. RESULT_ANALYSIS ← мультиагентный анализ
4. LITERATURE_COLLECT ← API 15. RESEARCH_DECISION ← PIVOT/REFINE
5. LITERATURE_SCREEN [гейт]
6. KNOWLEDGE_EXTRACT Фаза G: Написание статьи
16. PAPER_OUTLINE
Фаза C: Синтез знаний 17. PAPER_DRAFT
7. SYNTHESIS 18. PEER_REVIEW ← проверка доказательств
8. HYPOTHESIS_GEN ← дебаты 19. PAPER_REVISION
Фаза D: Дизайн экспериментов Фаза H: Финализация
9. EXPERIMENT_DESIGN [гейт] 20. QUALITY_GATE [гейт]
10. CODE_GENERATION 21. KNOWLEDGE_ARCHIVE
11. RESOURCE_PLANNING 22. EXPORT_PUBLISH ← LaTeX
23. CITATION_VERIFY ← проверка релевантности
Гейты (Контрольные точки) (5, 9, 20) ставят пайплайн на паузу для апрува человеком (или пропускаются флагом
--auto-approve). При отклонении пайплайн откатывается назад.
Режим Co-Pilot (
--mode co-pilot): Глубокое взаимодействие человека и ИИ на этапах 7-8 (Мастерская идей), этапе 9 (Навигатор бейзлайнов) и этапах 16-17 (Совместное написание статьи). Остальные этапы выполняются автоматически с мониторингом SmartPause.
Циклы принятия решений: На 15-м этапе система может уйти на доработку (REFINE → Этап 13) или сменить курс (PIVOT → Этап 8), автоматически сохраняя версии артефактов.
📋 Что происходит на каждой фазе
| Фаза | Описание |
|---|---|
| A: Определение области | LLM разбивает тему на структурированное дерево проблем с исследовательскими вопросами. |
| A+: Железо | Автоопределение GPU (NVIDIA CUDA / Apple MPS / CPU), предупреждения о нехватке ресурсов, адаптация генерации кода под доступное железо. |
| B: Литература | Поиск по нескольким базам (OpenAlex → Semantic Scholar → arXiv) реальных статей, фильтрация по релевантности, извлечение карточек знаний. |
| C: Синтез | Кластеризация находок, поиск пробелов в исследованиях, генерация проверяемых гипотез через мультиагентные дебаты. |
| D: Дизайн | Проектирование плана экспериментов, генерация Python-кода с учетом железа (выбор пакетов под GPU), оценка требуемых ресурсов. |
| E: Выполнение | Запуск экспериментов в песочнице, отлов NaN/Inf и багов в рантайме, самовосстановление кода через LLM. |
| F: Анализ | Мультиагентный анализ результатов; автономное решение ПРОДОЛЖИТЬ / УЛУЧШИТЬ / СМЕНИТЬ КУРС с подробным обоснованием. |
| G: Написание | План → написание по разделам (5,000-6,500 слов) → рецензирование (с проверкой соответствия методологии и результатов) → редактура с контролем объема. |
| H: Финализация | Контроль качества, архивация знаний, экспорт в LaTeX по шаблонам конференций, проверка целостности и релевантности цитат. |
| Фича | Описание |
|---|---|
| 📚 Мультиисточниковая литература | Реальные статьи из OpenAlex, Semantic Scholar и arXiv — расширение запросов, дедупликация, защита от падений API с постепенной деградацией. |
| 🔍 4-уровневая проверка цитат | Проверка arXiv ID → CrossRef/DataCite DOI → совпадение заголовков в Semantic Scholar → оценка релевантности через LLM. Выдуманные ссылки удаляются автоматически. |
| 🖥️ Адаптация под железо | Автоопределение GPU (NVIDIA CUDA / Apple MPS / CPU) и адаптация генерации кода, импортов и масштаба экспериментов. |
| 🦾 OpenCode Beast Mode | Сложные эксперименты автоматически перенаправляются в OpenCode — генерация многофайловых проектов с кастомными архитектурами, циклами обучения и ablation studies. Устанавливается через researchclaw setup. |
| 🧪 Эксперименты в песочнице | Валидация кода через AST, неизменяемая обвязка, быстрый отказ при NaN/Inf, самовосстановление, итеративное улучшение (до 10 раундов), сохранение частичных результатов. |
| 📝 Написание уровня конференций | Шаблоны NeurIPS/ICML/ICLR, написание по разделам (5,000-6,500 слов), защита от выдуманных фактов, контроль объема при редактуре, удаление типичных ИИ-оговорок. |
| 📐 Переключение шаблонов | neurips_2025, iclr_2026, icml_2026 — Markdown → LaTeX с формулами, таблицами, графиками, перекрестными ссылками и \cite{}. |
| 🛡️ Анти-фабрикация | VerifiedRegistry обеспечивает использование проверенных экспериментальных данных в статьях. Автоматическая диагностика и восстановление неудачных экспериментов перед написанием. Непроверенные числа очищаются. |
| 🚦 Гейты качества | 3 точки контроля человеком (Этапы 5, 9, 20) с возможностью отката. Можно пропустить флагом --auto-approve. |
| 🧑 |
6 режимов вмешательства с настраиваемыми политиками для каждого этапа. Мастерская идей, Навигатор бейзлайнов, Paper Co-Writer для глубокого взаимодействия. SmartPause, контроль бюджета, политики эскалации и обучение на интервенциях для безопасности в продакшене. Адаптеры CLI/WebSocket/MCP. |
| 💰 Контроль бюджета | Мониторинг затрат с настраиваемыми порогами оповещений (50%/80%/100%). Пайплайн автоматически приостанавливается при превышении бюджета. |
| 🔐 Воспроизводимость | SHA256-контрольные суммы для всех артефактов этапов. Неизменяемые манифесты для верификации. Многоуровневый откат с версионированными снимками. |
AutoResearchClaw v0.4.0 представляет полноценную систему Human-in-the-Loop (HITL), которая превращает пайплайн из чисто автономного в совместный исследовательский движок человека и ИИ. Выберите свой уровень вовлеченности:
| Режим | Команда | Что делает |
|---|---|---|
| Full Auto | --auto-approve |
Исходное поведение — без вмешательства человека |
| Gate Only | --mode gate-only |
Пауза на 3 гейтах (5, 9, 20) для одобрения |
| Checkpoint | --mode checkpoint |
Пауза на границе каждой фазы (8 контрольных точек) |
| Co-Pilot | --mode co-pilot |
Глубокое взаимодействие на критических этапах, автоматический режим на остальных |
| Step-by-Step | --mode step-by-step |
Пауза после каждого этапа — для изучения пайплайна |
| Express | --mode express |
Быстрый обзор — только 3 самых критических гейта |
You: researchclaw run --topic "Квантовый шум как регуляризация нейронных сетей" --mode co-pilot
Пайплайн выполняет этапы 1-7 автоматически...
┌─────────────────────────────────────────────────────────────┐
│ HITL | Stage 08: HYPOTHESIS_GEN │
│ Пост-этапная проверка │
│ │
│ Упомянуто гипотез: 3 │
│ Оценка новизны: 0.72 (умеренная) │
│ │
│ [a] Одобрить [r] Отклонить [e] Редактировать [c] Чат │
│ [i] Дать указание [v] Посмотреть вывод [q] Прервать │
└─────────────────────────────────────────────────────────────┘
You: c (начать совместный чат)
You: Гипотеза 3 интересна, но нужны бейзлайны Dropout/Label Smoothing
AI: Обновлено — добавлены Dropout, Label Smoothing, MixUp, CutMix в качестве бейзлайнов...
You: approve
Пайплайн продолжает с вашей улучшенной гипотезой...
# Запуск в режиме HITL
researchclaw run --topic "..." --mode co-pilot
# Подключение к приостановленному пайплайну (из другого терминала)
researchclaw attach artifacts/rc-2026-xxx
# Проверка статуса пайплайна и HITL
researchclaw status artifacts/rc-2026-xxx
# Одобрение/отклонение из другого терминала или скрипта
researchclaw approve artifacts/rc-2026-xxx --message "LGTM"
researchclaw reject artifacts/rc-2026-xxx --reason "Отсутствует ключевой бейзлайн"
# Предоставление указаний для этапа (даже до его выполнения)
researchclaw guide artifacts/rc-2026-xxx --stage 9 --message "Использовать ResNet-50 как основной бейзлайн"| Возможность | Описание |
|---|---|
| Мастерская идей | Совместное обсуждение, оценка и доработка гипотез (Этапы 7-8) |
| Навигатор бейзлайнов | ИИ предлагает бейзлайны + человек добавляет/удаляет + чек-лист воспроизводимости (Этап 9) |
| Paper Co-Writer | Написание по разделам с редактированием человеком и полировкой ИИ (Этапы 16-19) |
| SmartPause | Динамическая пауза по уровню уверенности — автоматически определяет, когда помощь человека будет полезна |
| Проверка утверждений | Инлайн-фактчекинг по собранной литературе — отмечает необоснованные утверждения |
| Контроль бюджета | Мониторинг затрат с порогами оповещений 50%/80%/100% |
| Обучение на интервенциях | ALHF — учится на ваших паттернах ревью для оптимизации будущих пауз |
| Ветвление исследований | Ответвление пайплайна для исследования нескольких гипотез, сравнение, слияние лучшего |
| Политика эскалации | Многоуровневые уведомления (терминал → Slack → email → авто-остановка) при отсутствии оператора |
| 3 адаптера | CLI (терминал), WebSocket (веб-панель), MCP (внешние агенты) |
# config.arc.yaml
hitl:
enabled: true
mode: co-pilot # full-auto | gate-only | checkpoint | co-pilot | custom
cost_budget_usd: 50.0 # Пауза при превышении бюджета (0 = без лимита)
notifications:
on_pause: true
on_quality_drop: true
channels: ["terminal"] # terminal | slack | webhook
timeouts:
default_human_timeout_sec: 86400 # Ожидание до 24ч
auto_proceed_on_timeout: false
collaboration:
max_chat_turns: 50
save_chat_history: true
# Кастомные политики для этапов (опционально, для режима 'custom')
stage_policies:
8: { require_approval: true, enable_collaboration: true }
9: { require_approval: true, allow_edit_output: true }- По умолчанию: ВЫКЛЮЧЕНО. Без
hitl.enabled: trueили--modeпайплайн работает как раньше. --auto-approveпо-прежнему работает. Он перекрывает режим HITL.- Все 2 699 тестов проходят успешно с кодом HITL.
AutoResearchClaw + MetaClaw = Пайплайн, который учится на каждом запуске.
MetaClaw добавляет перенос знаний между запусками. Если эта функция включена, пайплайн автоматически извлекает уроки из ошибок и предупреждений, превращает их в переиспользуемые навыки и внедряет во все 23 этапа при следующих запусках — чтобы больше никогда не повторять одни и те же ошибки.
Запуск N выполняется → ошибки/предупреждения сохраняются как Уроки (Lessons)
↓
MetaClaw конвертирует Урок → Навык (Skill)
↓
Файлы навыков arc-* сохраняются в ~/.metaclaw/skills/
↓
Запуск N+1 → build_overlay() внедряет навыки в каждый промпт LLM
↓
LLM избегает известных ошибок → выше качество, меньше ретраев
# 1. Установите MetaClaw (если еще не установлен)
pip install metaclaw
# 2. Включите в конфиге# config.arc.yaml
metaclaw_bridge:
enabled: true
proxy_url: "http://localhost:30000" # Прокси MetaClaw (опционально)
skills_dir: "~/.metaclaw/skills" # Папка для хранения навыков
fallback_url: "https://api.openai.com/v1" # Прямой фоллбэк к LLM
fallback_api_key: "" # API-ключ для фоллбэка
lesson_to_skill:
enabled: true
min_severity: "warning" # Конвертировать предупреждения и ошибки
max_skills_per_run: 3# 3. Запускайте как обычно — MetaClaw работает прозрачно
researchclaw run --config config.arc.yaml --topic "Ваша идея" --auto-approveПосле каждого запуска заглядывайте в ~/.metaclaw/skills/arc-*/SKILL.md, чтобы посмотреть, чему научился ваш пайплайн.
В контролируемых A/B тестах (одна тема, одна LLM, один конфиг):
| Метрика | База | С MetaClaw | Улучшение |
|---|---|---|---|
| Частота ретраев на этапах | 10.5% | 7.9% | -24.8% |
| Количество циклов доработки (Refine) | 2.0 | 1.2 | -40.0% |
| Успешное завершение пайплайна | 18/19 | 19/19 | +5.3% |
| Общий индекс робастности (композитный) | 0.714 | 0.845 | +18.3% |
Композитный индекс робастности — это взвешенное среднее из процента завершения (40%), снижения ретраев (30%) и эффективности циклов доработки (30%).
- По умолчанию: ВЫКЛЮЧЕНО. Если блока
metaclaw_bridgeнет илиenabled: false, пайплайн работает как раньше. - Никаких новых зависимостей. MetaClaw опционален — ядро работает и без него.
- Все 2 699 тестов проходят успешно даже с кодом интеграции.
AutoResearchClaw теперь поддерживает загрузку открытых и пользовательских навыков для расширения исследовательских возможностей. Мы также поставляем 19 предустановленных навыков (научное письмо, поиск литературы, химия, биология и др.) в качестве готовых примеров, обеспечивая высокую гибкость из коробки. Отключите любой навык, добавив enabled: false в его метаданные.
Примеры встроенных навыков:
| Категория | Навык | Описание |
|---|---|---|
| Написание | scientific-writing |
Структура IMRAD, форматирование цитат, стандарты отчетности |
| Домен | chemistry-rdkit |
Молекулярный анализ, SMILES, фингерпринты, открытие лекарств |
| Эксперимент | literature-search |
Систематический обзор, методология PRISMA |
Смотрите все 19 навыков командой
researchclaw skills list.
# Вариант 1: Установить навык (сохраняется между проектами)
researchclaw skills install /path/to/my-skill/
# Вариант 2: Поместить SKILL.md в проект
mkdir -p .claude/skills/my-custom-skill
# Затем создайте SKILL.md с YAML-метаданными (name, description, trigger-keywords, applicable-stages)
# Вариант 3: Настроить общие директории навыков в config.arc.yaml
# skills:
# custom_dirs:
# - /path/to/team-shared-skillsНавыки загружаются и внедряются в промпты LLM автоматически — ручная активация не требуется. Используйте CLI для просмотра:
researchclaw skills list # Показать все загруженные навыки с источниками
researchclaw skills validate ./my-skill # Проверить формат SKILL.mdНавыки от сообщества: K-Dense-AI/claude-scientific-skills (150+ научных навыков по множеству дисциплин).
Нажмите, чтобы развернуть полный конфиг
# === Проект ===
project:
name: "my-research" # Идентификатор проекта
mode: "docs-first" # docs-first | semi-auto | full-auto
# === Исследование ===
research:
topic: "..." # Тема исследования (обязательно)
domains: ["ml", "nlp"] # Домены для поиска литературы
daily_paper_count: 8 # Целевое количество статей на один запрос
quality_threshold: 4.0 # Минимальный порог качества для статей
# === Рантайм ===
runtime:
timezone: "Europe/Moscow" # Для таймстемпов
max_parallel_tasks: 3 # Лимит параллельных экспериментов
approval_timeout_hours: 12 # Таймаут ожидания на гейтах
retry_limit: 2 # Количество ретраев при падении этапа
# === LLM ===
llm:
provider: "openai-compatible" # openai | openrouter | deepseek | minimax | acp | openai-compatible
base_url: "https://..." # API endpoint (обязательно для openai-compatible)
api_key_env: "OPENAI_API_KEY" # Переменная окружения с ключом (обязательно для openai-compatible)
api_key: "" # Или можно захардкодить ключ здесь
primary_model: "gpt-4o" # Основная модель
fallback_models: ["gpt-4o-mini"] # Цепочка фоллбэков
s2_api_key: "" # API-ключ Semantic Scholar (опционально, дает лимиты выше)
acp: # Используется только если provider: "acp"
agent: "claude" # Команда CLI ACP-агента (claude, codex, gemini и т.д.)
cwd: "." # Рабочая директория агента
# === Эксперименты ===
experiment:
mode: "sandbox" # simulated | sandbox | docker | ssh_remote
time_budget_sec: 300 # Макс. время на один запуск (по умолчанию: 300с)
max_iterations: 10 # Макс. количество итераций оптимизации
metric_key: "val_loss" # Название главной метрики
metric_direction: "minimize" # minimize | maximize
sandbox:
python_path: ".venv/bin/python"
gpu_required: false
allowed_imports: [math, random, json, csv, numpy, torch, sklearn]
max_memory_mb: 4096
docker:
image: "researchclaw/experiment:latest"
network_policy: "setup_only" # none | setup_only | pip_only | full
gpu_enabled: true
memory_limit_mb: 8192
auto_install_deps: true # Автоопределение импортов → requirements.txt
ssh_remote:
host: "" # Хостнейм GPU-сервера
gpu_ids: [] # Доступные ID видеокарт
remote_workdir: "/tmp/researchclaw_experiments"
opencode: # OpenCode Beast Mode (устанавливается через `researchclaw setup`)
enabled: true # Главный рубильник (по умолчанию: true)
auto: true # Автозапуск без подтверждения (по умолчанию: true)
complexity_threshold: 0.2 # 0.0-1.0 — чем выше, тем реже триггерится (только на сложных задачах)
model: "" # Переопределение модели (пусто = использовать llm.primary_model)
timeout_sec: 600 # Макс. время на генерацию в OpenCode
max_retries: 1 # Количество ретраев при падении
workspace_cleanup: true # Удалять временный воркспейс после сбора результатов
code_agent: # CodeAgent v2 — многофазная генерация кода
enabled: true # Использовать CodeAgent вместо устаревшей однопромптной генерации
architecture_planning: true # Генерировать подробный план реализации перед кодированием
sequential_generation: true # Генерировать файлы по одному согласно DAG зависимостей
hard_validation: true # AST-валидация (блокирует идентичные ablation, захардкоженные метрики)
hard_validation_max_repairs: 2 # Макс. попыток исправления при провале валидации
exec_fix_max_iterations: 3 # Попыток исправления при выполнении
exec_fix_timeout_sec: 60 # Таймаут на одну попытку исправления
benchmark_agent: # BenchmarkAgent — автоматический подбор датасетов и бейзлайнов
enabled: true # Включить 4-агентный пайплайн (Surveyor→Selector→Acquirer→Validator)
enable_hf_search: true # Поиск по HuggingFace Datasets
enable_web_search: true # Поиск бенчмарков в Google Scholar
tier_limit: 2 # Фильтрация датасетов по уровню (1=малые/кэшированные, 2=средние, 3=большие)
min_benchmarks: 1 # Минимум необходимых датасетов
min_baselines: 2 # Минимум бейзлайнов
figure_agent: # FigureAgent — генерация академических графиков
enabled: true # Включить 5-агентный пайплайн (Planner→CodeGen→Renderer→Critic→Integrator)
min_figures: 3 # Минимум генерируемых графиков
max_figures: 8 # Максимум графиков
max_iterations: 3 # Итераций улучшения через Critic
dpi: 300 # Разрешение вывода
strict_mode: false # Провал пайплайна при ошибке генерации графиков
repair: # Антифабрикация — ремонт экспериментов
enabled: true # Автодиагностика и ремонт упавших экспериментов
max_cycles: 3 # Количество циклов ремонта
min_completion_rate: 0.5 # >=50% условий должны завершиться для продолжения
min_conditions: 2 # Минимум 2 условия для валидного эксперимента
use_opencode: true # Направлять ремонт через OpenCode Beast Mode
# === Веб-поиск (Опционально) ===
web_search:
enabled: true # Включить веб-расширенный поиск литературы
tavily_api_key_env: "TAVILY_API_KEY" # Переменная окружения для Tavily API-ключа (опционально)
enable_scholar: true # Поиск в Google Scholar
enable_pdf_extraction: true # Извлечение текста из PDF
max_web_results: 10 # Макс. веб-результатов на запрос
# === Экспорт ===
export:
target_conference: "neurips_2025" # neurips_2025 | iclr_2026 | icml_2026
authors: "Anonymous"
bib_file: "references"
# === Промпты ===
prompts:
custom_file: "" # Путь к кастомному YAML с промптами (пусто = дефолтные)
# === HITL Co-Pilot (НОВОЕ в v0.4.0) ===
hitl:
enabled: false # Установите true для включения HITL
mode: co-pilot # full-auto | gate-only | checkpoint | step-by-step | co-pilot | custom
cost_budget_usd: 0.0 # Лимит затрат в USD (0 = без лимита)
notifications:
on_pause: true # Уведомлять при паузе пайплайна
on_quality_drop: true # Уведомлять при проблемах с качеством
channels: ["terminal"] # terminal | slack | webhook
timeouts:
default_human_timeout_sec: 86400 # Ожидание до 24ч
auto_proceed_on_timeout: false # Если true, авто-одобрение по таймауту
collaboration:
max_chat_turns: 50 # Макс. реплик за сессию взаимодействия
save_chat_history: true # Сохранять логи чата
stage_policies: {} # Переопределения для этапов (для режима 'custom')
# === Безопасность ===
security:
hitl_required_stages: [5, 9, 20] # Этапы, требующие апрува человеком (Human-in-the-loop)
allow_publish_without_approval: false
redact_sensitive_logs: true
# === База знаний ===
knowledge_base:
backend: "markdown" # markdown | obsidian
root: "docs/kb"
# === Уведомления ===
notifications:
channel: "console" # console | discord | slack
target: ""
# === Мост MetaClaw (Опционально) ===
metaclaw_bridge:
enabled: false # Включить кросс-сессионное обучение
proxy_url: "http://localhost:30000" # URL прокси MetaClaw
skills_dir: "~/.metaclaw/skills" # Папка для хранения навыков arc-*
fallback_url: "" # Прямой фоллбэк к LLM, если прокси лежит
fallback_api_key: "" # API-ключ для фоллбэка
lesson_to_skill:
enabled: true # Автоматически конвертировать уроки в навыки
min_severity: "warning" # Минимальная серьезность для конвертации
max_skills_per_run: 3 # Макс. количество новых навыков за один запуск
prm: # Process Reward Model — гейт качества (опционально)
enabled: false # Использовать LLM-as-judge для оценки результатов этапов
model: "gpt-5.4" # Модель-судья PRM
votes: 3 # Количество голосов (мажоритарное голосование)
gate_stages: [5, 9, 15, 20] # Этапы для применения PRM-гейтов
# === Мост OpenClaw ===
openclaw_bridge:
use_cron: false # Запуск исследований по расписанию
use_message: false # Уведомления о прогрессе
use_memory: false # Сохранение знаний между сессиями
use_sessions_spawn: false # Запуск параллельных подсессий
use_web_fetch: false # Поиск в интернете в реальном времени
use_browser: false # Сбор статей через браузерВдохновлено проектами:
- 🔬 AI Scientist (Sakana AI) — Пионер автоматизированных исследований
- 🧠 AutoResearch (Andrej Karpathy) — Сквозная автоматизация исследований
- 🌐 FARS (Analemma) — Полностью автоматизированная исследовательская система
AutoResearchClaw — это инструмент для помощи в исследованиях, а не замена человеку-исследователю. Мы просим всех пользователей соблюдать следующие принципы:
Академическая честность. Статьи, сгенерированные AutoResearchClaw, следует рассматривать как черновики, требующие тщательной проверки, верификации и доработки человеком перед подачей. Авторы, указанные в статье, несут полную ответственность за её содержание, утверждения и корректность. Использование текста, сгенерированного ИИ, без надлежащего человеческого контроля или раскрытия информации может нарушать политику академической честности вашего учреждения или целевой конференции.
Прозрачность и раскрытие информации. Мы настоятельно рекомендуем раскрывать использование AutoResearchClaw (или любой помощи ИИ) в рукописях, следуя политике целевой конференции (например, NeurIPS, ICML, ICLR и другие крупные конференции теперь требуют раскрытия помощи ИИ в написании). Co-Pilot с участием человека существует именно для того, чтобы обеспечить значимый человеческий контроль над исследовательскими решениями.
Цитирование и атрибуция. AutoResearchClaw проверяет цитаты через 4-уровневый конвейер, но ни одна автоматизированная система не совершенна. Пользователи должны вручную проверить перед подачей, что все цитаты являются реальными, релевантными и правильно оформленными. Поддельные или неправильно атрибутированные цитаты подрывают научное доверие.
Риск злоупотребления. Как и любой мощный инструмент, AutoResearchClaw может быть использован не по назначению для массового производства низкокачественных или вводящих в заблуждение исследований. Мы не поддерживаем использование данной системы для создания фабрик статей, мошеннических подач или контента, направленного на манипулирование рецензированием. В случае обнаружения систематического злоупотребления мы оставляем за собой право обновить лицензию или условия использования.
Двойное назначение. Автономные исследовательские системы поднимают более широкие вопросы о будущем научного труда, нормах авторства и процессах рецензирования. Мы приветствуем дискуссии сообщества по этим темам и стремимся к ответственной разработке этой технологии.
Используя AutoResearchClaw, вы соглашаетесь использовать его в соответствии с этими принципами, а также этическими нормами вашего учреждения и исследовательского сообщества.
MIT — подробности см. в LICENSE.
Если AutoResearchClaw оказался вам полезен, пожалуйста, процитируйте:
@misc{liu2026autoresearchclaw,
author = {Liu, Jiaqi and Xia, Peng and Han, Siwei and Qiu, Shi and Zhang, Letian and Chen, Guiming and Tu, Haoqin and Yang, Xinyu and Zhou, Jiawei and Zhu, Hongtu and Li, Yun and Zhang, Jiaheng and Zhou, Yuyin and Zheng, Zeyu and Xie, Cihang and Ding, Mingyu and Yao, Huaxiu},
title = {AutoResearchClaw: Fully Autonomous Research from Idea to Paper},
year = {2026},
organization = {GitHub},
url = {https://github.com/aiming-lab/AutoResearchClaw},
}Создано с 🦞 командой AutoResearchClaw

