![图片[1]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251208235640308-1765209400-bd9bc6838679ed2ca2d7558267214b8d.gif)
一行指令,全自动查文献、跑实验并交付论文初稿。
前两天分享的 ARIS 让大家看到了让 AI 自动调代码跑实验的潜力,效果确实惊艳。
今天来看个更进阶的:发一条消息,收一篇完整论文。
相较于单纯依赖大模型生成文本的轻量级方案,它把整个流程做成了真正的软件工程。
它会去 arXiv 搜几十篇文献,在本地 docker 沙箱里写代码跑实验,并且每一条引用都去数据库里逐一核验。
最绝的是,动手前系统里的三个大模型视角会先自己吵一架。一个疯狂输出 idea,一个排查本地 GPU 算力够不够,另一个专门挑刺找假设的漏洞。
吵完了,自己写代码,自己跑。遇到报错?自己看日志修 bug。发现方向全错了?自己推翻假设重来。全程不用人管。
跑完直接输出一篇初稿,连同行评审都包了。虽然在 deadline 前还是需要你亲自肝一肝终稿,但这起步的几周时间已经省下了。
为了把门槛降到最低,它还原生接入了 OpenClaw,你只需要在聊天框里发一句话就行。
这个项目就是 AutoResearchClaw。
![图片[2]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316004216895-1773592936-d1afe07a484ea0a61843368c83ea225b-scaled.png)
运行结束后,系统会直接打包交付一个 deliverables/ 文件夹。
里面不仅包含了结构化的实验指标和对比图表,连最终的排版都直接对标了 NeurIPS / ICLR / ICML 格式的 5000-6500 词标准,可以说是完全的开箱即用:
![图片[10]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316004223276-1773592943-3821a0733ca441af56061a7e6bd7c604.png)
项目地址:
https://github.com/aiming-lab/AutoResearchClaw
它可以通过简短的一行指令直接唤起,接收灵感并输出包含实验数据和会议排版的完整成果。
pip install -e . && researchclaw run --topic "你的研究想法" --auto-approve
![图片[11]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251215190817428-1765796897-76184bb1e33120824cd1fb34712641af-scaled.png)
有什么不同?
PIVOT / REFINE 决策循环
流水线不只是线性运行。第 15 阶段(RESEARCH_DECISION)根据实验结果评估假设,做出自主决策:
PROCEED — 结果支持假设,继续写论文
REFINE — 结果有前景但需改进,回到代码/参数优化
PIVOT— 发现根本性问题,从假设生成重新开始
每次 PIVOT/REFINE 都会版本化之前的产物(stage-08_v1/、stage-08_v2/……),确保工作不丢失,决策演化完全可追溯。
多 Agent 辩论
关键阶段使用结构化辩论协议,汇集多个 LLM 视角:
假设生成 — 多个 Agent 提出和挑战创意
结果分析 — 乐观者、怀疑者、实用者多角度分析
同行评审 — 方法论-证据一致性审查(论文声称跑了 50 次实验,代码只跑了 5 次?)
Evolution:跨运行自学习
每次运行提取细粒度教训——不只是"失败了",而是为什么:
PIVOT/REFINE 决策的具体理由 实验 stderr 中的运行时警告(如 RuntimeWarning: division by zero)指标异常(NaN、Inf、所有算法收敛速度相同)
这些教训持久化存储在 JSONL 中,使用 30 天半衰期时间衰减加权,作为 prompt overlay 注入未来运行。流水线真正从错误中学习。
知识库
每次运行自动构建结构化知识库(存储在 docs/kb/ 中),包含 6 个类别:
decisions/ — 实验设计、质量门控、研究决策、资源规划、搜索策略、知识归档
experiments/ — 代码生成日志、实验运行记录、迭代优化过程
findings/ — 引用核查报告、结果分析、综合报告
literature/ — 知识提取、文献采集、筛选结果
questions/ — 假设生成、问题分解、主题初始化
reviews/ — 导出/发布报告、论文草稿、大纲、修订、同行评审
Sentinel 看门狗
后台质量监控,捕获主流水线可能遗漏的问题:
运行时 Bug 检测 — 指标中的 NaN/Inf、stderr 警告反馈给 LLM 进行定向修复
论文-证据一致性 — 实际实验代码、运行结果、迭代日志注入同行评审
引用相关性评分 — 不仅验证引用存在性,还用 LLM 评估与研究主题的相关性
收敛判据强制 — 检测固定迭代实验,要求实现正确的 early stopping
消融验证 — 检测重复/相同的消融条件,标记失效的对比实验
反数据捏造守卫 — 实验无指标时硬性阻止论文撰写
![图片[12]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2025/12/20251219232213174-1766157733-6fcffdacf461c9acfb349f0e6dfa54f4-scaled.png)
OpenClaw 集成
AutoResearchClaw 是 OpenClaw 兼容服务。在 OpenClaw 中安装后,一句话即可启动自动研究——也可通过 CLI、Claude Code 或其他 AI 编码助手独立使用。
如果你已经在使用 OpenClaw 作为 AI 助手:
1️⃣ 把 GitHub 仓库地址分享给 OpenClaw
2️⃣ OpenClaw 自动读取 RESEARCHCLAW_AGENTS.md → 理解流水线
3️⃣ 对它说:"帮我研究 [你的主题]"
4️⃣ 完成 — OpenClaw 自动克隆、安装、配置、运行,然后返回结果
就这么简单。OpenClaw 自动处理 git clone、pip install、配置和流水线执行。你只需聊天。
OpenClaw Bridge(高级功能)
AutoResearchClaw 内置了 Bridge 适配器系统,提供 6 个可选集成能力:
# config.arc.yaml
openclaw_bridge:
use_cron: true # ⏰ 定时研究任务
use_message: true # 💬 进度通知(Discord/Slack/Telegram)
use_memory: true # 🧠 跨会话知识持久化
use_sessions_spawn: true # 🔀 为并行阶段派生子会话
use_web_fetch: true # 🌐 文献检索中的实时网络搜索
use_browser: false # 🖥️ 基于浏览器的论文采集
其他运行方式
![图片[13]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316004228420-1773592948-af0c771a925af110277c1a0a4f3f5c3c.png)
![图片[14]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260105005253576-1767545573-ce5aff2159ba07f7ac3282811c4f98cb-scaled.png)
流水线:23 个阶段,8 个阶段组
阶段组 A:研究定义 阶段组 E:实验执行
1. TOPIC_INIT 12. EXPERIMENT_RUN
2. PROBLEM_DECOMPOSE 13. ITERATIVE_REFINE ← 自修复
阶段组 B:文献发现 阶段组 F:分析与决策
3. SEARCH_STRATEGY 14. RESULT_ANALYSIS ← 多Agent
4. LITERATURE_COLLECT ← 真实API 15. RESEARCH_DECISION ← PIVOT/REFINE
5. LITERATURE_SCREEN [门控]
6. KNOWLEDGE_EXTRACT 阶段组 G:论文撰写
16. PAPER_OUTLINE
阶段组 C:知识综合 17. PAPER_DRAFT
7. SYNTHESIS 18. PEER_REVIEW ← 证据审查
8. HYPOTHESIS_GEN ← 辩论 19. PAPER_REVISION
阶段组 D:实验设计 阶段组 H:终稿
9. EXPERIMENT_DESIGN [门控] 20. QUALITY_GATE [门控]
10. CODE_GENERATION 21. KNOWLEDGE_ARCHIVE
11. RESOURCE_PLANNING 22. EXPORT_PUBLISH ← LaTeX
23. CITATION_VERIFY ← 相关性审查
门控阶段(5、9、20)可暂停等待人工审批,也可用 --auto-approve 自动通过。
决策循环:第 15 阶段可触发 REFINE(→ 第 13 阶段)或 PIVOT(→ 第 8 阶段),自动版本化之前的产物。
各阶段组职责:
![图片[15]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316004232536-1773592952-91a39c6726347f81e0dc0b2f54fa6167.png)
![图片[16]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260315004152879-1773506512-4da4d3cb8b2f67973f9581ded1b0eb74-scaled.png)
快速开始
前置条件:
Python 3.11+
一个 OpenAI 兼容的 LLM API(GPT-4o、GPT-5.x,或任何兼容接口)
安装:
git clone https://github.com/Jiaaqiliu/AutoResearchClaw.git
cd AutoResearchClaw
python3 -m venv .venv && source .venv/bin/activate
pip install -e .
配置:
cp config.researchclaw.example.yaml config.arc.yaml
运行:
# 设置 API Key
export OPENAI_API_KEY="sk-..."
# 🚀 运行完整流水线
researchclaw run --config config.arc.yaml --auto-approve
# 🎯 指定研究主题
researchclaw run --config config.arc.yaml --topic "Transformer 注意力机制在时间序列中的应用" --auto-approve
# ✅ 仅验证配置
researchclaw validate --config config.arc.yaml
# ⏩ 从指定阶段恢复
researchclaw run --config config.arc.yaml --from-stage PAPER_OUTLINE --auto-approve
输出保存在 artifacts/rc-YYYYMMDD-HHMMSS-<hash>/,每个阶段一个子目录。
所有用户可交付成果自动汇集到 deliverables/ 文件夹:
artifacts/rc-YYYYMMDD-HHMMSS-<hash>/deliverables/
├── paper_final.md # 终稿(Markdown)
├── paper.tex # 适配顶会模板的 LaTeX
├── references.bib # 已验证的 BibTeX 参考文献(自动精简)
├── neurips_2025.sty # 会议样式文件(自动选择)
├── code/ # 实验代码 + requirements.txt
├── verification_report.json # 引用完整性报告
├── charts/ # 结果可视化(条件对比图、误差线)
└── manifest.json # 交付清单(含元数据)
deliverables/ 文件夹可直接编译——包含会议 .sty 和 .bst 文件,可直接用 pdflatex + bibtex 编译,或上传 Overleaf 无需额外下载。

多源文献搜索
第 4 阶段调用真实学术 API,而非依赖 LLM 凭记忆编造论文。采用 arXiv 优先策略以避免 Semantic Scholar 限流。
arXiv API(主源)— 预印本(真实 arXiv ID 和元数据),无速率限制
Semantic Scholar API(副源)— 真实论文(标题、摘要、期刊、引用次数、DOI)
查询扩展 — 自动生成更广泛的搜索词(综述、基准、对比变体),目标覆盖 30-60 篇参考文献
自动去重 — DOI → arXiv ID → 模糊标题匹配
BibTeX 生成 — 有效的 @article{cite_key, ...} 条目
三态熔断器 — CLOSED → OPEN → HALF_OPEN 自动恢复,指数退避冷却(永不永久禁用)
优雅降级 — S2 失败不阻塞 arXiv 结果;所有 API 均失败时回退到 LLM 增强结果
引用核查(第 23 阶段)
论文写完后,自动对每条引用进行完整性和相关性核查:
![图片[18]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316004238918-1773592958-acfd46ec5dece4120918e9b7f3e6571f.png)
每条引用 → VERIFIED ✅ · SUSPICIOUS ⚠️ · HALLUCINATED ❌ · SKIPPED ⏭️ · LOW_RELEVANCE
自动清理:幻觉引用从论文文本中静默移除(不留标记)。未被引用的参考文献条目自动精简。最终的 references.bib 仅包含已验证的、被引用的参考文献。
硬件感知执行
第 1 阶段自动检测本地 GPU 能力,据此调整整条流水线:
![图片[19]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316004241765-1773592961-55e2a8b5768a1052b508073800c8aca8.png)
沙箱实验执行
代码验证 — AST 解析、import 白名单、禁止沙箱外文件操作
计算预算守卫 — 时间预算(可配置,默认 600 秒)注入代码生成提示;LLM 必须设计在沙箱超时内可完成的实验
实验 Harness — 不可变的 experiment_harness.py 注入沙箱,提供 should_stop() 时间守卫、report_metric() NaN/Inf 拒绝、finalize() 结果写入
结构化输出 — 实验产出 results.json(类型化指标,非仅 stdout 解析)
NaN/发散快速失败 — NaN/Inf 值从指标中过滤;发散损失(>100)被检测并标记
收敛判据强制 — 生成的代码必须包含 early stopping,不允许固定迭代次数 运行时
Bug 检测 — 自动发现指标中的 NaN/Inf 和 stderr 警告
自修复 — 运行时问题反馈给 LLM 进行根因诊断修复
迭代优化 — 第 13 阶段分析结果并改进代码/参数后重新运行(最多 10 次迭代)
部分结果捕获 — 超时但已捕获指标的实验状态设为 "partial",保留可用数据
主题-实验对齐 — 基于 LLM 的代码生成后验证,确保实验代码真正测试所声明的研究主题
顶会级论文撰写
写作流水线对标 NeurIPS/ICML/ICLR 标准(9+ 页,5,000-6,500 词):
数据完整性执行 — 实验无指标时硬性阻止论文撰写(防止 LLM 捏造结果)
顶会级提示 — 系统提示包含已接收论文分析的关键原则:新颖性、叙事性、强基线、消融实验、诚实性、可复现性
标题与框架指南 — 新颖性信号、"可传播性测试"、5 句式摘要结构
分段撰写 — 3 次顺序 LLM 调用,避免输出截断
逐节字数目标 — 摘要(150-250)、引言(800-1000)、相关工作(600-800)、方法(1000-1500)、实验(800-1200)、结果(600-800)、讨论(400-600)
修订长度保障 — 修订稿若短于初稿,自动重试
反免责声明强制 — "due to computational constraints" 最多出现 1 次;修订提示主动删除重复的模糊表述
统计严谨性 — 结果表格要求包含置信区间、p 值和效应量;失效消融被标记并排除在声明之外
顶会级同行评审 — 审稿人按 NeurIPS/ICML 评分标准打分 1-10
会议模板切换
export:
target_conference: "neurips_2025" # 或 "iclr_2026" 或 "icml_2026"
![图片[20]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316004244683-1773592964-403b434e8d19acac827460cb77d264a8.png)
Markdown → LaTeX 转换器自动处理:章节标题(含自动编号去重)、行内/行间数学公式、粗体/斜体、列表、表格(含 caption/label)、图片(includegraphics)、代码块(Unicode 安全)、交叉引用和 cite{} 引用。
质量门控
![图片[21]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316004246223-1773592966-c2aa36472fedeecc4844ed58b6c23caa.png)
用 --auto-approve 跳过所有门控,或在 security.hitl_required_stages 中配置特定阶段。
最后解答一个大家最关心的落地问题:跑通这一整套流程贵不贵?
根据官方的测算,如果全程使用 GPT-4o,跑完全部 23 个阶段大约会产生 35 到 60 次 API 调用,整体账单预估在 3 到 12 美元之间。
更有诚意的是,只要接口兼容,系统完全支持通过 Ollama 等工具无缝接入本地大模型。这意味着只要实验室自己的算力管够,调用成本完全可以打下来。
把它当成一个不知疲倦的科研助理,在 deadline 前帮你扫平那些重复枯燥的 baseline 实验,并迅速拿到一份结构严整的初稿,是非常趁手的。
至于最终发表前的学术把关,依然需要回到研究人员自己手中。
如果你刚好有个压在心底的 idea 还没来得及验证,不妨直接去拉一下代码,看看系统能为你跑出什么惊喜。
更多阅读
![图片[22]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260315004154123-1773506514-c218951491a0f5eb67ee780f4ba492e4.png)
![图片[23]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260315004158105-1773506518-eb2742734fc984b9d718bc554fb66e59.png)
![图片[24]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260315004200433-1773506520-27fe587c111ba607a8e7c6922b8ba5c5.png)
![图片[25]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260315004202747-1773506522-657746e25f1f3bff982e0fb22fa43b1f.gif)
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
![图片[26]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260315004205979-1773506525-1e433d314dc7e1b4dddcffa64dafa574.png)
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
![图片[27]-养只龙虾做科研?一句话自动跑实验写LaTeX,同行评审都包了-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260315004207122-1773506527-6c15a1963d21c4f77f05a44ba62bd3d6.jpeg)
<原文链接:https://mp.weixin.qq.com/s/OUjy1Jes_2zXICEMJOwyqw


















暂无评论内容