一水 发自 凹非寺
量子位 | 公众号 QbitAI
是的,科研人有自己的“吃虾”方式!
眼见大伙儿玩“龙虾”6到飞起,来自斯坦福&普林斯顿的高校团队也立刻推出了“科研版龙虾”LabClaw。
划重点,开!源!人人都能立马用上那种。
![图片[1]-科研人有自己的“吃虾”方式!斯坦福普林斯顿最新开源,仅需一行指令-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316003015538-1773592215-10dc2810628ca6942bb1ef82d572f2ea.png)
而且打工方式超级easy,只需一行命令就能调动LabClaw里的龙虾军团。
![图片[2]-科研人有自己的“吃虾”方式!斯坦福普林斯顿最新开源,仅需一行指令-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316003017556-1773592217-2463acc28917d3a650e47ff8d800eb97.png)
调完之后,LabClaw里的200多个懂生物医学的龙虾就会自动上线——有人负责盯实验数据,有人跑分析模型,还有人翻文献、写实验记录。
总之以后搞科研真的不一样了,人类只需在关键环节提意见、做决策,剩下的全交给AI自动跑。
最后就是……顶刊的路子走宽了,科研人的头发保住了(doge)。
而且这个想法还得到了英伟达的支持(title为“Founding Partners”)。
![图片[3]-科研人有自己的“吃虾”方式!斯坦福普林斯顿最新开源,仅需一行指令-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316003020819-1773592220-c89d7382db1e5a0a4204fad4b2206717.png)
咳咳,书归正传。既然有如此功效,咱不得看看这LabClaw到底是啥。
LabClaw是啥?
LabClaw是啥,从使用方式上就能看出来了。
前面说了,只需给OpenClaw发一条消息,就能立马启用LabClaw里的龙虾军团。
所以这LabClaw,说到底其实就是给AI准备的“技能包”,类似科研skills。
![图片[4]-科研人有自己的“吃虾”方式!斯坦福普林斯顿最新开源,仅需一行指令-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316003023598-1773592223-0e423771a0fd769a210a3db44e112083.png)
有了skills这玩意儿,后人就可以直接拿来用,不用自己苦思冥想提示词。
目前LabClaw仓库里一共放了211个生产级的SKILL.md文件,按不同研究方向分好类,具体如下:
![图片[5]-科研人有自己的“吃虾”方式!斯坦福普林斯顿最新开源,仅需一行指令-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316003026292-1773592226-614caec46c02ef2cbd490e0005c298a0.png)
这些skills可以供OpenClaw在研究生物医学时直接调用,每个skill都会告诉AI何时使用、如何调用、以及应该产出什么结果。
光听可能有点迷糊,咱不妨直接看几个典型用法。
![图片[6]-科研人有自己的“吃虾”方式!斯坦福普林斯顿最新开源,仅需一行指令-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316003028393-1773592228-afa4f0b3ac2f9f331d06fedcb53a2054.png)
科研大关之文献综述+写作,想必大家都很熟悉了吧。
在LabClaw里,这一整套流程其实已经被拆成了几个现成的skill,比如:
pubmed-search:负责去PubMed检索相关论文; citation-management:整理引用与参考文献; scientific-writing:根据材料生成综述或论文草稿。
所以,当你给出一个研究主题时(甚至可以让AI提idea),OpenClaw就可以按流程自动调用这些技能,主打一个全流程自动化。
其他情况也与之类似,在此不再赘述。
![图片[7]-科研人有自己的“吃虾”方式!斯坦福普林斯顿最新开源,仅需一行指令-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316003030914-1773592230-7e51c9cd5284b8d18bd01763665a4fe4.png)
当然,LabClaw的用途其实还不止“技能库”这么简单。
如果把这些skills进一步组合起来,它甚至可以被部署成一个不会下班的AI实验室助手。
简单来说,就是把LabClaw当成一个Always-On Lab Agent——
长期运行在实验室环境里,持续读取仪器数据、实验记录或视频流,然后自动调用相应的skills进行分析和响应。
![图片[8]-科研人有自己的“吃虾”方式!斯坦福普林斯顿最新开源,仅需一行指令-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316003033551-1773592233-9d6e8515813a12d3e789f7e97601f07c.png)
部署完之后,它可以持续读取显微镜、传感器或摄像头的数据流,然后结合图像、数据和日志,判断实验是否正常进行。
![图片[9]-科研人有自己的“吃虾”方式!斯坦福普林斯顿最新开源,仅需一行指令-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316003037786-1773592237-3dac938aa2ea784eaa9b41a10863382c.gif)
一旦发现异常数据或设备状态变化,便会自动触发分析流程,然后火速生成实验日志、分析报告,甚至能主动提醒研究人员。
![图片[10]-科研人有自己的“吃虾”方式!斯坦福普林斯顿最新开源,仅需一行指令-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316003040413-1773592240-81a1205f0fa74416741af54ddcae6a9a.gif)
好好好,不仅能干“脏活累活”,甚至连盯实验都帮你解决了(妙啊jpg)。
而且这还没完,他们这次还为LabClaw专门配了一个操作系统LabOS。
嚯,LabClaw+LabOS,这又是什么玩法?
还配上了专门的操作系统
对于这套组合技,我们可以这样来理解。
LabClaw其实就像应用市场,里面装了功能各异的APP(skill),而LabOS就像操作系统。
至于这套系统具体如何运作,咱还得了解一点LabOS的背景知识。
LabOS是全球首个AI-XR协同科学家系统,也是由本次LabClaw的两位负责人——斯坦福大学丛乐教授和普林斯顿大学王梦迪教授团队联合推出。
△左丛乐、右王梦迪
这里稍微补充一下。
丛乐(Le Cong),目前是斯坦福大学医学院病理学系和遗传学系副教授。
本科毕业于清华,博士毕业于哈佛大学医学院,是公认的CRISPR基因编辑领域杰出推动者之一。
早在读博期间,他便以一作身份在Science、Cell、 Nature等权威期刊上表了数篇标志性论文,为基因编辑技术在哺乳动物和人类细胞中的应用研究、方法优化和推广做出了重要贡献。
王梦迪(Mengdi Wang),目前是普林斯顿大学电气与计算机工程系教授、该校人工智能创新中心主任。
10岁进入北京八中少年班、14岁考入清华自动化系、18岁赴麻省理工学院攻读计算机科学博士,师从美国国家工程院院士、也是著名的控制与优化专家Dimitri P. Bertsekas。
博士毕业后迅速加入普林斯顿任教,是国际AI与控制系统领域的核心学术带头人之一。
根据二人之前带队发表的论文,LabOS本质上就是整个智能实验室的“大脑+眼睛+身体”:
大脑:多智能体规划、推理、自我进化; 眼睛:通过专属视觉语言模型LabOS-VLM,看懂科学家的实验操作、识别步骤对错; 身体:通过XR眼镜+实验机器人,实现人机协同实验。
![图片[12]-科研人有自己的“吃虾”方式!斯坦福普林斯顿最新开源,仅需一行指令-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316003054639-1773592254-ace5ed1778a67780106905a556b0a493.png)
全部组合到一起,你就可以看到这样一幅画面——
一旦你戴上XR眼镜,启动LabOS(就像解锁手机),系统就立刻开始“看”实验室环境、“听”你的指令。
然后你告诉AI“我要找黑色素瘤的免疫治疗靶点”,LabOS就会去LabClaw里找到对应的“靶点发现”skill,加载运行。
再然后就是一系列协同实验:AI通过LabClaw的skill帮你分析数据、提出假说,LabOS通过XR眼镜语音实时指导你做实验、等实验数据回传后LabClaw再调用数据分析skill帮你解读并生成论文等等。
一整个人机协作、效率up up。
而且整个系统扩展性良好,即使有新的科研需求,也可以直接在LabClaw里安装新的技能(就像下载新App),不用重新开发整个系统。
正如网友所言,现在用AI辅助科研的门槛比以前又双叒降低了。
降低到什么程度呢?——一条指令。
![图片[13]-科研人有自己的“吃虾”方式!斯坦福普林斯顿最新开源,仅需一行指令-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260316003056615-1773592256-b9f2baaf3b5a3b71ab958b5114075350.png)
开源地址:
https://github.com/wu-yc/LabClaw?tab=readme-ov-file
项目地址:
https://labclaw-ai.github.io/
参考链接:
[1]https://x.com/AI4S_Catalyst/status/2031528955472392301
[2]https://arxiv.org/abs/2510.14861
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
🦞 今天,你养虾了吗?
欢迎加入【龙虾养成讨论组】,一起交流养虾经验!扫码添加小助手加入社群,记得备注【OPENCLAW】哦~
![图片[14]-科研人有自己的“吃虾”方式!斯坦福普林斯顿最新开源,仅需一行指令-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260304195606272-1772625366-60384db130f137ff21f21c66feffc28c.png)
<原文链接:https://mp.weixin.qq.com/s/yUbVqkhhqQQg1W2ENLwTsg




△左丛乐、右王梦迪













暂无评论内容