作为当前全球开源社区中参数规模最大的科学多模态模型,Intern-S1-Pro的核心科学能力实现了质的跃升,高难度综合学科评测稳居AI4S领域国际领先水平,复杂数理逻辑推理能力达奥赛金牌水平,面向真实科研流程的智能体能力位居开源模型第一梯队。
此次发布的Intern-S1-Pro是通过SAGE实现 “可深度专业化通用模型” 的关键实践。该模型基于混合专家架构(MoE),共拥有512个专家,总参数达1T,每次调用仅激活8个专家、22B参数。其通用能力和科学能力协同演进,并在底层架构实现了两大核心突破:在SAGE的基础模型层,通过引入傅里叶位置编码并重构时序编码器,赋予模型统一理解从微观生命信号到宏观宇宙波动的“物理直觉”;通过高效路由机制,系统攻克了训练万亿参数MoE模型在稳定性与算力效率上的瓶颈,为超大规模模型的训练提供了关键的工程基础。
与此同时,Intern-S1-Pro验证了从原创模型架构到国产算力基座自主技术的完整链路,为构建开放共享的AGI4S基础设施奠定了坚实底座。通过开源开放,Intern-S1-Pro旨在降低全球科研门槛,与学术界和产业界共同推动以通用人工智能驱动科学发现的范式革命。
创空间体验链接:
https://www.modelscope.cn/studios/AI-ModelScope/InternLM-Demo
GitHub:
https://github.com/InternLM/Intern-S1
Model:
https://www.modelscope.cn/models/Shanghai_AI_Laboratory/Intern-S1-Pro
![图片[1]-迈向AI4S 2.0,上海AI实验室开源书生1T Moe 科学大模型Intern-S1-Pro!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/02/20260206184712449-1770374832-70dbb466ac90a61c535fe62de39de216.png)
Intern-S1-Pro在评测基准中的表现:通用能力表现出色,科学能力达国际领先水平
研究团队提出,可深度专业化通用模型(Specializable Generalist)是实现AGI的可行路径,其关键挑战在于:专家化模型在训练过程中需要低成本、能规模化的密集反馈;能够持续不断地学习与主动探索,并具备为同一个问题提供多视角、多种解决方案的能力;并能引入对物理世界规律的考量,兼顾多项差异化能力的学习效率与性能。
Intern-S1-Pro通过多项SAGE基础模型层的技术创新,拓宽了模型应用边界、提升了超大规模训练可行性,推进了可深度专业化通用模型的探索。
为构建能更深层次理解物理世界规律的科学大模型,研究团队引入了傅里叶位置编码(FoPE) 并重构时序编码器。FoPE为AI赋予双重视角:既能像看“粒子”一样捕捉文字之间的相对距离,又能像分析“波”一样把握科学信号的整体规律与频率。科学数据与语言的差异还体现在多尺度上,基于能自动适应数据密度的时序编码器,模型首次能统一处理从寥寥数个到百万级采样的各类信号,支持的分析对象从天文、地理直接拓展至生理信号、生物声学等领域,从而实现感知能力的重大跃迁。
为了高效训练承载这些能力的万亿参数超大规模模型,研究团队革新了其内部的“路由机制”。传统方法存在训练低效和算力浪费两大痛点。新技术通过 “路由稠密估计” ,让模型在高效运行的同时能进行更充分的学习,提升了稳定性;进而通过 “分组路由” 策略,像智能交通系统一样使海量计算芯片实现负载均衡,避免了资源闲置。通过算法与系统的协同创新,同时攻克了超大规模模型训练在“学习效率”和“资源调度”上的核心瓶颈,为高效、稳健地训练下一代万亿参数模型提供了关键基础。
通过上述底层架构的创新,Intern-S1-Pro不仅在规模上刷新了科学多模态模型的参数规模上限,也为SAGE架构所提出的“通用能力与专业能力协同演进”提供了可落地的实现路径。
得益于创新的底层架构设计与万亿参数超大规模训练策略,Intern-S1-Pro的科学能力进一步升级。
在国际数学奥林匹克IMO-Answer-Bench和国际物理奥林匹克IPhO2025两大权威基准测试中,Intern-S1-Pro均展现出竞赛级别的解题能力。
在AI4S关键垂类领域,Intern-S1-Pro成功构建了一个跨越化学、材料、生命、地球、物理五大核心学科的全谱系能力矩阵,涵盖100多个专业子任务,不仅在Mol-Instruction、Biology-Instruction等单学科垂类评测中表现优异,更在SciReasoner等高难度的综合学科评测基准中,取得了与闭源商业大模型及垂类SOTA模型相当,甚至更优的成绩,稳居AI4S领域的第一梯队。
在基础理解维度,Intern-S1-Pro基于高精度多模态感知能力,能够精准解析复杂的分子结构图及各类实验图表,深入到逻辑推理层面 ,Intern-S1-Pro能够处理高阶科学问答,如反应条件推断、理化性质预测,精准捕捉数据背后的因果规律等。随着理解与推理能力的持续增强,Intern-S1-Pro的能力边界不断向真实科研场景延伸,其应用范围从微观层面的化学逆合成、蛋白质序列生成,拓展至宏观尺度的遥感图像分析等复杂任务。通过XLRS-Bench等真实科研场景评测,模型展现出从“解题”迈向“解决问题”的科研生产力价值,为前沿科学探索提供了坚实支撑。
同时,借助通专融合技术路线,Intern-S1-Pro在通用能力与专业科学能力上实现协同进阶:在图文跨模态理解、科学图表逻辑推理、多场景视觉感知,以及高质量自然语言生成和复杂指令精准遵循等核心维度,Intern-S1-Pro均稳居开源模型阵营第一梯队,展现出扎实而全面的综合实力。
通过通专融合的训练策略,Intern-S1-Pro不仅补齐了传统前沿模型在专业推理上的短板,还实现了多模态与文本通用能力的均衡发展,真正将通用能力与专业科学能力的协同演进落到实处,为科研场景下复杂问题的理解、推理与应用提供了可靠支撑。
在智能体能力方面,Intern-S1-Pro实现了从“静态任务规划”到“动态环境交互”的跨越式进阶。在以动态环境与复杂交互为核心的Tau-2评测中达到了国际一流水平,为赋能复杂科学智能体打下了坚实基础。
由于模型规模超过1T,基础硬件要求如下: 模型下载 要求版本: 在 Node 0 和 Node 1 上启动 Ray 后,于 Node 0 执行: vLLM 在处理长文本和视频推理时具有出色表现,但需注意内存管理。 SGLang 方案推荐开启 FlashAttention 3 (fa3) 后端以获得极致性能。 模型API Inference体验 可以通过魔搭社区的推理 API-Inference体验Intern-S1-Pro模型 示例代码: 自2023年书生大模型首次发布以来,上海AI实验室已逐步构建起丰富的书生大模型家族,包括科学多模态模型Intern-S1、大语言模型书生·浦语InternLM、多模态模型书生·万象InternVL、强推理模型书生·思客InternThinker等。同时首创并开源了面向大模型研发与应用的全链路开源工具体系,覆盖数据处理、预训练、微调、部署、评测与应用等关键环节,包含训练框架XTuner、部署推理框架LMDeploy、评测框架OpenCompass、高效文档解析工具MinerU,以及思索式AI搜索应用MindSearch等在内的核心工具已全面开源,形成覆盖数十万开发者参与的活跃开源社区。 自发布以来,Intern-S1累计下载超41万次,并获得近200家科研机构和企业的合作申请。其卓越的跨模态科学理解能力不仅为科研提供了高效工具,也通过开源降低了全球科研团队迈入AGI for Science的门槛。未来,在研究范式创新及模型能力提升的基础上,上海AI实验室将推进Intern-S1及其全链条工具体系持续开源,支持免费商用,同时提供线上开放服务,与全球合作伙伴共建更加开放、高效的科学AI生态。硬件准备与配置建议
modelscope download --model Shanghai_AI_Laboratory/Intern-S1-Pro --local_dir ./Intern-S1-Pro LMDeploy 部署方案
lmdeploy >= 0.12.0方案 A:张量并行 (TP)
# start ray on node 0 and node 1# node 0lmdeploy serve api_server ./Intern-S1-Pro --backend pytorch --tp 16 方案 B:混合并行 (DP + EP)
# node 0, proxy serverlmdeploy serve proxy --server-name ${proxy_server_ip} --server-port ${proxy_server_port} --routing-strategy 'min_expected_latency' --serving-strategy Hybrid# node 0export LMDEPLOY_DP_MASTER_ADDR=${node0_ip}export LMDEPLOY_DP_MASTER_PORT=29555lmdeploy serve api_server ./Intern-S1-Pro --backend pytorch --tp 1 --dp 16 --ep 16 --proxy-url http://${proxy_server_ip}:${proxy_server_port} --nnodes 2 --node-rank 0 --reasoning-parser intern-s1 --tool-call-parser qwen3# node 1export LMDEPLOY_DP_MASTER_ADDR=${node0_ip}export LMDEPLOY_DP_MASTER_PORT=29555lmdeploy serve api_server ./Intern-S1-Pro --backend pytorch --tp 1 --dp 16 --ep 16 --proxy-url http://${proxy_server_ip}:${proxy_server_port} --nnodes 2 --node-rank 1 --reasoning-parser intern-s1 --tool-call-parser qwen3 vLLM 部署方案
# Node 0 执行export VLLM_USE_MODELSCOPE=trueexport VLLM_ENGINE_READY_TIMEOUT_S=10000# node 0export VLLM_ENGINE_READY_TIMEOUT_S=10000vllm serve internlm/Intern-S1-Pro --tensor-parallel-size 16 --enable-expert-parallel --distributed-executor-backend ray --max-model-len 65536 --trust-remote-code --reasoning-parser deepseek_r1 --enable-auto-tool-choice --tool-call-parser hermes SGLang 部署方案
配置环境
export SGLANG_USE_MODELSCOPE=trueexport DIST_ADDR=${master_node_ip}:${master_node_port}# node 0python3 -m sglang.launch_server --model-path internlm/Intern-S1-Pro --tp 16 --ep 16 --mem-fraction-static 0.85 --trust-remote-code --dist-init-addr ${DIST_ADDR} --nnodes 2 --attention-backend fa3 --mm-attention-backend fa3 --keep-mm-feature-on-device --node-rank 0 --reasoning-parser qwen3 --tool-call-parser qwen# node 1python3 -m sglang.launch_server --model-path internlm/Intern-S1-Pro --tp 16 --ep 16 --mem-fraction-static 0.85 --trust-remote-code --dist-init-addr ${DIST_ADDR} --nnodes 2 --attention-backend fa3 --mm-attention-backend fa3 --keep-mm-feature-on-device --node-rank 1 --reasoning-parser qwen3 --tool-call-parser qwe from openai import OpenAIclient = OpenAI( base_url='https://api-inference.modelscope.cn/v1', api_key='<MODELSCOPE_TOKEN>', # ModelScope Token)response = client.chat.completions.create( model='Shanghai_AI_Laboratory/Intern-S1-Pro', # ModelScope Model-Id, required messages=[ { 'role': 'user', 'content': '你好' } ], stream=True)done_reasoning = Falsefor chunk in response: if chunk.choices: reasoning_chunk = chunk.choices[0].delta.reasoning_content answer_chunk = chunk.choices[0].delta.content if reasoning_chunk != '': print(reasoning_chunk, end='', flush=True) elif answer_chunk != '': if not done_reasoning: print('nn === Final Answer ===n') done_reasoning = True print(answer_chunk, end='', flush=True)
点击阅读原文,即可跳转模型链接~
<原文链接:https://mp.weixin.qq.com/s/-2D0gMYfwMU3ijxQB9n7Ug












暂无评论内容