打开在线体验平台,输入一个复杂的化学分子结构图和几段实验数据,几秒后,这个由512位“专家”组成的智能系统就能准确分析出分子性质、反应路径和潜在应用场景,其推理水平堪比顶尖科学家。
2月4日晚间,上海人工智能实验室宣布开源全球首个基于“通专融合”架构的万亿参数科学多模态大模型——Intern(书生)-S1-Pro。
01 突破界限
上海AI实验室的这次发布无疑在人工智能领域投下了一颗重磅炸弹。作为全球开源社区中参数规模最大的科学模型,Intern-S1-Pro的总参数量达到了惊人的1万亿(1T)。
这一数字背后是对科学人工智能领域的重新定义:AI for Science正从“工具革命”的1.0阶段,迈向由“革命性工具”驱动科学发现的2.0时代。
模型的发布并非仅仅追求数字上的突破。上海人工智能实验室主任、首席科学家周伯文指出,可深度专业化通用模型是实现AGI的可行路径。这意味着该模型不仅规模巨大,更重要的是它朝着通用人工智能的方向迈出了坚实一步。
Intern-S1-Pro的推出正值全球科学界对AI辅助研究需求日益增长的时期。从蛋白质结构预测到新材料发现,从气候变化模拟到天体物理分析,科学家们迫切需要能够理解复杂科学概念、处理多模态数据的智能助手。
02 架构革新
Intern-S1-Pro采用了混合专家架构(MoE),这一设计使其在保持超大规模的同时,实现了高效推理。该模型内部有512位各领域“顶尖专家”,面对具体科学问题时,系统会精准调用最合适的8位“专家”参与分析决策。
这种“按需点将”机制使这个万亿模型仅需激活约2%的参数(220亿)就能应对复杂数理逻辑推理。
更引人注目的是模型在底层架构上的两大创新:傅里叶位置编码(FoPE)和高效路由机制。FoPE技术为AI赋予了“双重视角”——既能像看“粒子”一样捕捉文字之间的相对距离,又能像分析“波”一样把握科学信号的整体规律与频率。
这种设计解决了科学领域数据密度不稳定的难题。在天文学中,研究人员需要从浩瀚宇宙中捕捉极其渺茫的信号;而在生命科学中,一个实验可能产生百万级的数据。
传统AI模型难以同时处理这种跨度巨大的信号特征,而FoPE技术使模型能够统一理解从微观生命信号到宏观宇宙波动的“物理直觉”。
高效路由机制则系统攻克了训练万亿参数MoE模型在稳定性与算力效率上的瓶颈。通过“路由稠密估计”和“分组路由”策略,模型像智能交通系统一样实现了对海量计算芯片的负载均衡,避免了资源闲置。
03 性能跃升
Intern-S1-Pro在多项权威基准测试中展现出令人瞩目的能力。在国际数学奥林匹克(IMO-Answer-Bench)和国际物理奥林匹克(IPhO2025)评测中,模型展现出竞赛级别的解题能力。
这标志着AI在复杂数理逻辑推理方面达到了新的高度。
在科学智能的关键垂直领域,该模型成功构建了一个横跨化学、材料、生命、地球、物理五大核心学科的全谱系能力矩阵,涵盖100多个专业子任务。
尤其是在SciReasoner等高难度综合学科评测基准中,Intern-S1-Pro取得了与顶尖闭源商业大模型相当甚至更优的成绩。
模型的基础理解能力同样出色。它能够精准解析复杂的分子结构图及各类实验图表;深入逻辑推理层面时,能够处理高阶科学问答,如反应条件推断、理化性质预测,精准捕捉数据背后的因果规律等。
04 应用前景
随着理解与推理能力的增强,Intern-S1-Pro的能力边界正不断向真实科研场景延伸。其应用范围从微观层面的化学逆合成、蛋白质序列生成,拓展至宏观尺度的遥感图像分析等复杂任务。
在生物医药领域,模型可以帮助研究人员分析复杂的蛋白质结构,预测分子间相互作用,加速新药发现过程。在材料科学中,它可以辅助设计具有特定性能的新材料,减少传统试错方法所需的时间和资源。
地球科学研究者可以利用该模型分析海量的卫星遥感数据,监测气候变化、预测自然灾害。在物理学研究中,它能够协助科学家处理实验数据,提出新的理论假设。
模型展现出的从“解题”迈向“解决问题”的科研生产力价值,为前沿科学探索提供了坚实支撑。它不仅仅是回答问题的工具,更是能够参与科研流程、提供创新思路的“科研合伙人”。
05 自主生态
Intern-S1-Pro的突破不仅体现在算法层面,更在于其构建了原创的“算力—算法”一体化基座。
从架构设计之初,上海人工智能实验室便与昇腾计算生态确立联合研发路线,实现了从最底层算子、编译优化到上层训练、推理框架的深度全栈适配。
这一合作具有重要意义。在当前全球AI算力竞争日益激烈的背景下,中国科研团队成功验证了从原创模型架构到国产算力基座自主技术的完整链路。
模型训练过程中,研发团队攻克了精度对齐、硬件性能极致释放等一系列核心技术难题,结合先进的内存管理与并行策略,确保了万亿参数模型训练的高效与稳定。
上海人工智能实验室还与另一家国产芯片代表企业沐曦开展了联合研发,为进一步构筑开放共享、面向未来的科学智能基础设施奠定坚实基础。
这种全链条的自主创新不仅降低了对外部技术的依赖,也为全球科学智能领域提供了多元化的技术选择。
06 开放共享
上海人工智能实验室采取了全面开源的策略,Intern-S1-Pro已在GitHub、HuggingFace、ModelScope等平台全面开放。
同时,实验室还提供了在线体验链接,让研究者和开发者能够直接测试模型的各项能力。
自2023年书生大模型首次发布以来,上海AI实验室已逐步构建起丰富的书生大模型家族。包括科学多模态模型、大语言模型书生·浦语、多模态模型书生·万象、强推理模型书生·思客等。
同时,实验室首创并开源了面向大模型研发与应用的全链路开源工具体系,覆盖数据处理、预训练、微调、部署、评测与应用等关键环节,形成了覆盖数十万开发者参与的活跃开源社区。
这一开放生态已经产生了显著影响。科学多模态模型多次登顶HuggingFace全球多模态榜单,累计下载超41万次,并获得近200家科研机构和企业的合作申请。
模型的卓越跨模态科学理解能力不仅为科研提供了高效工具,也通过开源降低了全球科研团队迈入AGI for Science的门槛。
在线体验平台上,全球科研人员正在测试这个万亿参数的科学大脑——有人上传了最新的蛋白质折叠数据,有人输入了遥远的星系观测图像,有人则在探讨量子计算中的复杂方程式。
模型的回复不仅准确,更提供了多种可能的研究路径和实验方案。上海人工智能实验室已经宣布,将持续推动全链条开源与免费商用,进一步降低全球科研门槛。