上海人工智能实验室在WAIC 2025大会上发布并开源了最新的科学多模态大模型 Intern-S1(代号“书生”)。
Intern-S1以 MoE 架构为基础,拥有:
Intern-S1首创了跨模态科学解析引擎,针对不同模态的数据自适应地进行分词编码。对化学分子式、蛋白质序列等特殊序号提供了更高效的编码表示,压缩率提升了70%以上,使其具备理解专业、复杂数据的能力。
为了兼顾通用性与专业性,Intern-S1提出了“通专融合同的训练范式”:
通过这一闭环机制反哺预训练,Intern-S1同时具备了强大的通用推理能力和多项顶尖的专业能力,实现了一个模型解决多种专业任务的突破。
在模型后期训练中引入了大规模多任务强化学习框架 Inte。算法上主打“混合奖励”——能验证的任务使用规则和验证器给奖励。这套体系让它的训练能耗只有 Grok 4 的1%,性能却毫不逊色。
Intern-S1会不会成为科研多模态的标准答案?现在下结论还早,但它让我们看到了另一条路径——不是一味做大模型拼参数,而是从实际需求出发,去解决真正难但有价值的应用场景。Intern-S1的方向与前几年大家追求通用能力的方向有所不同。虽然 GPT、Gemini、Claude 等模型在对话和代码生成方面很成熟,但在分析科研图谱或辅助设计实验时,结果经常不稳定且缺乏逻辑,复杂的公式对它们来说就是乱码。
Intern-S1则从科研这一难点切入,将多模态真正应用于文献解析、实验辅助等“高压区”,打开了一条通往“专业型AI”的可能性通道。