Intern-S1:上海AI实验室开源的多模态科学领域开源大模型
一、Intern-S1是什么
Intern-S1是上海人工智能实验室(上海AI实验室)研发并开源的通专融合多模态科学推理大模型,是面向全球科研工作者、开发者与教育机构打造的通用科学AI基础平台,核心定位是解决科学研究中多模态数据解析、复杂问题推理、专业任务处理等核心需求,填补了开源大模型在科学专业领域的能力空白。作为书生大模型体系的重要成员,Intern-S1不仅具备比肩国内外一流模型的通用文本与多模态理解能力,更在化学、材料、物理、生物、地球科学等多个专业领域实现全模态能力的国际领先,是当前综合性能最优的开源科学多模态大模型。
为兼顾不同场景的部署与使用需求,Intern-S1推出了双版本模型体系:一是全量版本Intern-S1,聚焦极致的科学推理与专业处理能力,适用于高性能计算平台、专业科研机构的深度研究场景;二是轻量化版本Intern-S1-mini,由8B语言模型搭配0.3B视觉编码器组成,在保留核心科学能力与通用能力的前提下,大幅降低部署成本与硬件要求,适用于本地开发、二次创新、教育科普等轻量化场景。该模型自开源后,连续多日霸榜HuggingFace多模态Trending全球第一,成为开源社区中科学大模型的标杆产品,为全球科研与AI开发领域提供了免费、高效、可定制的核心能力支撑。
Intern-S1的核心价值在于实现了“通专融合”的技术落地,打破了传统通用大模型“泛而不精”、专业模型“精而不融”的行业痛点,通过大规模科学数据预训练与多模态架构创新,让模型既能处理日常对话、文本生成、图像理解等通用任务,又能胜任化学结构解析、蛋白质序列分析、化合物合成路线规划、材料性能预测等专业科学任务,真正成为连接通用AI与专业科研的桥梁。
二、功能特色
Intern-S1作为开源科学多模态大模型的标杆,其功能特色围绕“通专融合、多模态解析、高性能、易部署、可定制”五大核心展开,既具备通用大模型的泛化能力,又拥有专业科学模型的精准度,同时兼顾开源生态的易用性与扩展性,具体特色如下:
1. 通专融合,通用与科学能力双领先
Intern-S1实现了通用能力与科学专业能力的双重突破,在通用基准测试中稳居开源第一梯队,在科学专业测试中多项指标超越开源模型甚至闭源模型。通用能力方面,在MMLU-Pro、MMMU、AIME2025等权威通用推理与多模态基准测试中表现卓越,文本理解、逻辑推理、图像描述等能力比肩国内外一流通用大模型;科学专业能力方面,在ChemBench、MatBench、SmolInstruct等化学、材料领域核心基准中显著领先,在物理、地球、生物等学科任务中保持第一梯队水平,能精准处理分子式、蛋白质序列、地震信号、科学图像等专业数据,实现从“通用理解”到“专业推理”的无缝衔接。轻量化版本Intern-S1-mini同样保持“减身材不减实力”的特性,在8B参数量级中,通用与科学能力均稳居同级别模型第一,成为轻量化科学大模型的首选。
2. 全模态解析,原生支持科学领域多类型数据
Intern-S1针对科学研究的多模态数据特点进行深度优化,原生支持文本、图像、分子式、蛋白质序列、时间序列信号等多种类型数据的一体化解析,无需额外的格式转换或插件适配,是真正意义上的“全模态科学大模型”。对于SMILES分子式、FASTA蛋白质序列等科学领域特有的数据格式,模型通过创新的动态分词器实现精准识别与解析;对于显微镜图像、分子结构可视化图、实验数据图表、科研论文插图等科学图像,模型的视觉编码器能实现细粒度的特征提取与语义理解;对于地震信号、实验监测数据等时间序列数据,专属的时间序列编码器能实现高效的时序特征分析,让模型真正能“读懂”科研中的各类数据。
3. 性能顶尖,开源领域多项指标创纪录
Intern-S1在开源大模型领域实现了多项性能突破,上线后连续多日霸榜HuggingFace多模态Trending全球第一,成为开源社区关注度最高的科学大模型。在科学专业领域,模型在分子合成路径规划、反应条件预测、晶体热力学稳定性预测、材料性能分析等核心任务中,多项指标位列开源模型第一,部分指标甚至达到所有模型(含闭源)第一;在多模态综合性能上,模型的多模态理解与推理能力被上海AI实验室认定为“全球开源第一”,文本能力比肩国内外一流模型,科学能力实现全模态国际领先。轻量化版本Intern-S1-mini同样表现亮眼,在同参数量级模型中,科学任务性能无出其右,为轻量化场景提供了高性能的科学AI支撑。
4. 多格式适配,全硬件兼容易部署
Intern-S1为不同的部署场景与硬件条件提供了多格式权重文件,包括BF16、FP8、GGUF等,兼顾高性能推理与轻量化部署,能适配从高端智算中心到本地开发机的各类硬件平台。模型全面支持国产AI加速卡及主流操作系统,同时针对FP8、FP4量化计算进行深度优化,在保证性能损失可控的前提下,大幅降低推理时的算力与内存占用,让更多开发者与科研机构能低成本使用。此外,模型支持ollama、lmdeploy(≥0.9.2.post1)、vllm(≥0.10.1)等主流LLM推理框架,提供一键式部署脚本与API服务,兼容OpenAI协议,让开发者能快速上手,无需复杂的框架适配。
5. 开源生态完善,支持全流程二次开发
Intern-S1采用Apache 2.0开源协议,允许免费商用、修改、分发,仅需保留原版权声明,为企业、科研机构、开发者提供了无门槛的使用与创新空间。实验室同时开源了完整的工具链与开发资源,包括基于LLaMA-Factory(支持Intern-S1-mini)、XTuner(支持Intern-S1/InternVL-3.5)的微调方案,提供详细的环境配置、依赖安装、微调训练步骤;模型的权重文件可在HuggingFace、ModelScope等主流模型平台获取,同时提供在线体验平台、技术报告、开发文档等资源,形成“模型-工具-文档-社区”的完整开源生态。此外,模型还提供了代码规范化配置、通用忽略文件等工程化配置,保障团队协作与代码管理的效率。
6. 训练高效,创新算法降低开发成本
Intern-S1在训练阶段采用了多项创新算法与系统优化,大幅提升了训练效率,降低了大规模科学模型的开发成本。模型采用创新的混合奖励学习算法(MoR),能同时对1000多个任务进行并行协同优化,让模型在多任务场景下的训练效率大幅提升;通过联合优化系统与算法,模型的大规模强化学习成本降低了10倍,让5万亿tokens的大规模预训练与科学领域精调成为可能;MoE架构的设计让模型在保持2410亿总参数的强大表达能力的同时,每个任务仅激活280亿参数,推理时的计算需求降低了约88%,实现了“大能力、高效率”的平衡。

三、技术细节
Intern-S1的核心能力源于其深度优化的架构设计、创新的组件研发、科学的训练策略与高效的算法体系,四大技术维度的融合创新,让模型实现了通用能力与科学专业能力的深度结合,同时兼顾性能与效率,以下为核心技术细节的详细解析:
1. 核心架构设计:MoE混合专家架构,平衡能力与效率
Intern-S1的全量版本采用“235B MoE语言模型 + 6B InternViT视觉编码器”的双塔架构,总参数量达到2410亿,是当前参数规模领先的开源多模态科学大模型,其核心创新在于采用了Mixture-of-Experts(MoE)混合专家架构,这是模型实现“大能力、高效率”的关键。MoE架构的核心逻辑是将模型拆分为多个独立的“专家网络”,每个专家网络专门处理某一类任务或数据,在推理时仅激活与当前任务匹配的部分专家,而非全部参数,既保证了模型的表达能力,又大幅降低了计算成本。
Intern-S1的MoE架构具体参数配置如下表所示,通过精细化的参数设计,实现了能力与效率的最优平衡:
| 架构组件 | 具体配置 | 核心作用 |
|---|---|---|
| 语言模型主体 | Qwen3-235B MoE | 基于Qwen3打造的混合专家语言模型,负责文本理解、生成与逻辑推理 |
| 总参数量 | 2410亿(含视觉编码器) | 大参数规模保障模型的强大表达能力与泛化能力 |
| 激活参数量 | 280亿/任务 | 每个任务仅激活11.6%的参数,大幅降低推理时的算力与内存占用 |
| 专家网络数量 | 128个/层 | 多层多专家设计,让不同专家专注于不同类型的通用/科学任务 |
| 激活专家数 | 8个/Token | 智能匹配当前Token的任务类型,激活最优专家组合,保证推理精准度 |
| 视觉编码器 | 60亿参数 InternViT | 专为科学图像优化的视觉编码器,支持448×448分辨率,实现细粒度特征提取 |
轻量化版本Intern-S1-mini则对架构进行了轻量化优化,采用8B语言模型 + 0.3B视觉编码器的组合,在保留核心架构设计(如动态分词器、多模态融合模块)的前提下,大幅降低参数量与硬件要求,同时通过模型压缩与量化技术,保证了核心能力不丢失,让模型能在单卡GPU上实现本地部署。
2. 创新核心组件:四大专属模块,适配科学数据解析
为解决科学领域多模态数据的解析难题,Intern-S1在经典多模态架构的基础上,创新研发了四大专属核心组件,分别针对文本、图像、科学特殊格式、时间序列数据进行优化,实现了全类型科学数据的一体化解析,这也是模型能“读懂”科研数据的核心原因,四大组件如下:
语言模型主体(LLM基础):基于Qwen3-235B MoE打造,是模型的核心推理引擎,负责文本理解、逻辑推理、专业知识生成等任务,在5万亿tokens的大规模数据上完成预训练,具备强大的通用文本能力与科学专业知识储备;
视觉编码器(InternViT):60亿参数的专用视觉编码器,采用45层深度的Transformer架构,隐藏维度达到3200,专门针对科学视觉数据进行优化,支持448×448固定分辨率与动态分辨率输入,能精准处理显微镜图像、分子结构可视化图、实验图表、科研论文插图等科学图像,实现细粒度的视觉特征提取与语义融合;
动态分词器(Dynamic Tokenizer):Intern-S1在科学数据处理方面的核心创新组件,专为SMILES分子式、FASTA蛋白质序列等科学特殊格式数据设计,能智能识别不同类型的科学数据格式,并采用针对性的编码策略,相比传统分词器,化学结构的压缩率提升了70%以上,蛋白质序列的处理速度提高了3倍,大幅提升了科学特殊数据的解析效率与精准度;
时间序列编码器:专为地震信号、实验监测数据、材料性能时序数据等时间序列数据设计的专属组件,能实现高效的时序特征提取与趋势分析,让模型能处理科学研究中的动态时序数据,填补了传统多模态模型在时序数据解析方面的空白。
四大组件通过多模态融合模块实现深度协同,将文本、图像、科学特殊格式、时间序列数据的特征进行统一编码与融合,让模型能实现跨模态的推理与分析,例如根据实验图像与分子式生成合成路线、根据蛋白质序列与文本描述分析其结构与功能,真正实现了多模态科学数据的一体化理解。
3. 训练策略:通专融合的大规模预训练+多任务精调
Intern-S1的训练采用“大规模通用预训练 + 科学领域精调 + 多任务强化学习”的三阶训练策略,核心是实现“通专融合”,让模型既有通用能力的泛化性,又有科学能力的专业性,具体训练流程如下:
大规模多模态预训练:模型在总计5万亿tokens的多模态数据上完成持续预训练,其中超过2.5万亿tokens来自科学领域,占比达50%以上,科学数据覆盖化学、材料、物理、生物、地球科学等多个学科,包括科研论文、实验数据、分子式、蛋白质序列、科学图像等,通用数据覆盖文本、图像、音频等多类型,通过大规模预训练,让模型掌握通用知识与基础科学知识;
科学领域精调:在大规模预训练的基础上,模型在化学、材料、物理等核心科学领域的专属数据集上进行精调,针对分子式解析、合成路线规划、材料性能预测等专业任务进行强化训练,提升模型在科学领域的精准度与推理能力;
多任务强化学习:模型在“InternBootCamp”专属训练环境中,先后经历离线与在线强化学习训练,采用创新的混合奖励学习算法(MoR),能同时对1000多个通用与科学任务进行并行协同优化,通过多任务的强化学习,让模型实现通用能力与科学能力的深度融合,提升跨任务、跨领域的泛化能力。
4. 算法与系统优化:创新算法降低训练与推理成本
Intern-S1在训练与推理阶段采用了多项创新算法与系统优化,大幅提升了效率,降低了大规模科学大模型的开发与使用成本,核心优化点如下:
混合奖励学习算法(MoR):创新的强化学习算法,能同时对1000多个任务进行并行协同优化,相比传统的单任务强化学习,训练效率大幅提升,让模型能在多任务场景下快速收敛;
量化计算优化:模型全面支持FP8、FP4量化计算,在保证性能损失可控的前提下,大幅降低推理时的算力与内存占用,同时兼容国产AI加速卡,提升了硬件兼容性;
训练系统联合优化:通过算法与训练系统的联合优化,模型的大规模强化学习成本降低了10倍,让5万亿tokens的大规模预训练成为可能;
MoE推理优化:针对MoE架构设计了智能专家激活策略,能根据当前任务类型精准匹配最优专家组合,既保证了推理精准度,又让推理时的计算需求降低了约88%;
多模态融合优化:采用跨模态注意力机制,实现文本、图像、科学特殊格式数据的特征深度融合,提升了跨模态推理的效率与精准度。
5. 轻量化优化:Intern-S1-mini的核心优化策略
轻量化版本Intern-S1-mini在保留核心架构与能力的前提下,通过参数量裁剪、模型压缩、量化优化、核心组件轻量化四大策略实现轻量化,让模型能在单卡GPU上部署:
参数量裁剪:将语言模型从235B裁剪至8B,视觉编码器从6B裁剪至0.3B,在保证核心推理模块的前提下,大幅降低参数量;
模型压缩:采用知识蒸馏技术,将全量版本Intern-S1的核心知识蒸馏到轻量化版本中,保证“减身材不减实力”;
量化优化:默认支持FP8量化,在单卡GPU上实现高效推理;
核心组件轻量化:对动态分词器、时间序列编码器等核心组件进行轻量化优化,降低计算成本,同时保留科学数据解析的核心能力。
四、应用场景
Intern-S1凭借其通专融合的能力、全模态的解析能力、多版本的部署选择、开源免费的特性,能广泛应用于科研辅助、材料研发、化学分析、生物研究、教育科普、工业研发、AI二次开发等多个场景,既可为专业科研机构提供高端的科学推理能力,又可为开发者、教育机构提供轻量化的AI工具,以下为核心应用场景的详细解析:
1. 科研辅助:成为科研工作者的“智能科研助手”
Intern-S1是科研工作者的高效智能助手,能覆盖科研全流程的多个环节,大幅提升科研效率。在文献阅读环节,模型能快速解析科研论文中的文本、图表、分子式、蛋白质序列,生成文献摘要、核心结论与创新点分析,节省文献阅读时间;在实验设计环节,模型能根据实验目标、现有条件,生成实验方案、实验步骤与参数建议,同时能分析实验方案的可行性与潜在问题;在数据处理环节,模型能解析实验产生的文本、图像、时序数据,进行数据清洗、特征分析与结果预测;在结论推导环节,模型能根据实验数据进行逻辑推理,生成实验结论与创新点分析,同时能为科研论文的撰写提供思路与框架。此外,模型还能回答科研中的专业问题,提供跨学科的知识支撑,解决科研工作者的知识盲区。
2. 化学领域:分子设计、合成路线规划与反应分析
Intern-S1在化学领域具备顶尖的专业能力,是化学研发的核心AI工具,核心应用包括:SMILES分子式的精准解析与生成,能根据分子结构生成对应的SMILES格式,也能根据SMILES格式生成分子结构;化合物合成路线规划,能根据目标化合物的结构,生成多条可行的合成路线,并分析各路线的优缺点、反应条件与原料要求,部分路线规划能力超越闭源模型;化学反应条件预测,能根据反应物、反应类型,预测最优的反应温度、压力、催化剂等条件;化学实验数据分析,能解析化学实验中的图像、数据图表,分析实验结果与反应规律;新材料分子设计,能根据目标性能(如耐高温、耐腐蚀、高导电性),设计符合要求的分子结构,并预测其性能。
3. 材料领域:材料性能预测与新材料研发
在材料领域,Intern-S1能实现材料性能预测、新材料设计、材料结构分析等核心任务,为材料研发提供AI支撑。模型能根据材料的化学成分、晶体结构,预测其物理性能(如硬度、导电性、导热性)、化学性能(如耐腐蚀性、抗氧化性)与热力学性能(如熔点、沸点、热稳定性),预测精准度在开源模型中位列第一;能根据目标性能要求,设计符合要求的材料化学成分与晶体结构,为新材料研发提供方向;能解析材料的微观结构图像(如显微镜图像),分析材料的结构特点与性能之间的关系,为材料结构优化提供建议;同时能处理材料研发中的时序实验数据,分析材料性能随时间、温度等因素的变化规律。
4. 生物领域:蛋白质序列分析与生物结构解析
在生物领域,Intern-S1能处理FASTA蛋白质序列、生物图像等多类型数据,实现蛋白质序列分析、结构预测、功能分析等核心任务。模型能精准解析FASTA蛋白质序列,分析其氨基酸组成、结构特征与潜在功能;能根据蛋白质序列预测其空间结构,为蛋白质结构研究提供参考;能解析生物显微镜图像(如细胞图像、组织图像),进行图像分割、特征提取与结果分析;能回答生物领域的专业问题,为生物研究提供跨学科的知识支撑。
5. 教育科普:科学教育与科普传播的智能工具
Intern-S1的轻量化版本Intern-S1-mini是科学教育与科普传播的优质工具,能适配中小学、高校、科普机构的多种场景。在学校教育中,模型能为学生提供个性化的科学辅导,解答数学、物理、化学、生物等学科的问题,同时能通过生动的语言解释复杂的科学概念与原理,提升学生的学习兴趣;在高校教学中,模型能为教师提供教学素材、实验设计思路,同时能为研究生提供科研入门指导,帮助其快速掌握科研方法与专业知识;在科普传播中,模型能将专业的科学知识转化为通俗易懂的语言,通过文本、图像等多形式进行科普传播,提升全民科学素养,同时能解答大众的科学问题,实现科学知识的普及。
6. 工业研发:工业材料与化工产品的研发优化
Intern-S1能为工业领域的材料研发与化工产品开发提供AI支撑,助力工业升级与产品创新。在工业材料研发中,模型能根据工业生产的需求,设计符合要求的工业材料(如建筑材料、电子材料、航空航天材料),预测其性能与使用效果,同时能优化材料的生产工艺,降低生产成本;在化工产品开发中,模型能设计新的化工产品配方,规划合成路线,优化反应条件,提升化工产品的质量与生产效率,同时能分析化工生产中的潜在风险,提供安全生产建议。
7. AI二次开发:开源开发者的科学大模型创新底座
Intern-S1作为开源的多模态科学大模型,是AI开发者的优质创新底座,基于Apache 2.0协议,开发者可免费进行二次开发与商用。开发者可基于模型的核心能力,结合特定场景的需求,进行模型微调与定制化开发,打造面向垂直领域的专用AI工具,如化学研发助手、材料性能预测工具、科研文献分析工具等;可将模型集成到各类AI应用中,为应用添加科学推理与多模态解析能力,提升应用的功能与价值;可基于模型的开源代码与架构,进行大模型的技术研究与创新,推动科学大模型的技术发展。此外,上海AI实验室提供了完整的微调工具链与开发文档,降低了开发者的二次开发成本。
8. 跨学科研究:跨学科科研的知识融合与推理支撑
现代科研的发展趋势是跨学科融合,Intern-S1的通专融合能力为跨学科研究提供了核心支撑。模型具备化学、材料、物理、生物、地球科学等多个学科的专业知识,能实现跨学科的知识融合与推理,为跨学科研究提供思路与方向。例如,在材料化学与电子工程的跨学科研究中,模型能同时提供材料化学与电子工程的专业知识,为新型电子材料的研发提供支撑;在生物与材料的跨学科研究中,模型能为生物医用材料的研发提供设计思路与性能预测,助力跨学科研究的突破。
五、使用方法
Intern-S1提供了全量版本与轻量化版本两大版本,适配不同的硬件条件与使用场景,同时支持ollama、lmdeploy、vllm等主流推理框架,提供一键式部署脚本与API服务,兼容OpenAI协议,使用方法简单高效。以下为模型的硬件要求、核心部署方式、调用示例、微调方法的详细说明,兼顾专业科研机构与普通开发者的使用需求:
1. 最低硬件要求
Intern-S1的不同版本、不同量化格式对硬件的要求不同,全量版本适用于高端智算中心与专业科研平台,轻量化版本可在单卡GPU上实现本地部署,具体最低硬件要求如下(均为GPU要求,CPU与内存需搭配主流高性能配置):
Intern-S1(全量版本):A100/H800/H100 8卡,H200 4卡;
Intern-S1-FP8(全量量化版本):H800/H100 4卡,H200 2卡;
Intern-S1-mini(轻量化版本):A100/H800/H100/H200 1卡(主流消费级GPU亦可尝试部署);
Intern-S1-mini-FP8(轻量化量化版本):H800/H100/H200 1卡,支持大部分中高端消费级GPU。
2. 核心部署方式
Intern-S1支持ollama(本地轻量化部署)、lmdeploy(高性能API部署)、vllm(高吞吐推理部署)三种主流方式,均提供详细的部署步骤,以下为最常用的vllm部署方式(以Intern-S1-mini为例),兼顾部署效率与使用体验:
步骤1:开发机与镜像选择
选择支持CUDA的开发机,镜像推荐使用Cuda11.7-conda,GPU选择30% A100及以上(单卡即可)。
步骤2:环境配置
创建专属conda环境,建议使用Python 3.12版本:
conda create -n vllm python=3.12 -y conda activate vllm
安装vllm框架:
pip install vllm
步骤3:启动模型服务
安装完成后,运行以下命令启动Intern-S1-mini模型服务,支持自定义端口、最大模型长度、GPU内存利用率等参数:
vllm serve /root/share/new_models/Intern-S1-mini\ --trust-remote-code \ --port 54257 \ --max-model-len 8000 \ --gpu-memory-utilization 0.90 \ --max-num-seqs 8 \ --swap-space 8 \ --enforce-eager
步骤4:端口转发(远程开发机部署需执行)
若在远程开发机上部署,需通过以下命令进行端口转发,实现本地机器对远程模型服务的调用:
ssh -CNg -L23333:127.0.0.1:54257 root@ssh.intern-ai.org.cn -p 你的ssh端口号
其中,23555为本地端口,54257为远程模型服务端口,需根据实际情况调整。
3. 模型调用示例
Intern-S1部署完成后,支持文本调用、图像调用、多模态混合调用,兼容OpenAI协议,可通过curl命令、Python脚本等多种方式调用,以下为vllm部署后的核心调用示例(以Intern-S1-mini为例):
示例1:纯文本调用
通过curl命令实现纯文本对话,可用于科学问题解答、文本生成、逻辑推理等通用任务:
curl http://localhost:54257/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "/root/share/new_models/Intern-S1-mini",
"messages": [
{"role": "system", "content": "You are a helpful scientific assistant."},
{"role": "user", "content": "请解释一下什么是SMILES分子式,并举一个例子"}
]
}'示例2:网络图像调用
通过curl命令实现网络图像的解析与理解,可用于科学图像分析、图像描述等多模态任务:
curl http://localhost:54257/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "/root/share/new_models/Intern-S1-mini",
"messages": [
{
"role": "user",
"content": [
{ "type": "text", "text": "请详细分析这张分子结构图像的特征与对应的分子式" },
{ "type": "image_url", "image_url": { "url": "https://pic1.imgdb.cn/item/694547bc2ce92a4f93126933.jpg" } }
]
}
]
}'示例3:本地图像调用
通过curl命令实现本地图像的解析与理解,需先将本地图像转换为base64格式,适用于本地实验图像的分析:
curl http://localhost:54257/v1/chat/completions \
-H "Content-Type: application/json" \
-d "$(jq -n --arg img "data:image/jpeg;base64,$(base64 -w 0 /root/share/intern.jpg)" '{
model: "/root/share/new_models/Intern-S1-mini",
messages: [
{
role: "user",
content: [
{type: "text", text: "请描述这张科学实验图像的内容,并分析潜在的实验结果"},
{type: "image_url", image_url: {url: $img}}
]
}
]
}')"4. 模型微调方法
Intern-S1提供了完整的微调工具链,支持基于LLaMA-Factory(适配Intern-S1-mini)与XTuner(适配Intern-S1/InternVL-3.5)的微调,以下为核心微调步骤:
环境配置:根据官方文档,安装对应的Python版本、依赖库与微调框架,建议创建专属conda环境;
数据准备:准备目标场景的微调数据集,支持文本、多模态等多种格式,需按照框架要求进行数据格式化;
微调训练:运行官方提供的微调脚本,设置模型路径、数据集路径、训练轮数、学习率等参数,支持单机单卡、单机多卡、多机多卡训练;
模型保存与部署:微调完成后,保存微调后的模型权重,可通过原部署方式进行部署与使用。
5. 权重文件获取
Intern-S1的所有版本权重文件均开源免费,可在以下主流模型平台获取,支持BF16、FP8、GGUF等多种格式:
HuggingFace:国际主流模型平台,提供全版本、全格式权重文件;
ModelScope:国内主流模型平台,适配国内开发者,提供详细的使用文档。
六、常见问题解答
1. Intern-S1与Intern-S1-mini有什么区别,该如何选择?
Intern-S1是全量版本,总参数量2410亿,具备极致的科学推理与专业处理能力,硬件要求较高,适用于专业科研机构、智算中心的深度研究、大规模推理等场景;Intern-S1-mini是轻量化版本,参数量仅为8B+0.3B,在保留核心科学能力与通用能力的前提下,大幅降低了硬件要求,可在单卡GPU上部署,适用于本地开发、二次创新、教育科普、轻量化推理等场景。选择时可根据自身的硬件条件与使用需求判断,专业科研场景优先选择Intern-S1,轻量化场景优先选择Intern-S1-mini。
2. Intern-S1的开源协议是什么,是否支持商用?
Intern-S1采用Apache 2.0开源协议,该协议允许免费商用、修改、分发、二次开发,仅需保留原版权声明与协议声明,无需额外授权,对企业、科研机构、开发者均无商业使用门槛。
3. Intern-S1支持哪些推理框架,是否兼容OpenAI协议?
Intern-S1全面支持ollama、lmdeploy(≥0.9.2.post1)、vllm(≥0.10.1)等主流LLM推理框架,不同框架适配不同的使用场景,ollama适用于本地轻量化部署,lmdeploy适用于高性能API部署,vllm适用于高吞吐推理部署。同时,模型的所有部署方式均兼容OpenAI协议,可通过OpenAI的标准API进行调用,无需修改现有代码,大幅降低了开发者的使用成本。
4. Intern-S1能处理哪些类型的科学数据,是否需要额外的格式转换?
Intern-S1是全模态科学大模型,原生支持文本、科学图像、SMILES分子式、FASTA蛋白质序列、地震信号、实验时序数据等多种类型的科学数据,无需额外的格式转换或插件适配,可直接解析与处理。对于科学领域的特殊格式数据(如分子式、蛋白质序列),模型通过创新的动态分词器实现精准识别与解析,处理效率与精准度远高于传统通用大模型。
5. 普通开发者没有高端GPU,能否使用Intern-S1?
可以,普通开发者可选择Intern-S1-mini-FP8轻量化量化版本,该版本仅需1卡中高端消费级GPU即可部署,同时支持GGUF格式的本地轻量化部署,无需高端智算中心资源。此外,上海AI实验室还提供了在线体验平台,开发者可直接在网页上体验模型的核心能力,无需本地部署。
6. Intern-S1在科学领域的性能如何,与闭源模型相比有优势吗?
Intern-S1在科学领域的性能处于国际领先水平,在ChemBench、MatBench等化学、材料领域核心基准测试中位列开源模型第一,部分指标(如分子合成路线规划、晶体热力学稳定性预测)甚至超越了闭源模型。在通用能力方面,模型在MMLU-Pro、MMMU等基准测试中稳居开源第一梯队,比肩国内外一流通用大模型,是当前综合性能最优的开源多模态科学大模型。
7. 如何对Intern-S1进行二次开发与微调,是否有相关的工具链与文档?
上海AI实验室为Intern-S1提供了完整的二次开发工具链与详细的开发文档,支持基于LLaMA-Factory(适配Intern-S1-mini)与XTuner(适配Intern-S1/InternVL-3.5)的微调,官方GitHub仓库提供了详细的环境配置、依赖安装、数据准备、微调训练步骤,同时提供了微调脚本与示例数据集。此外,模型的开源社区也有大量的开发者分享二次开发经验与教程,可作为参考。
8. Intern-S1支持哪些硬件平台,是否兼容国产AI加速卡?
Intern-S1全面支持NVIDIA A100/H800/H100/H200等高端GPU,同时兼容国产AI加速卡(如昇腾、寒武纪等),模型针对国产硬件进行了深度的适配与优化。此外,模型支持FP8、FP4量化计算,能在各类硬件平台上实现高效推理,大幅降低了硬件使用成本。
9. Intern-S1的训练数据来源是什么,是否涉及版权问题?
Intern-S1的训练数据包括公开的通用多模态数据与开源的科学领域数据,所有数据均来自合法开源渠道,包括公开的科研论文、实验数据、科学数据库、开源文本与图像数据等,未使用任何受版权保护的非公开数据,不存在版权问题。同时,模型采用Apache 2.0开源协议,用户可放心使用。
10. Intern-S1是否支持多语言,能否处理英文的科学数据与问题?
Intern-S1在训练阶段使用了大量的中英文通用数据与科学数据,原生支持中英文双语,能精准处理英文的科学数据、科研论文、专业问题,同时能实现中英文的互译与跨语言推理,适用于全球科研与开发场景。
11. 部署Intern-S1时,出现GPU内存不足的问题该如何解决?
部署时出现GPU内存不足的问题,可通过以下三种方式解决:1. 选择对应的量化版本,如FP8、GGUF量化版本,大幅降低内存占用;2. 调整部署脚本中的参数,降低GPU内存利用率、最大模型长度、最大序列数等;3. 若为全量版本,可增加GPU卡数,或更换更高性能的GPU(如H200)。对于普通开发者,优先推荐使用Intern-S1-mini量化版本,可有效解决内存不足的问题。
七、相关链接
官方GitHub代码仓库:https://github.com/InternLM/Intern-S1
官方在线体验平台:https://chat.intern-ai.org.cn/
技术报告/论文链接:https://arxiv.org/abs/2508.15763
HuggingFace文件地址:https://huggingface.co/collections/internlm/intern-s1-6882e325e8ac1c58ba108aa5
ModelScope文件地址:https://modelscope.cn/collections/Intern-S1-29b3100f15e240
八、总结
Intern-S1是上海人工智能实验室开源的通专融合多模态科学推理大模型,也是当前综合性能最优的开源科学大模型,其核心价值在于打破了通用大模型与专业模型的壁垒,通过235B MoE语言模型搭配6B InternViT视觉编码器的架构设计、5万亿tokens(含2.5万亿科学领域tokens)的大规模预训练、创新的动态分词器与混合奖励学习算法,实现了通用能力与顶尖科学专业能力的深度融合,原生支持文本、科学图像、分子式、蛋白质序列等全类型科学数据的一体化解析,在化学、材料、物理等多学科基准测试中斩获开源模型第一,部分指标超越闭源模型。实验室同时推出了轻量化版本Intern-S1-mini,在8B参数量级中实现了通用与科学能力的双领先,可在单卡GPU上部署,兼顾了高性能与易用性。该模型支持ollama、lmdeploy、vllm等主流框架部署,提供完整的微调工具链与开源生态,采用Apache 2.0协议,允许免费商用与二次开发,权重文件可在HuggingFace、ModelScope等平台获取,同时提供在线体验平台、技术报告、开发文档等丰富资源。Intern-S1的开源,为全球科研工作者提供了高效的智能科研助手,为材料、化学、生物等领域的研发提供了AI支撑,为教育科普提供了优质工具,也为AI开发者打造了科学大模型的创新底座,其通专融合的技术路线也为通用人工智能的发展提供了重要的参考方向,真正实现了“用开源AI赋能全域科研创新”的核心目标。
版权及免责申明:本文由@dotaai原创发布。该文章观点仅代表作者本人,不代表本站立场。本站不承担任何相关法律责任。
如若转载,请注明出处:https://www.aipuzi.cn/ai-news/intern-s1.html

