
2025年9月3日,上海人工智能实验室宣布开源通用多模态大模型书生・万象3.5(InternVL3.5),该模型推理能力、部署效率与通用能力全面升级,在多模态通用感知等方面表现卓越,超越GPT – 5等主流模型,还在多种特色任务上实现显著提升,同时开源9种尺寸模型以满足各场景需求。
书生・万象3.5的开源及性能亮点
上海人工智能实验室于9月3日宣布开源通用多模态大模型书生・万象3.5(InternVL3.5)。此次开源有9种尺寸的模型,参数涵盖10亿 – 2410亿,可满足不同场景需求。其中,旗舰模型InternVL3.5 – 241B – A28B在多学科推理基准MMMU中获得77.7分,为开源模型中的最高分。其多模态通用感知能力超越GPT – 5,文本能力领跑主流开源多模态大模型。
相较前代的显著提升
与InternVL3.0相比,InternVL3.5在图形用户界面(GUI)智能体、具身空间感知、矢量图像理解与生成等多种特色任务上实现显著提升。上海AI实验室研究团队重点强化了InternVL3.5面向实际应用的智能体与文本思考能力,在GUI交互、具身空间推理和矢量图形处理等多个关键场景实现从“理解”到“行动”的跨越,并得到多项评测验证。
关键场景下的出色表现
在GUI交互部分,InternVL3.5在ScreenSpot – v2元素定位任务以92.9分超越同类模型,同时支持Windows / Ubuntu自动化操作,并在WindowsAgentArena任务大幅领先Claude – 3.7 – Sonnet。在具身智能体测试中,InternVL3.5表现出理解物理空间关系并规划导航路径的能力,在VSI – Bench以69.5分超过Gemini – 2.5 – Pro。在矢量图形理解与生成方面,InternVL3.5在SGP – Bench以70.7分刷新开源纪录,生成任务FID值也优于GPT – 4o和Claude – 3.7 – Sonnet。
实际应用能力展示
InternVL3.5可跨Windows、Mac、Ubuntu、Android等多个平台,识别界面元素并自主执行鼠标、键盘操作,实现恢复已删除文件、导出PDF、邮件添加附件等任务的自动化。它具备更强的grounding能力,可以泛化到全新的复杂大量小样本的具身场景,配合抓取算法,支持可泛化的长程物体抓取操作,助力机器人更高效地完成物品识别、路径规划与物理交互。
书生・万象系列影响力及相关开源链接
作为上海AI实验室书生大模型体系的重要组成部分,InternVL聚焦视觉模型技术,InternVL全系列全网下载量已突破2300万次。
相关开源地址如下: