最强视觉理解模型Qwen3-VL发布,32项评测超过Gemini2.5-Pro和GPT5

电商派
2025-09-24 14:17

9月24日的2025云栖大会上,阿里开源新一代视觉理解模型Qwen3-VL。该模型在视觉感知和多模态推理方面实现重大突破,在32项核心能力测评中超过Gemini2.5-Pro和GPT-5。同时,Qwen3-VL大幅提升了视觉Agent、视觉编程和空间感知等关键能力,不但可调用抠图、搜索等工具完成“带图推理”,也可以凭借一张设计草图或一段小游戏视频直接“视觉编程”,“所见即所得”地复刻图表、网页和复杂程序。

watermark,image_d2F0ZXJtYXJrLnBuZz94LW9zcy1wcm9jZXNzPWltYWdlL3Jlc2l6ZSxQXzEy,g_south,t_55,x_1,y_20

【图说】:Qwen3-VL-235B-A22 Instruct测评分数

本次开源的是旗舰版Qwen3-VL-235B-A22B,有开源指令(Instruct)模型和推理(Thinking)模型两大版本。Qwen3-VL展现了在复杂视觉任务中的强大泛化能力与综合性能,在逻辑谜题、通用视觉问答、多语言文本识别与图表文档解析、二维与三维目标定位、具身与空间感知、视频理解等32项具体测评中,指令版Qwen3-VL超越了Gemini2.5-Pro 和 GPT5 等闭源模型,同时刷新了开源多模态模型的最佳成绩。推理版Qwen3-VL多模态思考能力显著增强,在 MathVision、MMMU、MathVista 等权威评测中达到领先水平。

Qwen3-VL拥有极强的视觉智能体和视觉Coding能力,几乎刷新所有相关评测的最佳性能。Qwen3-VL 不仅能看懂图片,还能像人一样操作手机和电脑,自动完成许多日常任务,例如打开应用、点击按钮、填写信息等,实现智能化的交互与自动化操作。输入一张图片,Qwen3-VL可自行调用Agent工具放大图片细节,通过更仔细的观察分析,推理出更好的答案;看到一张设计图,Qwen3-VL 就能生成Draw.io/HTML/CSS/JS 代码,“所见即所得”地完成视觉编程,真正推动大模型从“识别”迈向“推理与执行”。

Qwen3-VL可支持扩展百万tokens上下文,视频理解时长扩展到2小时以上。这意味着,无论是几百页的技术文档、整本教材,还是长达数小时的会议录像或教学视频,都能完整输入、全程记忆、精准检索。Qwen3-VL还能根据时间戳精确定位“什么时候发生了什么”,比如“第15分钟穿红衣服的人做了什么”、“球从哪个方向飞入画面”等,都能准确回答。

watermark,image_d2F0ZXJtYXJrLnBuZz94LW9zcy1wcm9jZXNzPWltYWdlL3Jlc2l6ZSxQXzEy,g_south,t_55,x_1,y_20

【图说】:Qwen3-VL的3D检测能力增强,未来可协助机器人等具身智能判断物体的方位。

大模型的空间理解能力是实现具身智能的基础,Qwen3-VL 专门增强了3D检测(grounding)能力,可以更好地感知空间。当前,机器人想要轻松抓住桌上的一个苹果,并不容易。凭借Qwen3-VL强大的3D检测能力,未来可让机器人更好地判断物体方位、视角变化和遮挡关系,从而准确判断苹果的位置与自身距离,实现精准抓取。

据了解,千问视觉理解模型已实现广泛落地,比如国家天文台联合阿里云发布的全球首个太阳大模型“金乌”,正是基于 Qwen-VL 等模型以超过 90 万张太阳卫星图像为样本完成微调训练。未来,Qwen3-VL模型还将开源更多尺寸版本。即日起,用户可在通义千问QwenChat上免费体验Qwen3-VL,也可通过阿里云百炼平台调用API服务。

1、该内容为作者独立观点,不代表电商派观点或立场,文章为作者本人上传,版权归原作者所有,未经允许不得转载。
2、电商号平台仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。
3、如对本稿件有异议或投诉,请联系:info@dsb.cn
相关阅读
9月24日消息,在2025栖大会上,阿里智能集团首席技术官周靖人分享中透露,截至目前,通义千问已累计开放300+开源模型,覆盖全尺寸、全模态模型,开源模型下载量已经突破6亿+。大会上,阿里还新发布了Qwen3-VL等多款模型。据周靖人透露,通义万象目前已经生成了超过3.9亿张图片,7000万多个视频。
9月25日消息,交银国际发布研报称,按SOTP上调阿里巴巴-W目标价,由159港元升至195港元,维持“买入”评级。报告指,阿里大会9月24日召开,发布多款模型,包括Qwen3-Max、视觉语言模型Qwen3-VL、全模态模型Qwen3-Omni,并展示AI技术突破与生态布局。阿里积极推进此前3800亿元人民币AI基础设施建设,并计划追加投资,预计到2032年,阿里全球数据中心能耗提升10倍。该行认为,阿里在芯片算力、应用及服务全栈式布局已经形成,将推动国内AI应用加速落地。
1月26日消息,阿里公布多模态大模型研究进展。通义千问视觉理解模型Qwen-VL再次升级,继Plus版本之后,再次推出Max版本,升级版模型拥有更强的视觉推理能力和中文理解能力,能够根据图片识人、答题、创作、写代码,并在多个权威测评中获得佳绩。
8月26日消息,阿里推出大规模视觉语言模型Qwen-VL,一步到位、直接开源。Qwen-VL以通义千问70亿参数模型Qwen-7B为基座语言模型研发,支持图文输入,具备多模态信息理解能力。在主流的多模态任务评测和多模态聊天能力评测中,Qwen-VL取得了远超同等规模通用模型的表现。Qwen-VL是支持中英文等多种语言的视觉语言模型,相较于此前的VL模型,Qwen-VL除了具备基本的图文识别、描述、问答及对话能力之外,还新增了视觉定位、图像中文字理解等能力。
8月25日消息,阿里今日推出大规模视觉语言模型Qwen-VL,并对其直接开源。Qwen-VL以通义千问70亿参数模型Qwen-7B为基座语言模型研发,支持图文输入。相较于此前的VL模型,Qwen-VL除了具备基本的图文识别、描述、问答及对话能力之外,还新增了视觉定位、图像中文字理解等能力,可用于知识问答、图像标题生成、图像问答、文档问答、细粒度视觉定位等场景。
12月31日消息,阿里宣布本年度第三轮大模型降价,通义千问视觉理解模型全线降价超80%。其中Qwen-VL-Plus直降81%,输入价格仅为0.0015元/千tokens,创下全网最低价格;更高性能的Qwen-VL-Max降至0.003元/千tokens,降幅高达85%。按照最新价格,1块钱可最多处理约600张720P图片,或1700张480P图片。
4月7日消息,中国科学院青藏高原研究所近日联合阿里发布了水能粮多模态推理大模型“洛书”。“洛书”大模型集成了科学模型“思源”(Hydro Trace)和千问推理模型QwQ-32B以及多模态模型Qwen2.5-VL,可对特定区域在不同时间尺度的来水量和来源进行精准分析和预测,进而助力调节水资源管理中供水、发电与粮食生产需求的动态平衡。
7月24日消息,阿里公布AI编程大模型Qwen3-Coder定价,每百万Tokens最低输入和输出价格分别为4元和16元。此外,2025年7月23日至8月23日期间,上下文长度128K-256K、128K-1M版本可享五折优惠。