返回列表 发布新帖
查看: 19|回复: 0

[人工智能] 阿里通义Qwen3-VL新增2B、32B两个密集模型尺寸

发表于 前天 14:02 | 查看全部 |阅读模式

这里或许是互联网从业者的最后一片净土,随客社区期待您的加入!

您需要 登录 才可以下载或查看,没有账号?立即注册

×
本帖最后由 as22 于 2025-10-22 14:14 编辑

10月22日消息,据通义千问宣布,Qwen3-VL家族再扩列:新增 2B 与 32B 两个密集(Dense)模型尺寸,从轻量级到甜品级,全线覆盖视觉语言理解场景。
提供两种版本自由选择:

Instruct:响应更快、执行更稳,适合对话与工具调用;

Thinking :强化长链推理与复杂视觉理解,能“看图思考”,应对高难任务更出色。

6C110AEC-22ED-4840-8EBD-8F17DF912085.png

AB2A387C-8FB1-4907-B44E-BA5102D30EFC.png

据介绍,Qwen3-VL-32B在 STEM、VQA、OCR、视频理解、代理任务等方面的表现优于 GPT-5 mini 和 Claude 4 Sonnet,仅使用 32B 参数即可匹敌高达 235B 的模型,甚至在 OSWorld 上击败了它们!另外,Qwen3-VL-2B则在小体量下释放惊人表现,能跑在极限端侧设备上,开发者实验、部署都更轻盈。

截至目前,Qwen3-VL共开源 2B、4B、8B、32B四款Dense模型以及30B-A3B、235B-A22B两款MoE模型,每款模型均推出Instruct和Thinking两大版本,以及12个模型相应的FP8量化版,累计24个Qwen3-VL开源权重模型均可在魔搭社区和Hugging Face免费下载商用。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright © 2001-2025 Suike Tech All Rights Reserved. 随客交流社区 (备案号:津ICP备19010126号) |Processed in 0.104429 second(s), 7 queries , Gzip On, MemCached On.
关灯 在本版发帖返回顶部
快速回复 返回顶部 返回列表