阿里通义 Qwen3-VL 新增 2B、32B 两个模型尺寸,手机也能轻松运行
阿里通义千问近日宣布,Qwen3-VL 家族迎来了新的成员,新增了2B 和32B 两种密集模型尺寸。这一扩展使得模型覆盖了从轻量级到高性能的视觉语言理解场景,开发者可以在手机等设备上运行这些模型,极大地方便了开发与应用。
此次推出的两种模型版本各有特色。首先是 Instruct 模型,该模型具有响应速度快、执行稳定的优势,特别适合用于对话系统及工具调用。其次是 Thinking 模型,这一版本则在长链推理和复杂视觉理解方面表现出色,具备 “看图思考” 的能力,可以处理更具挑战性的任务。
根据官方发布的信息,Qwen3-VL-32B 在多个领域的表现均优于市场上的一些竞争对手,如 GPT-5mini 和 Claude4Sonnet。它仅使用32B 参数就能够与高达235B 参数的模型相媲美,甚至在 OSWorld 上取得了优异的成绩。与此同时,Qwen3-VL-2B 则以其小巧的体量,在极限端侧设备上也能实现令人惊讶的性能表现,适合开发者进行实验和部署。
对于有兴趣的开发者,阿里通义还提供了体验链接,方便用户在 ModelScope 和 Hugging Face 上试用这些新模型。这些模型的推出不仅扩展了阿里通义在人工智能领域的产品线,也为视觉语言理解的应用提供了更多可能。
划重点:
🌟 新增模型:阿里通义 Qwen3-VL 家族新增2B 和32B 两种密集模型尺寸。
📱 设备兼容:新模型可在手机等设备上运行,便于开发者使用。
🏆 性能卓越:Qwen3-VL-32B 在多领域表现优于许多竞争对手。
空空如也!