昨晚,通义千问团队在社交平台X上发布了Qwen3.5系列小模型,包含0.8B、2B、4B、9B四个参数规模版本。这一消息引发广泛关注,特斯拉创始人马斯克在评论区留言称“Impressive intelligence density(令人印象深刻的智能密度)”,相关话题迅速在国内社交媒体引发热议。
Qwen3.5-9B的表现尤为亮眼。在GPQA Diamond测试中,该模型以90亿参数达到与某1200亿参数开源模型相近的81.7分。这种“以小搏大”的能力,源于其架构创新——通过融合“门控增量网络”与“稀疏混合专家”技术,模型在推理时仅激活与任务相关的神经元,如同图书馆配备智能检索系统,仅需调用核心藏书即可完成解答。这种设计显著降低了计算资源消耗,使训练成本与推理能耗大幅下降。
多模态处理能力是另一大突破。Qwen3.5采用“早期融合”架构,将文本、图像、视频数据在底层统一处理,而非传统模型的“堆叠式”设计。这一改进使0.8B迷你模型在视觉任务中表现突出:在MathVista测试中取得62.2分,OCRBench测试达74.5分。开发者评价称,这种设计让本地AI应用真正具备实用价值。
硬件适配性提升带来革命性变化。据测算,当前3万美元硬件即可实现去年需20万美元GPU才能达到的推理性能。更有开发者在iPhone 17 Pro上,通过MLX框架成功运行Qwen3.5-2B的6-bit版本,实现实时视觉理解与问答功能。这意味着用户无需依赖云端,即可在本地设备运行具备多模态能力的AI模型,数据隐私与响应速度得到双重保障。
端侧部署优势在可穿戴设备领域尤为明显。阿里已将Qwen小模型集成至AI眼镜,实现毫秒级视觉解析。这种设计解决了云端大模型的物理延迟问题——当用户佩戴AI眼镜询问前方障碍物时,本地模型可即时响应,而无需等待数据上传、计算与返回的全过程。类似技术正被应用于工业物联网、医疗监测等对数据隐私敏感的场景。
硬件生态布局同步加速。3月2日,千问AI眼镜开启预售,G1系列叠加补贴后最低售价1997元,3月8日正式发售。在巴塞罗那MWC展会上,海外观众排队体验该产品,美国用户特别称赞其换电设计有效缓解续航焦虑。据内部消息,AI指环、AI耳机等新品将于年内陆续上市,形成覆盖多场景的硬件矩阵。
底层技术协同是核心支撑。阿里平头哥1月底推出的“真武810E”AI芯片,性能对标英伟达H20,已部署多个万卡集群服务400余家客户。该芯片与通义实验室模型、阿里云算力形成“黄金三角”,实现从芯片架构到模型优化的全链路协同。这种深度耦合使Qwen3.5部署显存占用降低60%,推理吞吐量提升19倍,为端侧应用提供关键技术保障。
商业生态构建展现战略野心。春节期间,千问APP“一句话下单”功能使用量近2亿次,日活用户达7352万,增幅居国内AI应用首位。从聊天机器人到国民级生活助手,千问正通过硬件拓展服务边界——想象未来佩戴AI眼镜的用户,扫一眼餐厅即可获取评价并完成订位,异国街头菜单实时翻译,骑行路线语音记录,这些场景依赖的不仅是模型智能,更是背后覆盖支付、出行、本地服务的庞大生态网络。









