科技·商业·财经

谷歌Gemma 4开放权重模型登场:开源协议革新,全场景智能生态新突破

   时间:2026-04-04 04:59 作者:钟景轩

谷歌DeepMind近日正式推出全新开放权重模型系列Gemma 4,采用Apache 2.0许可证替代此前备受争议的专属协议。这一转变被Hugging Face联合创始人Clément Delangue称为"开源生态的重要里程碑",意味着企业可自由部署、修改及商业化应用,无需担忧法律条款变更风险。该系列模型与谷歌旗舰级Gemini共享技术底座,标志着前沿AI研究成果首次以开放形式向开发者全面开放。

Gemma 4系列包含四个版本,覆盖从移动端到数据中心的全场景需求。工作站级模型提供两种选择:310亿参数的稠密模型专注极致输出质量,在AIME 2026数学测试中取得89.2%的准确率;260亿参数的混合专家模型通过动态激活128个专家模块中的部分单元,实际运行参数仅38亿,在保持88.3%数学准确率的同时,推理速度提升40%。这两个大模型均支持25.6万token的超大上下文窗口,可一次性处理完整代码库或长篇文档。

针对边缘设备优化的E2B和E4B模型展现突破性创新。E2B采用分层嵌入技术,将51亿参数压缩至23亿实际计算量,在保持性能的同时降低功耗;E4B则通过类似技术使80亿参数模型达到45亿参数的运行效率。这两个轻量级模型新增本地语音处理能力,支持实时语音识别与翻译,所有计算均在设备端完成,确保用户数据隐私安全。

在开发友好性方面,全系列模型原生支持函数调用与结构化输出,开发者可构建自主决策的智能体系统。本地化代码生成功能使模型能作为AI编程助手直接运行于个人电脑,避免云端传输带来的安全风险。视觉能力显著升级,支持70至1120块的可变分辨率图像分割,可灵活应对简单分类到复杂OCR识别的不同任务需求,更具备多图同步分析与视频帧序列处理能力。

性能测试数据显示,310亿参数模型在LiveCodeBench编程测试中取得80.0%准确率,Codeforces算法竞赛评分达2150分,其混合专家版本也分别获得77.1%和相近水平表现。边缘模型同样表现亮眼,E4B在相同测试中取得42.5%和52.0%的成绩,超越前代270亿参数的Gemma 3模型。这种"小体积、高性能"的特性获得开发者社区"这么小,这么牛"的高度评价。

技术部署层面,谷歌提供完整的本地化运行方案。260亿参数模型经4位量化后可适配24GB显存的消费级显卡,310亿参数版本量化后也能在普通工作站运行。同步推出的量化感知训练技术确保模型精度损失控制在3%以内。目前该系列已登陆Hugging Face、Kaggle等主流平台,获得vLLM、SGLang等推理框架支持,开发者可即刻下载使用。

硬件生态合作取得实质性进展。高通与联发科针对Gemma 4小模型完成芯片级优化,使移动端推理能效提升35%。安卓开发者可通过AICore预览版体验智能体工作流,未来将与Gemini Nano 4实现无缝兼容。这种软硬协同的优化策略,使消费级设备得以运行接近前沿闭源模型的智能系统。

自初代Gemma发布以来,该系列累计下载量突破4亿次,社区衍生出超过10万个定制版本。Gemma 4的推出标志着谷歌AI战略的重要转向——通过开放最先进的技术成果,构建开发者主导的创新生态。这种转变不仅消除了企业用户长期担忧的法律风险,更为AI技术的普及化应用开辟了新路径。

 
 
更多>同类内容
全站最新
热门内容