(以下内容从东吴证券《端侧AI周跟踪:Google发布Gemma 4,模型能力跃迁催化终端硬件升级周期》研报附件原文摘录)
投资要点
Google发布Gemma4开源模型,Agent与多模态能力全面增强:4月3日,Google发布新一代开源语言模型Gemma4,包括E2B、E4B、26B(MoE)及31B(Dense)四个版本。Gemma4全系模型支持以下能力:
Agent和复杂推理:支持多步骤推理与复杂逻辑规划,具备面向Agent场景的自主工作流执行能力,可调用多种工具与API。
多模态:所有模型原生支持图像与视频处理,并在OCR与图表理解等任务中表现突出,其中E2B/E4B版本额外支持原生音频输入。
离线代码生成:支持本地环境下代码生成。
长上下文:小模型支持128K上下文窗口,大模型最高支持256K上下文,显著提升长文档与复杂任务处理能力。
多语言能力:已在超过140种语言上进行原生训练。
技术迭代聚焦内存效率与多模态能力下沉,提升端侧任务承载能力并扩大设备覆盖范围:从技术演进路径来看,Gemma4的迭代围绕内存、交互能力等端侧部署的核心瓶颈进行优化。具体来看,1)在模型架构层面延续Per-Layer Embeddings(PLE)机制,以E2B为例,总参数约5B,但实际推理仅需加载约2B核心权重,其余通过CPU按需调用,这一变化降低终端硬件的使用门槛,使模型可在当前存量中端设备上运行,扩展了端侧AI的可触达设备基数。2)在长上下文能力上,通过“交替式滑动窗口+全局注意力”以及Shared KV Cache设计,大幅优化内存使用效率:多数层仅处理局部token,少数层负责全局建模,同时复用缓存避免重复计算,使KV缓存需求较传统全注意力机制下降74%。在端侧内存受限的背景下,这一优化直接决定模型是否具备处理长文档、多轮对话等真实工作负载的能力,是端侧AI走向生产力工具的关键。3)在能力边界上,Gemma4将视觉+音频的原生多模态能力首次下沉至2B级模型,为手机端实现理解屏幕、语音交流、跨应用操作等常用功能提供技术基础。整体来看,我们认为Gemma4通过架构创新一方面显著提升端侧模型对日常多模态任务的处理能力,另一方面有效降低硬件门槛、扩大可触达设备范围,对端侧AI产业节奏具有加速意义。
开源协议全面放开叠加Android体系落地,驱动端侧硬件升级与新一轮换机周期开启:从生态角度看,Gemma系列前几代版本使用Google自定义许可证,对商用场景存在一定限制。本次Gemma4切换至Apache2.0协议,在无强制使用政策约束的前提下提供完全商业自由,显著降低企业采用门槛,有望吸引更多开发者与商业客户回流。另一方面,Gemma4将作为Gemini Nano4的基础模型,并计划于年内落地新一代旗舰Android设备,承担下一代端侧模型基座角色。据官方披露,自首代发布以来Gemma累计下载量已超过4亿次,拥有超过10万个衍生模型,初步形成Gemmaverse开发者生态。我们认为在开源协议放宽与Android体系导入的双重驱动下,Gemma4所代表的端侧模型能力升级有望显著拓展端侧AI能力边界,并进一步催化终端硬件性能升级与新形态产品创新,带动新一轮换机周期与品类突破。
风险提示:技术创新不及预期风险,终端需求不足风险,宏观环境风险。