据可靠消息,苹果在自主研发 Siri 大模型的进程中遭遇了技术瓶颈,目前已对战略方向作出调整。彭博社知名记者马克・古尔曼在其最新一期 Power On 通讯中透露,苹果现已转向付费模式,委托谷歌为其量身定制一款基于 Gemini 架构的大语言模型。
此次合作的背景是苹果在 AI 研发领域长期面临的技术挑战。此前有报道指出,苹果工程师在优化 Siri 功能时遇到诸多困难,特别是在银行等关键场景的应用中,难以实现稳定、高效的任务执行。为突破这一困境,苹果决定引入谷歌成熟的 Gemini 模型,以弥补自身在复杂 AI 任务处理方面的不足。
根据苹果新的技术架构,Siri 的 AI 任务处理将采用“端云协同”的混合模式。对于简单的 AI 请求,系统会优先利用设备自身的计算资源在本地完成;而对于复杂的查询,则会通过加密的无状态数据,将其转交给部署在苹果“私有云计算”服务器上的定制版 Gemini 模型处理。这种模式既能充分发挥大模型的强大能力,又能有效保护用户数据隐私,因为服务器不会存储任何个人信息。
升级后的 Siri 将具备三大核心组件,以实现更智能的用户交互。首先是“查询规划器”,它能够智能判断用户请求的最佳实现路径,决定是调用网页搜索、访问个人数据,还是通过 App Intents 框架调用第三方应用功能。其次是“知识搜索系统”,该系统为 Siri 构建了一个通用知识库,使其能够直接回答常识性问题。最后是“摘要器”,它能够利用大模型能力,对通知、邮件、网页乃至音频内容进行高效总结。
苹果计划分阶段推出这些强大的 AI 新功能。预计在 2026 年春季发布的 iOS 26.4 更新中,用户将能够体验到包括应用内语音操控、基于个人上下文的精准服务等功能。而在 2026 年 6 月的全球开发者大会(WWDC)上,随 iOS 27 一同亮相的更新将带来更多人工智能技术突破,有望彻底重塑 Siri 的用户体验。
尽管苹果将引入谷歌的 Gemini 模型,但该公司仍计划将该服务包装为自家的核心技术进行对外推广。这一策略旨在保持苹果在 AI 领域的品牌影响力,同时借助外部技术加速 Siri 的智能化进程。












