近日,据知情人士透露,苹果公司正在开发一款独立的Siri应用,该应用不仅能记录对话历史,还能上传文件进行分析。同时,苹果计划在系统级引入“Ask Siri”功能,使用户能够直接在任何应用中通过AI处理选中的内容。
苹果预计将在今年6月8日举行的全球开发者大会(WWDC)上展示这款新版Siri,它将作为iOS 27和macOS 27操作系统的一部分发布。不过,苹果发言人对此没有做出评论。
新版Siri代号为Campo,旨在更好地控制iPhone和Mac设备的各类功能,调取信息、备忘录、邮件等个人数据来完成用户的指令。此外,这款新版Siri还能在应用内执行任务,提供新闻内容,并利用苹果自家的界面和模型体系检索公开网络信息。
最重要的变化是,新版Siri将引入对话式交互,用户可以通过文字和语音与Siri进行连续对话,而不再像现在这样仅限于一次性的问答模式,缺乏上下文的记忆功能。
自从“苹果智能”计划未能达到预期目标后,苹果一直在努力围绕新版Siri构建其AI平台。本次调整还包括了对操作系统级别的重构。苹果正在测试以Siri取代Spotlight桌面搜索工具,实现本地内容检索与互联网查询的统一,并通过AI生成能力提供更全面的答案和摘要。这标志着苹果对Siri的定位发生了根本性的转变,从一个传统的语音命令工具转变为深度整合全系统应用的AI智能体。
苹果软件工程高级副总裁克雷格·费德里吉在2025年全球开发者大会主题演讲后接受《Tom’s Guide》采访时曾表示,苹果不希望用户必须去某个聊天界面才能完成任务。然而,随着ChatGPT的快速普及,苹果的新版Siri正朝着之前刻意避开的方向发展。尽管如此,苹果仍然不会把这项新技术定义为聊天机器人。
苹果公司正在测试一款独立的Siri应用,该应用面向iPhone、iPad和Mac,是苹果向对话式AI转型的关键一步。该应用的主界面将展示历史对话,用户可以保存常用对话、搜索过往记录,并通过明显的“+”按钮发起新对话。这种设计使Siri首次具备了持续会话管理的能力,而不再局限于一次性指令响应。

在具体的交互层面上,新应用采用消息线程的结构,包含气泡式对话界面、文本输入框以及语音模式切换开关,同时支持上传文档、图片等附件进行分析处理。这些功能已成为主流AI产品的标配,表明苹果正在弥补Siri在多模态和复杂任务处理方面的不足。
页面设计支持浅色与深色模式切换,更接近统一的系统体验,而不仅仅是界面的更新。整体来看,独立的Siri应用是将Siri从工具型助手转变为持续对话平台的重要一步。
用户可以通过电源键或语音命令激活Siri,但原有的屏幕边缘发光效果将被新的交互形态取代。目前的测试方案之一是将Siri嵌入到灵动岛区域,在激活后提供统一的“Search or Ask”入口,将传统搜索与对话提问整合在同一界面。
在处理请求时,系统会显示带有“Siri”图标的“Searching”状态提示,并以胶囊形态呈现。待结果生成后,界面将扩展为更大的半透明面板,采用苹果的“液态玻璃”设计语言,用户可以继续下拉界面进入多轮对话,实现多轮交互。
据报道,最终界面方案仍未确定,苹果的人机交互团队正在测试多种设计路径。这一轮调整的重点在于将Siri从独立功能转为统一入口,让搜索、问答与操作请求在同一界面内完成,减少不同交互路径之间的切换成本。
苹果公司正计划用Siri取代现有的Spotlight搜索系统,以统一本地搜索与AI生成能力。用户既可以查找设备内的应用和文件,也可以直接发起更开放的问题请求,实现“搜索”与“提问”入口的合并。
新版Siri将不再只返回简单链接或列表,而是能够基于网页内容生成更完整的答案,包括摘要、要点整理以及配图信息,同时整合苹果新闻内容生成更深入的新闻总结。这被视为苹果对标谷歌Gemini和Perplexity等AI搜索产品,推动搜索体验向生成式结果过渡。
苹果公司正在通过新增入口将Siri更深地嵌入操作系统,使其直接参与用户的日常操作流程。例如,系统级“Ask Siri”开关将出现在各类内置应用菜单中,用户可以将选中的文本或内容片段发送至新的Siri对话中进行处理。

同时,苹果还在测试“Write with Siri”功能入口,将其置于键盘顶部,用于直接调出写作工具菜单,实现文本生成与编辑。这一写作能力原本是过去两年“苹果智能”营销宣传的核心卖点,但在现有系统中入口较为隐蔽。
这两项入口的设计不仅增加了单一功能,还让AI从辅助工具转变为默认的交互环节,逐步改变用户在系统中的操作方式。
苹果公司此次围绕Siri的重构,建立在2024年全球开发者大会已披露但尚未落地的一系列能力之上。苹果最初计划在2025年春季推出相关功能,但随后多次推迟,最新时间节点已延后至今年晚些时候。
另一项已公布的App Intents软件扩展仍在开发中,该能力将提升Siri对应用内操作的控制精度,不仅覆盖苹果自有应用,也面向第三方应用开放。长期来看,苹果希望通过这一体系,让用户可以通过语音完成更复杂的界面操作。
在技术路径上,这些新能力将由苹果公司自研的基础模型提供支持,同时结合谷歌Gemini的技术。双方已在去年达成约10亿美元规模的合作,并于今年1月确认合作关系,显示出苹果在自研之外引入外部模型以补足能力的现实选择。
从目前披露的信息来看,苹果公司此次调整的重点不在于单一功能的升级,而在于重新定义Siri的位置。Siri不再只是一个被动响应的语音工具,而是被推向系统入口,承担连接应用、数据与用户意图的角色。
这一变化意味着移动操作系统的交互方式正在发生迁移,从以应用为中心逐步转向以AI为中心。苹果公司选择在这一阶段推进重构,也反映出AI能力正在成为操作系统竞争的关键变量,而不再只是附加功能。
据报道,苹果公司正在通过新增入口将Siri更深嵌入操作系统,使其直接参与用户日常操作流程。其中,系统级“Ask Siri”开关将出现在各类内置应用菜单中,用户可以将选中的文本、内容片段发送至新的Siri对话中进行处理,例如查询更多背景信息或调取相关邮件。这一设计与当前ChatGPT在iPhone端的调用方式类似,体现出苹果公司在交互路径上的调整。
与此同时,苹果公司还在测试“Write with Siri”功能入口,将其置于键盘顶部,用于直接调出写作工具菜单,实现文本生成与编辑。这一写作能力原本是过去两年“苹果智能”(Apple Intelligence)营销宣传的核心卖点,但在现有系统中入口较为隐蔽。

▲苹果智能(Apple Intelligence)
这两项入口的设计并非新增单点功能,而是将Siri嵌入到阅读、写作与信息处理的路径中,让AI从辅助工具转向默认交互环节,逐步改变用户在系统中的操作方式。
五、多项功能延后上线,底层模型结合自研与谷歌Gemini能力
苹果公司此次围绕Siri的重构,建立在2024年全球开发者大会(WWDC)已披露但尚未落地的一系列能力之上。苹果公司最初计划在2025年春季推出相关功能,但随后多次推迟,最新时间节点已延后至今年晚些时候。多位参与项目的人士透露,包括调用个人数据、识别屏幕内容并进行问答等关键能力,预计要到秋季版本才具备可用状态,目前仅在内部测试版本中出现。
另一项已公布的App Intents软件扩展仍在开发中,该能力将提升Siri对应用内操作的控制精度,不仅覆盖苹果自有应用,也面向第三方应用开放。长期来看,苹果公司希望通过这一体系,让用户可以通过语音完成更复杂的界面操作,例如在应用中滚动菜单或执行多步骤任务。

▲App Intents
在技术路径上,这些新能力将由苹果公司自研的基础模型提供支持,同时结合谷歌Gemini的技术。双方已在去年达成约10亿美元规模的合作,并于今年1月确认合作关系,显示出苹果公司在自研之外引入外部模型以补足能力的现实选择。
结语:从语音助手到系统入口,苹果重写交互路径
从目前披露的信息看,苹果公司此次调整的重点不在单一功能升级,而在于重新定义Siri的位置。Siri不再只是一个被动响应的语音工具,而是被推向系统入口,承担连接应用、数据与用户意图的角色。
这一变化意味着移动操作系统的交互方式正在发生迁移,从以应用为中心逐步转向以AI为中心。苹果公司选择在这一阶段推进重构,也反映出AI能力正在成为操作系统竞争的关键变量,而不再只是附加功能。

