据多方消息透露,苹果公司正对语音助手Siri进行全面升级,计划将其从单一语音指令工具转型为全系统AI智能入口。此次调整涉及独立应用开发、界面交互重构及系统级功能整合,旨在通过对话式交互与多模态能力重构用户操作路径。
核心升级围绕新版独立Siri应用展开。该应用将支持历史对话记录、多模态文件分析等功能,用户可通过气泡式界面进行连续交互,上传文档或图片后获取结构化分析结果。界面设计采用深浅模式切换,主界面集成“+”按钮发起新对话,并支持固定常用对话与搜索历史记录。这一设计使Siri首次具备持续会话管理能力,突破传统单次指令响应模式。
交互入口层面,苹果正测试将Siri嵌入灵动岛区域,替代原有屏幕边缘发光效果。激活后用户可在统一界面完成搜索与对话提问,系统处理请求时显示“Searching”状态提示,结果生成后扩展为半透明面板,支持多轮下拉交互。测试中的“液态玻璃”设计语言通过胶囊形态呈现,强化视觉连贯性。人机交互团队仍在评估多种设计方案,重点在于整合搜索、问答与操作请求,减少界面切换成本。
功能整合方面,Siri将取代设备端搜索系统Spotlight,构建统一信息查询入口。用户既可查找本地应用、文件,也能直接发起开放性问题,系统基于网页内容生成带摘要、配图的完整答案,并整合苹果新闻资源提供深度总结。该能力依赖此前推迟的“个人情境”功能,通过调用更多用户数据实现上下文关联。同时保留“Siri建议”功能,但推荐范围扩展至日程设置等场景。
系统级嵌入策略体现在新增的“Ask Siri”与“Write with Siri”入口。前者作为系统开关出现在内置应用菜单中,允许用户将选中文本发送至Siri对话处理;后者集成于键盘顶部,提供文本生成与编辑工具。这两项功能借鉴了ChatGPT的调用逻辑,使AI深度参与阅读、写作流程,逐步从辅助工具转变为默认交互环节。
技术实现上,新功能将由苹果自研基础模型与谷歌Gemini技术共同支持。双方于今年1月确认的10亿美元合作协议,为Siri引入外部模型能力提供支撑。尽管部分核心功能如屏幕内容识别、个人数据调用等仍需等待秋季版本完善,但App Intents软件扩展已进入开发阶段,未来可实现跨应用语音操作复杂任务。
此次重构标志着苹果对Siri定位的根本性转变。从被动响应语音指令到主动连接应用、数据与用户意图,Siri正被推向系统级AI入口位置。这一调整反映移动操作系统竞争焦点向AI能力迁移的趋势,苹果试图通过交互路径重构在操作系统领域建立新优势。






