苹果计划于2026年秋季发布的iOS 27、iPadOS 27及macOS 27系统中,全面开放Apple Intelligence底层AI模型的选择权限,允许用户根据需要自主选用经适配的第三方人工智能服务。这一调整将覆盖Siri语音交互、智能写作辅助、图像生成等核心AI应用场景。
自2024年Apple Intelligence平台推出以来,系统仅集成ChatGPT作为唯一的第三方AI模型。此次更新将通过名为“Extensions”的扩展机制,打破原有单一接入模式。用户可在系统设置中查看并切换已安装且完成兼容适配的AI服务商,同时系统将明确提示:对于第三方模型所生成的内容,苹果不承担相应责任。
目前,苹果已在内部测试谷歌Gemini与Anthropic Claude两大模型,并将持续推进更多AI服务商通过App Store完成技术适配。App Store将设立专门区域,集中展示已通过认证的兼容应用。
该模型切换能力不仅适用于新版Siri,也延伸至文本润色、图像创作等全部Apple Intelligence功能模块,用户可根据任务类型灵活选择最合适的AI模型。
在交互体验方面,iOS 27为Siri新增多音色识别机制:当调用苹果自研模型与不同第三方模型时,系统将自动匹配对应语音风格,帮助用户直观区分当前所使用的AI服务来源。
此外,配套升级还包括独立Siri应用程序、相机内置Siri快捷模式,以及支持AI驱动的照片编辑工具。
此次策略调整,源于此前ChatGPT接入后实际使用数据未达预期目标,同时苹果与OpenAI在高端人才储备及AI硬件研发方向上逐渐显现竞争态势。开放第三方AI模型接入,标志着苹果正从强调端到端自研与封闭集成的技术路径,转向更具包容性与生态协同性的平台化发展策略。相关功能细节将于2026年6月举行的全球开发者大会正式发布。

评论
更多评论