苹果公司在6月10日举行的全球开发者大会(WWDC 2025)上宣布了其人工智能功能套件"苹果智能"(Apple Intelligence)的一系列更新。这些新功能将随着iOS 26系统在今年晚些时候登陆支持的iPhone机型。
苹果智能在信息(Messages)、视频通话(FaceTime)和电话(Phone)应用程序中集成实时翻译功能,支持文字信息、通话音频的实时翻译。同时,AI驱动的表情符号制作功能获得更新,用户可以混合两个表情符号创建新内容,这是对现有自然语言生成表情符号功能(Genmoji)的补充。
新版本的视觉智能功能支持屏幕内容分析,并可执行相关查询或操作。用户能够通过截图并高亮对象来搜索相似商品,类似于安卓设备上的"圈选搜索"(Circle to Search)功能。系统还能智能识别图像中的事件信息,自动提供日历添加建议,并支持通过ChatGPT对标记对象进行提问。
Apple Watch新增"健身伙伴"(Workout Buddy)功能,结合用户运动数据和健身历史,提供个性化的语音激励。苹果还推出"基础模型框架"(Foundation Models Framework),让开发者能够基于设备端模型开发新功能,无需支付云API费用。
苹果智能与快捷指令(Shortcuts)实现整合,支持用户创建基于AI功能的自动化任务。苹果服务高级副总裁艾迪·库(Eddy Cue)透露,公司计划与Perplexity、谷歌(Google)或OpenAI合作,在Safari浏览器中整合AI搜索功能。谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)确认将与苹果合作,把Gemini整合到苹果智能中。苹果首席执行官蒂姆·库克(Tim Cook)表示,更多第三方AI模型将于今年晚些时候加入苹果智能生态系统。