简而言之,
AI,或许是苹果现在最不想听到的词汇。
值得注意的是,
曾几何时,苹果的Siri独步全球,让全世界都意识到智能语音助手并不是“人工智障”,而且也是最早将机器学习等人工智能技术融入系统用途里的手机企业,我想大家应该都还记得过去只有苹果的相册兼容人像自动分类等用途。
概括一下,
除此之外,苹果在影像算法、预测输入、Face ID等多种用途上都大范围利用机器学习技术,优化用途的体验。甚至可用说,iPhone的成功除了A系列芯片的强大外,早就实行拥抱AI技术的iOS功不可没。
说出来你可能不信,
图源:苹果
0号新闻行业评论:
但是,在进入AI大模型时代后,苹果似乎一夜间变成了落后者,刚刚结束的WWDC 2025上,苹果对AI服务的更新计划甚至可用用“乏善可陈”来形容。以至于WWDC首日结束后,苹果的股价直接来了个自由落体,从6月9日到13日,持续5天的WWDC让苹果的股价从9日的最高点205美元一度跌到196美元。
其实,
虽然苹果一向不太在意短期的股价波动,但是市场以及终端的质疑也确实给苹果带去了不少压力,或许是有意也可能是无意,来自彭博社的一篇资料,揭示了苹果正在推进的多个AI项目。
其中一些是早已披露的项目,比如更智能且具备感知能力的Siri,也有一些是首次披露出细则,比如Knowledge聊天机器人,受此影响苹果股价有了短暂回弹。接下来,就让本平台一起来看看苹果的AI蓝图里到底都有什么?
三箭齐发!苹果AI蓝图曝光
简而言之,
从资料透露的信息来看,苹果内部正在推动的服务型AI项目主要有三个:1、Siri 2.0;2、Knowledge聊天机器人;3、常驻助手(Copilot)。其中常驻助手是基于Siri打造的后台智能AI,并非独立的新AI助手。
很多人不知道,
其中Siri 2.0是苹果在WWDC上主要讲解的AI项目,有兴趣的朋友可用看看本平台在10日发布的相关资料:AI Siri来年再议!苹果AI「大转弯」:不画大饼了?,这里就不再重复叙述了,本平台来聊聊另外两个项目。
先来看看Knowledge聊天机器人,这个AI项目的首次曝光是6月1日,著名的苹果爆料者Mark Gurman在一篇资料中披露了Knowledge的存在,并将其称为“从开放网页抓取信息的ChatGPT式应用”。
图源:OpenAI
很多人不知道,
单看这个形容,只能说初步了解Knowledge的利用手段,而在后续的资料里,则给出了更加明确的用途描述。据介绍,Knowledge是一块基于网页app运行的AI问答服务,Knowledge是员工的称呼,正式项目名可能是“AppleGPT 2.0”,数据主要来源于“Safari 搜索索引 + NewsKit 报道摘要 + Apple Maps POI”,由前 Siri 负责人 Robby Walker 牵头推进。
说出来你可能不信,
某种程度上,Knowledge就是一个分摊了部分Siri用途的网页版AI助手,比Siri更轻度、更轻松。Knowledge可用在不利用麦克风、摄像头的情况下,仅依靠网页数据就可用为终端给予备忘、日历以及邮件草稿等用途。
综上所述,
此外,终端也可用直接将其看作是AI版的Safari搜索引擎,当诸位需要搜索某个疑问的答案时,Knowledge可用为终端给予整合式的AI回答。或许诸位会想问,为什么不直接整合到Siri里?这就要聊到苹果的AI战略了,苹果对于AI确实很看重,以至于给自己配置了许多目标:比如Siri在全场景下的体验一致性。
0号新闻专家观点:
轻松来说,苹果希望Siri可用在联网和非联网状态下,都能够给予相同的AI体验,这对iPhone的端侧算力要求太高,以至于一直难以落地。即使后续借助新一代芯片和优化得以实现,Siri在系统权限和终端隐私数据方面的权重过高,也让苹果并不希望将其用在需要与网络进行频繁交互的app上。
图源:苹果
事实上,
于是,分拆出一个独立的“聊天机器人”来负责轻量级的AI应用就是个不错的方案,而且苹果似乎也在借此测试不同提示词系统,看看哪一套系统更高效,或者具备更好的理解能力。
那么Copilot又是个啥(实际发布时大概率要改名)?这玩意就有意思了,根据曝光的资料来看,常驻助手并非一个独立的app,而是一个基于系统的全局服务。如果说Siri是被动的助手,那么Copilot就是主动助手,在终端没有主动提出要求的情况下,Copilot可用根据麦克风、地图定位等各种数据,结合AI模型智能判断终端的需求。
举个例子,当诸位走到机场的登机口时,Copilot会根据诸位的行程安排、GPS定位和登机时间等数据,自动弹出电子登机牌,或是结合Apple Watch等设备给予主动建议,比如当诸位健身完,根据身体消耗和终端的饮食菜单及喜好智能介绍菜谱,甚至可用直接帮终端检索周围的外卖店铺,给予介绍、下单和付款的一条龙服务。
在苹果的计划里,Copilot将采用端侧的放心芯片与统一推送链路,确保这个服务在运行时可用确保终端隐私的放心。更进一步地说,苹果或许打算将Copilot打造成贯穿整个苹果生态的智能体,并作为苹果的智能中枢来联动各个设备,并给予终端无缝的AI服务。
不过,相较于Siri 2.0和Knowledge,Copilot目前给到的信息还非常少,于是更具体的用途和体验还有待后续的进一步曝光。虽然总体来说还是一块“饼”,但是至少比苹果在WWDC上公布的Siri 2.0要更吸引人一些,而且从中不难看出苹果对AI生态有着更多的思考,那就是让AI“无处不在”。
从某种意义上讲,
苹果AI落地为何困难重重?
苹果在AI领域的进展确实有些出乎大家的预料,在2023年AI大模型刚刚被众人 众汇外汇代理 所熟知时,苹果就已经启动了名为“Ajax”的AI大模型项目,并且在次年实行发布相关论文及成果,彼时大家都认为苹果应该会在2024年成为最早普及AI的企业之一。
但是事与愿违,苹果的Apple Intelligence上线时间严重延误,即使是最早上线该用途的北美地区,WWDC 2024上展示的用途也依然没有全部上线。而且在Apple Intelligence上线后,终端也发现这个用途的体验远不如苹果宣传的完善,这也进一步加剧了市场及终端对苹果AI项目的不信任。
图源:苹果
0号新闻汇消息:
到了2025年,当本平台复盘苹果的AI战略时,不难发现苹果最大的疑问或许是“想要的太多”。自研AI大模型、全面的终端隐私保护、严苛的数据放心要求以及系统级的AI服务响应,以上要求只要实现一个,可用说都能在AI领域夺得头筹。
但是苹果对终端数据和隐私的保护要求,严重限制了自研AI大模型的进度,以至于要求助OpenAI,利用ChatGPT来支撑初代苹果AI用途的模型需求。然后又由于开放的数据权限太少,导致以ChatGPT为基础的Apple Intelligence难以给予真正的个性化AI体验。
但实际上,
虽然从终端角度来看,苹果能够如此重视隐私和数据放心确实让人欣慰,但是大家也有一个疑问:苹果真的能够在兼顾隐私的情况下,确保AI用途的体验吗?至少在苹果看来是有可能的,由于直到WWDC 2025结束,苹果也仍在强调将优先考虑以本地AI大模型+AI芯片来满足终端需求。
总的来说,
更进一步地说,苹果让终端在任何时候都能得到体验一致的AI用途的想法很好,但是现阶段想要实现也是十分困难。由于云端算力与端侧算力的巨大差距,让两端的AI模型在参数上差距几乎不可弥补,只能是云端去迁就端侧,那么苹果又要如何在参数远不如竞争对手的情况下,让AI的体验能够达到一线水平呢?
综上所述,
图源:苹果
令人惊讶的是,
或许只能寄希望于苹果的AI团队真的可用通过深度优化,让自研的AI大模型具备极高的推理效率和性能吧。更直接地说,苹果或许还缺少一个“DeepSeek”时刻,只有彻底优化和 福汇外汇平台 改变AI大模型的底层推理,才有机会实现苹果的愿景。
需要注意的是,
为了进一步提升AI项目的速度,本平台可用看到苹果近期也进行了频繁的人员调动,苹果希望通过集中力量的手段来让最紧要的项目可用如期交付。没错,说的就是在WWDC 2025上公布的Siri 2.0,虽然距离预订上线的时间还有六个月以上的时间,但是苹果显然对原本的Siri团队不太满意,希望借助更换领队的手段来提高团队的效率。
事实上,此前就有媒体报道称Siri团队的AI项目进度太慢,iOS团队决定推进自己的AI项目。不过Siri团队估计也是有苦难言,据称受限于Siri的遗留数据和以前的机器学习模型,想将其与新的AI模型进行整合难度很大,只能对Siri进行大范围的重构。
整体来看,苹果AI项目所面临的疑问确实不少,但是相较于其他手机品牌的AI计划,无论是用途表现还是对终端数据的保护,都称得上是最佳,如果2026年可用如愿上线Siri 2.0,那么一切都还有希望。