夏洛特的AI实验室

乔布斯离去后最大的讽刺:苹果要靠谷歌

· 1min read

cover

如果你在2018年告诉我,苹果会花10亿美元向谷歌买AI来驱动Siri,我大概会笑出来。

这不可能。苹果是科技界最骄傲的公司,自己做芯片、自己写系统、自己设计每一颗螺丝钉。他们最经典的广告语是"Think Different"——就是那种"我们跟任何人都不一样"的劲儿。

但是呢,2026年1月,苹果和谷歌联合宣布:苹果下一代Siri的AI核心,将由谷歌Gemini驱动。

你看到的仍然叫Siri。你喊的仍然是"嘿Siri"。但藏在里面的,是谷歌的大脑。

这一幕,在AI史上大概算得上是最魔幻的一个转折

但其实早也可以预见了。在那么多大公司争先恐后地引领着AI浪潮的时候,在各种模型此起彼伏地领先各类标准的时候,哪怕谷歌都是后来者居上一骑红尘也遥遥领先的时候,苹果,APPLE,在干啥??

都说,连个siri都做不好。AI时代,动作最慢,最没有新意的,竟然是苹果。有时候会想,乔布斯要是知道了,会不会气得晕过去。


先把事情还原一遍

2026年1月12日,苹果和谷歌联合发表声明,官宣了一项"多年期战略合作"。

具体来说是这样的:苹果正在把Siri的核心AI能力,交给谷歌Gemini重建。不是辅助,不是小功能接入,是核心功能的底层模型换人。Gemini 2.5 Pro将全面接管Siri的信息摘要、任务规划和多步骤复杂指令——也就是那些苹果一直吹会做、却一直没做好的东西。

不过用户端完全看不到谷歌的影子。没有谷歌Logo,不需要登录谷歌账号,界面仍然是苹果风格。这叫white-label——白标合作,谷歌给技术,苹果挂自己的牌子卖。

钱当然也算得很清楚:苹果每年向谷歌支付大约10亿美元的授权费用。

合作消息出来那天,谷歌母公司Alphabet的股价猛涨,市值突破了4万亿美元,首次超过苹果成为第三大市值公司——这是2019年以来谷歌市值第一次在同一天超过苹果

额,所以结果就是:苹果自己的AI不够用,把竞争对手的AI拿过来,挂自己的牌子,然后一年还给对方10亿美元。

乔布斯啊,老乔你看看……

然后我想到了Siri出道的时候。


Siri曾经有多高光

2011年,苹果发布iPhone 4S,主角不是硬件,是Siri

那个时代还没有什么大模型,没有ChatGPT,没有Gemini。苹果把Siri称为"革命性的语音助手",发布会现场的演示视频在全球媒体刷屏——你和手机说话,手机懂你、答你,帮你订餐厅、查天气、发短信。 那一年的苹果,是整个科技行业无可争议的领导者。Siri代表了苹果的技术野心,也代表了一种方向:AI助手会是下一个时代的入口

谷歌Assistant呢?2016年才发布,比Siri晚了整整五年。

然后大模型时代来了。

ChatGPT一出,所有人都意识到,“语音助手"这件事的底层逻辑被重写了。不是说你能听懂人话,而是你能真正"理解”、“推理”、“生成”——这才是智能助手的真本事。

苹果在这条赛道上的表现……咋说呢,用"掉队"来形容有点客气了。Siri这几年的口碑基本是这样的:简单问题时灵时不灵,稍微复杂一点就"抱歉,我无法处理这个请求",偶尔还给你来一个"帮你在浏览器里搜索了……"

哦对了,近期能让我爆笑出声的,是一个Youtube博主的视频,他让siri和Gemini对话,简单介绍之后,Gemini很开心地和Siri打招呼,Siri听完,说“抱歉我不懂你在说什么”。

这种操作在2024、2025年的AI竞争里,简直就是在开时代的倒车。


苹果到底出了什么问题

说实话,苹果不是不聪明,也不是不努力。

2024年,苹果发布了Apple Intelligence,宣称要重新定义移动端AI。但凡体验过的人都知道,那一批功能——写作润色、图像生成、Siri的对话能力——和当时OpenAI、谷歌的同类产品比,差距明显。

苹果当时的策略是:自研小模型负责本地端(On-Device)快速响应,复杂任务走Private Cloud Compute(私有云端运算)。但问题是,自研的云端大模型根本没法跟Gemini、GPT-4系列比

苹果云端Apple Intelligence大约是1500亿参数的配置,而这次引进的Gemini 2.5 Pro是1.2万亿参数——差了将近一个数量级。

这也不是努力不努力的问题。训练一个超大模型需要天量的数据、算力和时间。谷歌DeepMind光是Gemini这个系列就搞了多少年、花了多少钱。苹果虽然在硬件和系统上的积累是无可争议的,但在大模型这件事上,它的起步比OpenAI和谷歌慢了关键的几年。

还有一个苹果死穴:隐私策略

苹果是整个科技行业里把隐私保护说得最响的公司。这是它的核心卖点,也是它的枷锁。训练大模型需要海量用户数据,但苹果的隐私承诺让它不能像谷歌那样大规模抓取和使用用户行为数据。谷歌有Gmail、Google搜索、YouTube——每天产生的数据量是苹果无法企及的规模。

苹果在隐私和AI能力之间,选了隐私。结果就是AI能力跛脚。

现在的解法是:引入外援,但把数据隔离。Gemini跑在苹果的Private Cloud Compute上,谷歌拿不到用户数据。逻辑上隐私是保住了,但技术底层已经不是苹果自己的了。


等等,这可不是第一次了

更有意思的是,这不是苹果第一次对外求援。

2024年,苹果就已经和OpenAI合作,把ChatGPT集成进了iOS。Siri碰到超纲问题,可以转交给ChatGPT处理。当时苹果把这个功能设计成用户主动授权才能使用——也是为了维护"隐私优先"的人设。

所以现在Siri底下有两个外援:OpenAI和谷歌Gemini。

那苹果用的策略就很清楚了:自己做不到的AI能力,买别人的,但别让用户知道

封闭的生态、对细节的控制、品牌的一致性——这些苹果的老本行,它都保住了。只是里面的芯,已经不是苹果的了。

有没有一种感觉:就像你买了一瓶听起来很高端的私家酱料,结果商标里一看,OEM代工,原料来自你以为是竞争对手的那家厂。

额……


这对咱们意味着什么

好,讽刺归讽刺,格局归格局。最后我们得说说,这件事对买iPhone的普通人,到底意味着什么。

第一:Siri会变好,而且可能变化很大。

Gemini 2.5 Pro是目前业界顶尖的大语言模型之一,实际能力和Siri现在的水平那可不是一个维度的。以后的Siri处理"帮我总结一下这封邮件里的三个要点"、“帮我规划明天的行程,把这几个会议排进去”——这类需要理解和推理的任务,应该会好用很多很多很多。

第二:用户感知上还是Siri,不会有突变。

苹果不会在某天早上推送更新,然后Siri突然改名叫"Gemini",也不会有任何谷歌品牌出现在咱们的手机界面上。这个合作就是要做到无缝,让你觉得苹果牛啊,自己搞定了一切。

第三:你的数据隔离声明信了几分算几分。

苹果说Gemini跑在自己的Private Cloud Compute上,谷歌拿不到你的请求内容。理论上没问题。实际上嘛……隐私这件事在技术层面永远有灰色地带。你对苹果的信任,现在一定程度上也延伸到了苹果和谷歌的技术隔离协议上。这个风险是存在的,只是很难量化。

第四:这件事对安卓用户没什么影响。

如果你用安卓,可以安心吃瓜,顺便庆祝一下谷歌越来越值钱。


说到底,这是什么信号

我知道,很多人会说:这有啥大不了的,商业合作而已,大公司不都是这样的吗?

没错,从商业角度是这样。

但我觉得值得说的,是这件事背后的隐喻。

苹果是那种用Think Different 建立起整个神话的公司——我们独立、我们自给自足、我们不一样。这个故事支撑了苹果几十年的溢价。

现在这个故事出现了一个裂缝。

不是苹果不行了,也不是苹果不创新了。而是AI这件事太难了,难到了一向靠自研傲视群雄的苹果,也不得不去买别人的底层

这对整个AI行业来说,是个值得咂摸的信号:大模型的训练成本和数据护城河,已经形成了一种新的技术垄断。能造出顶级大模型的,就那么几家。其他所有公司,哪怕是苹果,也只能在这几家之间选。

这就是AI时代的铁律:算力和数据积累,已经成为一种别人很难复制的护城河。

苹果这次的选择,是承认这条护城河的存在,然后选择了租一条通道进去。

这不丢人。甚至可以说,是务实。

但有没有一点讽刺?当然有。

十五年前,Siri出道,苹果是AI助手这个概念的开创者。十五年后,Siri的大脑,是谷歌的。

时代就是这样,谁先想到不算,谁先跑通才算。

苹果想到了,但谷歌先跑通了。

而对比黄sir的Nvidia,天选之子,天选赛道,天选时机

不过话说回来,我个人觉得苹果还有一条非常好的通天大路:比如这次发布的Macbook Neo,妥妥的入门级产品,但是因为能跑AI,是个物美价廉的龙虾窝,所以大家也追捧。这何尝不是一条路子呐…… (乔布斯:闭嘴吧你)


第一个想到的人,不一定是最后能做好的人。

感谢观看。