点击关注不迷路
最近,苹果被曝出了一件挺有意思的事:
它悄悄成立了一个叫“AKI”的团队,专门研究一个叫“答案引擎”的东西。
听起来有点像科幻电影里的设定,但其实它的目标很现实:
让Siri能像ChatGPT一样回答问题。
这事儿乍一听有点反常。
毕竟过去几年,苹果在AI领域的表现一直像个“佛系选手”。
别人家的语音助手早就能回答“明天天气怎么样”“怎么煮溏心蛋”,可苹果的Siri还在纠结“你是不是在叫我”。
结果用户吐槽它“只能用来定闹钟”,苹果却淡定回应:
“我们不想搞那些花里胡哨的东西。”
但这次突然转向,背后到底藏着什么算盘?
咱们今天就来聊聊这个事。
一、苹果的“AI焦虑”:从“不急”到“真香”
苹果对AI的态度,其实经历了一个微妙的转变。
去年,苹果推出了“Apple Intelligence”平台,但明确表示不会自研聊天机器人。
他们的解决方案是和OpenAI合作,把ChatGPT直接塞进Siri里。
简单来说,用户问复杂问题时,Siri会默默跳转到ChatGPT,再把答案“翻译”给你。
苹果当时的逻辑是:“既然别人都做得挺好了,咱们何必重复造轮子?”
但现实很快打了脸。
第一,Siri的“跳转体验”太尴尬。
比如你问“帮我总结一下《三体》讲了啥”,Siri会先说“好的”,然后跳转到ChatGPT页面。
等你看完答案,再切回来继续问别的。
这种“来回切换”的操作,就像坐公交时总得换乘,体验并不流畅。
第二,苹果对谷歌的依赖太深。
现在iPhone上的默认搜索引擎是谷歌,而谷歌每年要给苹果200亿美元,只求保住这个位置。
但美国司法部正在调查谷歌的垄断行为,一旦协议被强制终止,苹果的收入会大受影响。
第三,用户确实需要更聪明的AI。
ChatGPT、通义千问这些工具已经教育了市场:人们习惯用自然语言提问,而不是输入几个关键词去翻搜索结果。
苹果再不跟上,别说年轻人,连中老年用户都可能觉得它“不够智能”。
所以这次成立AKI团队,与其说是苹果突然“开窍”,不如说是被现实推着走。
二、苹果想做的“答案引擎”,到底是什么?
根据彭博社记者马克·古尔曼的爆料,苹果这个“答案引擎”的目标很明确:
用AI从网页里抓取信息,直接给出答案。
举个例子,如果你问“为什么企鹅不会飞”,Siri不再只是甩给你一堆链接,而是会像ChatGPT那样,先分析问题,再整理出一个简洁的回答:
“企鹅的翅膀退化成了鳍状,适合游泳而不是飞行……”
听起来是不是很像我们熟悉的“智能搜索”?
但苹果的野心不止于此。
1. 它想让AI“理解”你的问题
现在的Siri更像是个“传话筒”:
你问“明天北京气温多少”,它就去调用天气App的数据。
但答案引擎需要更复杂的逻辑。
比如你问“下周出差上海,需要带什么衣服”,它得结合天气预报、你的行程安排,甚至你过去穿衣的习惯,给出个性化建议。
2. 它需要更轻量化的模型
苹果一直强调“隐私保护”,所以答案引擎可能会采用“本地+云端结合”的方案。
简单来说,涉及隐私的问题,比如你的日程在手机本地处理,复杂问题,比如查新闻才上传到服务器。
3. 它需要适配所有苹果产品
不仅是Siri,苹果还打算把答案引擎塞进Spotlight(全局搜索)、Safari(浏览器)甚至未来的AR 眼镜 里。
想象一下,你在Safari里搜索“性价比最高的咖啡机”,结果直接弹出一个表格,按价格、功能、用户评价分类推荐:
这可能就是答案引擎的功劳。
三、苹果的“三座大山”:技术、人才和时间
虽然目标很清晰,但苹果要真正做出一个像样的“答案引擎”,还得翻过三座大山。
第一座山:技术积累不够深
苹果过去在AI领域更擅长“整合”,而不是“突破”。
比如Face ID的面部识别、A系列芯片的优化,都是基于成熟技术的改良。
但大语言模型(LLM)是个新赛道,需要从头训练数据、优化算法。
目前苹果的方案是“两条腿走路”:
和初创公司Perplexity合作,先用现成的AI搜索技术“救急”;
自己招兵买马,从零开始训练模型。
不过,Perplexity本身也在烧钱阶段,能提供多少支持还是未知数。
第二座山:人才流失严重
最近一年,苹果AI团队的高管和工程师跑了不少。
比如:
前AI主管贾里德·萨德尔跳槽去了Waymo;
自动驾驶项目“Titan”的负责人也跑去了Meta。
更尴尬的是,苹果还在和Meta、谷歌抢人。
比如他们最近放出的招聘广告里,明确要求“有搜索算法和引擎开发经验”,但这类人才早被谷歌、微软“圈养”多年。
第三座山:时间窗口正在缩小
苹果原本计划2026年推出升级版Siri,但因为技术不成熟已经推迟。
现在AKI团队刚成立,从招人、训练模型到落地应用,至少需要2-3年。
而另一边,谷歌的Gemini、微软的Copilot都在快速迭代,甚至Perplexity、You.com这些小公司也开始抢占市场。
苹果再拖下去,可能连“后来者”都算不上了。
四、苹果的“胜负手”:生态和隐私
虽然挑战重重,但苹果也不是没有优势。
第一,它有最完整的生态
iPhone、iPad、Mac、Apple Watch……这些设备每天都在产生海量数据。
比如你的日程、位置、音乐偏好,甚至心率数据,都能成为训练AI的“燃料”。
更重要的是,苹果能把这些数据打通。
比如你问“明天下午3点见客户,路上堵不堵”,答案引擎会调用日历,确认时间、地图(计算路线)、实时交通数据,预估拥堵情况,最后给出一个综合判断。
这种跨设备、跨App的联动,是其他公司很难复制的。
第二,它把“隐私”当护城河
苹果一直在强调:“我们的AI不会把你的数据上传到服务器。”
这听起来有点理想主义,但确实戳中了部分用户的痛点。
比如你问“帮我写一封辞职信”,答案引擎可能会在本地生成草稿,而不是上传到云端被“记录在案”。
这种“本地化处理”虽然会影响模型效果,但确实能减少隐私风险。
不过,这也带来一个悖论:
如果数据都锁在手机里,AI怎么学习更多知识?
苹果的解决方案可能是“差分隐私”:
把用户数据打乱后再用来训练模型,但具体效果还得看落地情况。
五、用户能期待什么?别急,先别急
现在说苹果能靠答案引擎“翻身”,还为时尚早。
首先,这个项目还在早期阶段。
苹果连模型有没有训练出来都还没公布,更别说优化体验了。
其次,用户需求在快速变化。
去年大家还觉得ChatGPT很新鲜,今年已经有人吐槽它“只会抄资料”。
未来AI搜索可能需要结合视频、音频、实时数据,甚至能主动帮你解决问题,比如自动订机票、调日程。
苹果现在追上的,可能只是“起跑线”。
不过,苹果这次的转向至少说明一件事:
AI搜索已经从“可有可无”变成了“刚需”。
苹果的“慢”与“急”
苹果向来喜欢“慢工出细活”。
它推出第一代iPhone前,手机市场已经红海一片;
它做AirPods时,蓝牙耳机早就烂大街。
但每次它都能靠细节打磨和生态整合,杀出一条血路。
但AI这趟车,可能没那么好搭。
技术更新太快,用户耐心有限,竞争对手也不再是“软柿子”。
苹果再想靠“憋大招”一鸣惊人,难度比十年前高了十倍。
不过话说回来,能看着库克和一帮工程师天天研究怎么让Siri变聪明,倒也挺新鲜的。
或许用不了几年,我们就能对Siri说:
“帮我写篇论文,主题是苹果的答案引擎,语气要接地气。”
然后它回一句:“收到,马上安排。”
你觉得苹果的“答案引擎”能成吗?
欢迎在评论区聊聊。
(全文完)