文|雷科技
一年一度的科技圈春晚开始了,AI毫不意外成为了这场晚会的重中之重。
北京时间6月11日凌晨,苹果进行了WWDC(全球开发者大会)长达1小时43分钟的主题演讲,演讲的后半段基本给了「苹果智能」(Apple Intelligence,简称AI),在近40分钟的时间内,苹果差不多提了60次Apple Intelligence:
属实真AI了。
苹果营销团队也真的绞尽了脑汁,并没有和其他厂商一样使用「人工智能」或者「机器智能」的说法,而是取巧用了「Apple Intelligence」一词,既能让用户明白这是AI,又能与其他AI系统区分开来,毕竟这是「A」pple的AI。
不过这些更多还是表面功夫,可以让人更容易记忆,但能不能让人「留住」还要看实际的功能和表现。
好在……相比已经上马的一众「AI手机」,苹果好像也没有带来多少惊喜?
iOS 18平淡升级,大模型压轴登场
作为WWDC最重要的平台,iOS的每一次迭代都可以说牵动无数iOS开发者以及iPhone用户的心。在最新一代的iOS 18上,苹果可以说做出「违背祖宗的决定」,用户可以对主屏幕的应用进行自由放置,同时还支持了批量移动——国产安卓又领先了几个版本。
此外,iOS 18还支持了Material You配色设计。好吧,这是谷歌(从Android 12开始)的,但总之iOS 18支持将所有应用图标「重绘」成统一的颜色,可以根据壁纸智能取色,也可以自定义。
当然,iOS 18还对照片App做了大幅度的改造,开放更多小部件的入口,新增游戏模式、离线地图等,更具体的可以看看雷科技凌晨肝出来的《iOS 18发布,就这?》。
实际上,比起常规更新,iOS 18或者说这届WWDC最让外界期待的还得是AI。
苹果也确实按照观众们的设想,在主题演讲的后半段端上了一桌的AI大宴,介绍了Apple Intelligence如何改变iPhone、iPad和Mac平台上的体验,还有跨平台、跨App操作的潜力。
最典型的一个改变还是发生在Siri上。
和其他厂商改由大模型驱动的AI助手一样,至少苹果宣称Apple Intelligence让Siri变得更聪明——能够更准确地理解用户的提问和需求,更深度地整合iPhone、iPad以及Mac上的邮件、照片、短信、地图、日历以及当前屏幕上的信息,更智能地执行操作和回答问题。
对了,Siri还整合了OpenAI的GPT-4o模型,在遇到复杂问题时Siri会提示是否使用ChatGPT进行回答,如果同意则会通过GPT-4o进行免费输出。
Apple Intelligence驱动的AI写作助手也来了,几乎支持所有涉及文本输入的原生和第三方App,理论上用户在微信输入框也能用。但相对应的能力有一定限制,只能进行重写、润色和校对,而不能从零生成文本。
还有AI生成图片和Genmoji的功能,同样覆盖支持几乎所有原生和第三方App。此外,苹果也在iPhone、iPad以及Mac平台上实现了AI整理通知、AI通话转录和摘要功能。
不过要指出的是,Apple Intelligence支持的机型不算多,而且不同于搭载M系列芯片的iPad、Mac产品几乎全线支持,支持Apple Intelligence的iPhone只有最新搭载A17 Pro芯片的iPhone 15 Pro系列:
iPhone用户不AI了。
Apple Intelligence和GPT-4o,苹果选择了一条不一样的AI之路
严格来说,Apple Intelligence其实是一款深度集成到iOS 18、iPadOS以及macOS Sequoia中的个人智能系统,由多个生成模型组成。但在大体上,你可以将这些模型分成端侧(设备端)和云端(服务器端)模型。
换言之,综合考虑成本、能耗、性能、隐私、安全和个性化优势之后,苹果也选择了混合AI。这一点并不意外,因为这是也几乎是全球个人设备厂商的共识,从海外到国内,从顶级巨头到主流厂商,概莫能外。
不过苹果到底还是苹果:
在Apple Intelligence的架构下,设备端的语义索引会整理和提炼各种App中的信息,用户的提问首先会通过语义索引进行分配和操作。大多数涉及个人数据的模型都在iPhone、iPad、Mac等设备内本地运行,更大、性能更强的模型则运行在苹果基于「私有云计算」技术自建的数据中心内。
没错,就算是放在云端运行苹果也要强调隐私,苹果官方甚至还单独发布了一篇博文详细介绍「私有云计算」这一技术。简单来说,私有云计算不会储存用户数据,作为服务器方的苹果也无法访问,同时用户掌控服务器对话权限。
除此之外,苹果还有一层普遍意义上的云端模型——GPT-4o。
虽然今天的大模型各种各样,但GPT-4o依然是当下最顶级的模型,代表了最聪明的AI。根据演示,GPT-4o至少被集成在了Siri以及AI写作功能中,可以输出更好的回答,以及从零生成一段文本和图片。至于GPT-4o会不会被集成在更多地方,我们可能还要等秋天正式上线时才能确定。
相比之下,其他手机厂商采取的策略也各有不同。荣耀的思路是试图打造一个大模型平台,尽可能接纳更多的通用和垂直大模型,更多场景是用端侧模型分析用户意图,进而调用第三方大模型实现。
OPPO的思路则相反,自主训练的安第斯大模型分为三个等级,包括设备端的Tiny版本,服务器端的Turbo以及Titan版本,同时也自建了数据中心,更专注于垂直的能力,只在智能体的层面开放给第三方。vivo在大体上也是这个思路。
当然,现在还很难说哪种路线能够走得最远,但苹果确实选择了最符合自身情况的应对策略。
同时在体验上,苹果主打的也是在系统层面提供更全面AI体验,将大模型的能力拆解成一个个API(应用程序接口)和功能模块,让用户可以用到全局的AI功能之余,也让开发者可以用上Apple Intelligence的能力。
下一代iPhone:A iPhone?Ai Phone?
AI会改变手机吗?对很多人来说,这个答案是肯定的。但AI会如何改变手机?恐怕没有任何人和厂商能够笃定。
在WWDC的主题演讲中,苹果其实也演示了AI如何改变iPhone、iPad以及Mac的使用体验,尤其强调Apple Intelligence的运行基于用户的个人信息和情境。比如简单情境下的「调出上周xx发给我的文件」「看看妈妈和我的所有照片」「播放前几天我太太发给我的播客」等。
又比如,苹果软件工程高级副总裁Craig Federighi就举了一个相对复杂的情境,即在会议推迟的情况下询问能否赶上女儿的演出。此时,Apple Intelligence将从设备上找出主体(女儿)的演出相关信息(时间、地点),以及会议的时间、地点,再依据常用交通方式和预计时间给出最终的回答。
这种想法并不稀奇,很多厂商在给AI手机画饼的时候其实也不少谈到「个人数字助理」的美好畅想,但实际根本没做到。
假设,苹果真的能够做到真正的个人化智能,依据散落在设备各个地方的信息和服务,给出真正具有参考价值的回答,那无疑会是AI手机的一次重大转折,也会在很大程度上决定下一代iPhone,到底是一台:
A iPhone?还是Ai Phone?
时间上,Apple Intelligence目前还没有实装,按照苹果的计划,今年夏天开始测试美式英语版本,秋天正式上线。换言之,iPhone 16应该会直接预装Apple Intelligence,iPhone 15 Pro系列以及搭载M系列芯片的iPad、Mac可能会陆续支持。
不过这仅限美式英语版本,中文以及其他语言版本的支持还要等到明年,目前暂无更具体的时间表。而且对国行中文用户来说,Apple Intelligence注定要大打折扣,包括可免费使用的GPT-4o。
另外从时间来讲,苹果的上线速度也着实慢了,也再一次说明了苹果的仓促上马。甚至在演讲中,苹果也只是反复强调Siri、Apple Intelligence以后会有更多/更好的功能,说是「画饼」都有些空洞。
总的来说,我倾向认为苹果可能自己也没想清楚Apple Intelligence的路线图。
苹果会重新定义AI手机吗?
不谈过去厂商宣传的AI手机,真正意义上引入端侧生成式AI的手机,可能也就追溯到今年1月发布的Find X7系列上。除了新的AI助手、AI生成图片等,Find X7系列上包括AI消除、AI通话/文章摘要等更具实际价值的AI功能,也开始逐渐普及各家的系统之中,走向大众消费者。
单就功能来说,苹果几乎没有带来全新的AI功能。包括AI写作辅助、生成图片、转录和摘要等,这些我们都在各家的旗舰手机上看过了。但和其他手机厂商相比,苹果也确实选择了不太一样的设备AI化路线,在系统架构上,也在多设备和多应用的场景实现上。
包括从开发者的角度,也只有苹果真正准备好面向第三方App开放AI能力,而且是从2017年的Core ML框架就开始了。
从这个角度,Apple Intelligence可能将彻底改变现有第三方AI应用散乱、无序的开发生态,甚至通过iPhone、iPad以及Mac影响Android、Windows的开发生态。
但问题是生成式AI的时代,还会是以应用为中心的时代吗?不知道,但以ChatGPT为代表的生成式AI,实际上已经衍生出了另一个完全不同的交互方式和生态,而且随着大模型的进步随时还可能发生改变。
从这个角度,苹果会如何重新定义AI手机、AI PC可能并不重要,重要的是OpenAI和GPT大模型会如何定义人与机器的交互方式。