新浪科技

苹果A18芯片幕后故事:专为iPhone 16系列打造 将成AI驱动力

新浪数码

关注
听新闻

在过去几代iPhone产品中,无论外观如何变化,A系列芯片一直作为驱动力存在,今年依旧如此,当苹果的芯片设计能力与第二代三纳米制程工艺结合后,提升比之前几代更明显。这在算力和制程都逐渐摸到顶的现实芯片并不常见。

苹果公司是如何做到这点,开发芯片时候又会关注因素? 近期,新浪数码的编辑就与iPhone产品市场营销副总裁Kaiann Drance,还有苹果硅工程团队副总裁Sribalan Santhanam坐在一起,话题主要围A18系列芯片,以及由它为新一代iPhone带来的改变。

追求极致能效,不浪费每一毫瓦电力

A18与A18 Pro这两颗芯片,都是采用了全新的第二代三纳米制程工艺(N3E),以及新的CPU架构、GPU架构,还有苹果公司的神经网络引擎,内存子系统以及更快的内存带宽。它们的CPU性能,对比A16仿生芯片提升了30%,GPU则是40%,且功耗更低,能效更高。A18 Pro则比A18具备更大的缓存,GPU多了一个核心,还有更加先进的媒体接口,例如支持USB3,ProMotion自适应刷新率,4K120帧的视频拍摄。

对比目前竞对产品的5纳米,甚至7纳米技术来说,第二代3纳米让芯片晶体管更小,速度更快,功耗更低;即便和苹果公司去年的旗舰芯片A17 Pro所采用的第一代三纳米制程工艺相比,也是很大的提升。

提升不仅仅体现在能效,苹果在芯片的架构以及整个设计的实施方面,都做了很多工作。Sribalan说,苹果对于芯片的能耗优化,是毫瓦级,“我们不会浪费每一毫瓦的电力”。

Kaiann则补充说,为了让A18系列得到最佳发挥,苹果在手机结构上也对新一代iPhone做了改进,芯片的位置更靠近中心,散热更均匀;还有添加石墨层提升散热,让iPhone 16 Pro的持续性能提升20%,以及结构设计变了,手机维修更方便,手机部件可从后面拿出维修。

用户看到的,则是A18系列两颗芯片能力和能效带来的结果:更好的大型手游的流畅度表现,或者4K120这种原本在专业影像器材上才可能实现的视频拍摄,在一部手机上也能长时间稳定发挥。

芯片时代的“软硬合一”

从行业角度来看,性能的提升并非A系列芯片最难得之处,而是苹果的“软硬一体”——在过去10年,安卓与iOS竞争激烈的年代,苹果自家的iOS系统+自己设计的手机硬件,优异的整合度和由此产生的流畅度,总被人们称道。

而在近两年,这种合一的程度其实更加深了,正如Sribalan所说,A18的两颗芯片,就是为iPhone 16和iPhone 16 Pro两款手机设计。

他提到,Apple芯片设计的一个很大优势就是把电池,芯片,iOS系统等都是集成在一体来考虑的。每推出一个功能,都会对软件的功能进行相应优化;在硬件技术方面,也会对所有的硬件包括所有的 UI去进行低功耗的设计。 并且这种做法已经实行多年,Sribalan说,iPhone设计芯片已经有10多年了,从一开始就非常关注芯片它的能耗。 “因为我们知道 iPhone它是一部很小的设备,它它的空间是有限的,不可能像笔记本电脑一样放一个很大的电池,手机里面也不会去装个风扇。”

对应他前面提到的芯片“不浪费每一毫瓦电力”,芯片整体考虑和优化,则可以说是不放过每个角落。在新浪数码看来,这才是iPhone能用更小的电池(‌iPhone 15 Pro Max,4422mAh)获得了跟安卓旗舰动辄5500甚至更高容量一个续航水准的原因。

对比安卓阵营,手机-芯片-系统来自三个不同的厂商,苹果这种的整合程度显然更高,且更容易做整体思考,这也是为什么A18芯片能从晶体管,到架构,到硬件,再到软件,都可以去共同去完成能耗的降低,实现最大的电池续航的原因。

这其实也是新时代的“软硬一体”,深入到了芯片级别。

当然,别忘了,苹果还有全球最规范的App Store,在隐私安全方面,对第三方App的开发做出了严格的控制,这才能吸引更多一般用户,让附着在iPhone上的生态花园百花齐放。

苹果智能

除了算力本身,A18系列的神经网络引擎,CPU,GPU,以及内存带宽的改进也对苹果智能(Apple Intelligence)有所帮助。

AI是近两年科技行业的热门话题,也是各家厂商都在努力的方向。但现实情况是,无论是PC,还是手机厂商,之前给出的AI表现五花八门,例如抠图,通话录音总结等都是发布会上常见的AI能力体现。

当问及苹果公司对手机人工智能外在表现的理解时候,Kaiann先介绍的是苹果智能能够做什么:核心是创建和理解语言,让用户更轻松的去完成日常生活中的任务。

这些似乎安卓厂商也演示过,但Kaiann强调:苹果智能很重要的一点,是这些都是基于用户个性化的个人情境。也正因为基于个人化情境的理解,苹果智能才能够帮用户在日常生活当中更好的完成许多的任务,并且它整合到了应用中的。

一个简单例子是,相册的回忆功能,用户的手机中或许有成千上万张照片,但在iPhone上,用户可以用自然语言去检索(比如一年前宠物的照片);或通过描述去生成一段个性化的回忆。

还有苹果智能对Siri的升级更新,让这个已经存在多年的语音助手,变成“智能助手”,去更好的去理解人类的自然语言,加上屏幕感知的功能,在日常生活中帮用户做更多事。

这种看似无感的AI,也跟苹果之前的追求一致,例如两部手机一碰就可以互相传输名片,用户没必要去了解背后软硬件的运行机制,而是直觉的一碰就好。 苹果智能虽然尚未正式上线,但从目前所知的信息,可以猜到很多功能的思路或许是类似的无感。

Kaiann说,用户其实都可能没有意识到在用苹果智能的功能,但其实这些功能已经整合到了你一直在用的应用当中(如上面相册搜宠物照片的例子)。而且芯片能够更好的去利用生成式的模型,然后在本地在设备端来进行运算——这则又是苹果设计软硬件产品的隐私想法:能放在手机端,就没必要放在云端。

从用户能体验到的新功能来说,本次iPhone 16 Pro的摄影风格,就来自是用到了机器学习的算法,去识别出照片当中拍摄的场景,识别出其中的一些语义的元素,比如说人的脸活光照的环境,然后它就会在相机当中去调整它的对对焦曝光白平衡等等,然后把它写入到图像处理管线当中。

写在最后:

自2007年开始,苹果用一块电容屏幕取代了键盘手写笔等设备,加上之后的应用生态,彻底改变了智能手机行业。一块可以展示任何内容,作出无限种交互的屏幕,成了用户和智能世界沟通的设备。

17年后,除了触碰屏幕,人机交互的一部分或许会变成语音,甚至是设备对用户意图的理解而做出的主动反馈。这将是AI带来的又一次交互变革,也被公认为将是人类生活方式或工作方式的变革。

iPhone+Apple Intelligence显然也会是这一变革参与者+推进者,而这一切背后的驱动力,一直是A系列的自研芯片,自iPhone 4和A4,一直如此。

 
加载中...