新浪财经

拍照超越安卓?解密苹果11摄像头背后隐藏的技术

腾讯网

关注

原标题:拍照超越安卓?解密苹果11摄像头背后隐藏的技术 来源:腾讯网

尽管没有了乔布斯时代的惊喜,但不得不说每年的新iPhone还是令人万众期待,几天前发布的iPhone 11最大的惊喜除了A13处理器之外就是摄像头了,例如iPhone 11 Pro系列后置的三颗摄像头均为1200万像素,其中左上角的是广角镜头,等效焦距26mm,光圈F1.8,六片式镜头,OIS光学防抖。

其实苹果在摄像头硬件上的升级仅仅只是拍照的一次小的优化,瞪大的优化在于首次使用了Deep Fusion这项新技术。Deep Fusion充分利用了Apple在机器学习方面的进步,让人们可以拍出更好的照片。就像谷歌在Pixel上的相机一样,该功能使用机器学习来更好地破译图像并产生更好看的镜头。

9月15日消息,有外媒详细解密了Deep Fusion,下面老编就来为大家分享一下Deep Fusion到底是如何工作的,以及能为拍照带来具体的好处。

其实在打开苹果拍照APP时就已经启动了一些列的拍照算法,在拍照时我们虽然只按了一次快门,但是实际上是拍摄了一组照片,数量为9张,这9张包括四张快速曝光照片,四张次要照片和一张长曝光照片。

前8张照片其实是按下快门之前iPhone 11拍摄的,按下快门后,iPhone就会为你的拍摄对象拍摄一张长曝光照片。需要注意的是,这里的“长时间曝光”对智能手机照片的标准快门速度是主观的,很可能低于1/2或1/6秒。一旦长曝光照片拍摄完毕,苹果A13仿生SoC的新神经引擎便开始工作。

神经引擎从2400万像素的综合数据中创建整个图像框架,能从9张照片里自动选择一张最好的。用更细粒度的术语来说就是神经引擎的算法经过训练,能够从拍摄的9幅图像中为最后一张照片中的每一个像素挑选出最佳像素。

由于深度融合的基本任务是改变所有拍摄的照片的曝光时间,因此神经引擎对于每个像素都有广泛的指标可供选择。基本上,一旦你点击一张图片,A13 SoC的神经引擎就可以决定最佳对比度、锐度、保真度、动态范围、色彩精度、白平衡、亮度以及所有与图片相关的其他因素。由于相机本质上有更大范围的可变因素,深融合技术应该理想地产生具有更高动态范围、难以置信的高水平的复杂细节、出色的低光成像、低噪音和高准确度的颜色的图像。

另一个应该会受益的领域是低光摄影,苹果在广告中宣传了自己的夜间模式。在弱光条件下,苹果公司将长曝光图像的亮度优势与短曝光图像的稳定性、细节性和准确性相结合,创造出一种超长曝光的图像,在保持稳定的同时,不会造成模糊的拍摄效果,在黑暗中为拍摄对象提供良好的光照。在这样的条件下,深度融合可能会显示出最大的威力,因为在白天,这一切都将取决于苹果的算法能否正确判断颜色。

以上就是苹果赶在发布会上大胆描述自家产品在拍照上优势的勇气所在,但需要注意的是Deep Fusion并不是苹果首创,三年前索尼在其昔日的旗舰产品索尼Xperia Z5上推出了预测性拍摄,该拍品过去总共拍摄了四张照片 ,三张照片是在拍打快门之前拍摄的,另一张是按下快门时拍摄的,是不是似曾相识?

但遗憾的是索尼在当时的拍照软件上优化太烂,每次按下快门都会出现卡顿,甚至拍照APP直接卡死。因此,尽管是智能手机上最早的计算人工智能摄影制造商之一,但索尼却未能充分利用它,就像480和960fps的超慢动作视频一样。

(iPhone 11 Pro Max拍摄)

那么苹果为什么会选择这项技术呢?其实在某种意义上Deep Fusion是对备受瞩目的Google Pixel相机的一种回应,Android的制造商已经在过去几代Pixel智能手机上进行了计算摄影。所以媒体等一直在说iPhone在拍照上已经落后,看来苹果这个时候推出Deep Fusion算得上是一种无声的回应。

*部分照片来自网络,如有侵权请联系删除,十分感谢!

加载中...