Hi!请登陆

手机拍照如此强悍,它的功劳少不了

2021-1-4 27 1/4

最近,科技君被手机圈的一个高频词吸引了:计算摄影。大多数人对这个词汇也许是陌生的 ,但其实计算摄影已经不是什么新鲜概念了。

计算摄影究竟是何物?

追本溯源的话,早在 1994 年时就已有相关学术论文。彼时,照片的主要载体还是胶片。经过近 20 年的发展,照片的载体发生了变化,摄影也变得逐渐数字化,摄影的设备也不再局限于传统单反相机,手机逐渐成为了主流摄影工具之一。

而 " 计算摄影 " 这一概念也随着手机的普及,再次为人们所关注。

我们在讨论计算摄影之前,必需先弄清楚到底什么是计算摄影?在查阅了大量资料后,科技君得出一个相对严谨的结论:

计算摄影是利用计算机软件智能算法结合现代传感器及现代光学等技术创造出新型摄影设备以及相关应用的综合技术,并让设备实现超出物理极限的成像质量。

虽然计算摄影起步较早,但其普及过程却并不顺利,直到前几年手机摄影技术有了长足的进步,计算摄影才逐渐被众人熟知。其中 Google 推出的 Pixel XL 算是计算摄影在手机上的首次成功应用。

Google 开创手机计算摄影先河

Pixel XL 所搭载的 IMX378 传感器并不算十分出色,但 Google 却凭借着强大的 HDR+ 功能使得 Pixel XL 的最终成像效果十分出色,完全超越了使用同款传感器的其它机型。

与其它 HDR 只是依靠传感器本身压暗高光和提亮低光不同,Google 的 HDR+ 有着十分复杂的软件算法。其中核心是通过多帧合成来提高画面宽容度,降低噪点。到 Pixel3 这一代,HDR+ 支持最高 15 张照片的合成。

而且 HDR+ 的合成张数是可以根据不同场景和不同的光线环境智能调节的,说的直白一点,它是灵活的、可变的。这和以往普通 HDR" 死 " 的算法大不一样。

HDR+ 最终让 Pixel 系列拥有了超越传感器物理极限的成像效果,用并不顶级的传感器却带来了顶级的成像水准。计算摄影的威力得以体现。

HDR+ 只是 Google 对计算摄影技术应用的成果之一。大家还记得 Pixel3 手机的单摄人像虚化吗?其虚化效果非常好,甚至超越了当时许多搭载多摄像头的手机。Google 也是通过计算摄影技术实现这一功能的。

这里面涉及到大量的运算、人工智能和机器学习。Google 的相机团队运用 5 台不同距离的 Pixel3 手机,拍摄了大量不同距离的样张,从而获得不同的景深和距离信息,并且让机器不断地学习这些信息。最后利用这些采集来的大量信息实现对不同距离景物的虚化。

由于前期通过机器学习和大量样张,手机已经采集到了足够多的信息,所以即便在面对复杂场景时,单摄的 Pixel3 也能有较好的虚化效果。

iPhone 对计算摄影技术的挖掘

2018 年,苹果在发布 iPhoneXS 系列时也引入了 Smart HDR 功能,这项功能和 Google 的 HDR+ 有着许多相似之处,其核心也是多帧合成,但得益于苹果 A12 芯片更强的性能和神经网络引擎的加入,Smart HDR 更加智能,对不同场景和光线的分析更加细致。这也使 iPhoneXS 的 HDR 效果更加出色。

到了 iPhone11 这一代,苹果继续挖掘计算摄影的潜力,推出了 Deep Fusion 技术,它被认为是 Smart HDR 技术的升级迭代,Deep Fusion 无需像 HDR 模式那样单独开启,它的运行是完全静默的,只要你打开相机的拍照模式它就已经在运行了。它的这个运行过程全部由 AI 完成,无需人工干预。

Deep Fusion 运作方式是,当按下快门前 iPhone 就会先连续暂存拍摄 8 张图片(4 张短曝光照片、4 张次要曝光照片),最后按下快门拍摄 1 张长曝光照片,并搭配 Apple A13 Bionic 的神经引擎和机器学习功能生成最终的照片。

从实际效果上看,Deep Fusion 确实比 Smart HDR 更优秀,对被摄体细节的刻画更出色。

如果你认为上述的这些太深奥,没太看懂,那么科技君再举一个最简单的例子:

现在绝大多数手机上都有的拍照场景识别优化。当检测到有天空的画面时,画面中的天空会变得更加湛蓝,当有草原的画面时,草原会被优化的更加翠绿。用手机拍美食,食物往往显得更加鲜嫩可口,甚至还能对不同类型的食物做出针对性的优化。

这,其实也是计算摄影的一种体现。

计算摄影为何在手机领域兴起?

说到这里,你大概已经对计算摄影有了初步的了解。但科技君还想聊一聊计算摄影对手机的意义以及计算摄影为何在手机领域兴起。

科技君认为其根本原因在于手机的特性和物理极限,手机由于体积较小,内部电子元器件较多,导致其无法使用大尺寸的图像传感器和高质量镜片繁多的镜头模组,而这些都是优秀成像的关键因素。

纵然现在手机上所谓的 " 大底 " 传感器也不到 1 英寸,相比全画幅的相机传感器,差距十分明显,镜头由于手机厚度的限制更是不必多言,和单反相机镜头动辄十几片镜片更是无法比拟。

这种先天硬件上的差距在光学技术获得革命性突破之前是难以弥补的。既然硬件上有差距,就只能通过软件上尽量补足。

计算摄影需要复杂的软件算法,也需要强大的芯片支撑,包括 ISP、DSP、NPU、GPU 和 CPU 等多种芯片,因为其过程需要进行大量的运算。

以 iPhone11 系列为例,苹果为了保证其多摄像头的系统工作和平滑的切换,把 NPU 的算力提高到了每秒 1 万亿次。如此强大的数据处理能力才得以应付三摄工作时产生的庞大数据量。

而强大的数据处理能力正是手机所擅长的。尤其是这两年,旗舰手机处理器、ISP 和 NPU 芯片的算力大幅增长,这就为计算摄影在手机上实现提供了良好的硬件基础。

就目前的情况看来,计算摄影在手机领域的发展还是很不错的,至少它的趋势是良性的。更重要的是计算摄影的确让手机的拍照质量有了明显的提高,很大程度上弥补了手机影像系统硬件上的缺陷,甚至在一定程度上超越了手机摄影物理极限。

如果从这个角度考虑的话,手机计算摄影的确很成功。

但计算摄影本质上是人工智能技术的一种,而现在我们对 AI 技术的发展还处在非常初级的阶段。所以科技君认为计算摄影仍有非常大的潜力值得我们去挖掘。

相关推荐