Hi!请登陆

低分辨率照片“战胜”了高分辨率照片?超分辨率算法的时代来了

2021-5-3 45 5/3

其实超分辨率算法并不是什么稀奇的事情,即便是导入了深度学习算法的超分辨率图像放大技术,依然也算不上什么新技术,只是这种技术确实在普及的过程中。

大概1个月前,Adobe旗下的RAW文档处理软件更新了Camer Raw的最新版本13.2,开启了“超分辨率算法”的功能。笔者也在上次的测试中验证了,拿原生2500万像素的相机拍摄的图像,经过了这个“超分辨率算法”后得到的图像,完全可以媲美原生4500万像素相机拍摄的照片的细节,如果用了Gigapixel AI来进行放大,甚至可以获得超越原生的细节。只是很多人不信。

而随着适马发布了旗下的小型全画幅相机fpL,世界上最小的6100万像素高画质相机就从此诞生了。于是手持其上代机型fp和fp L的我,就有了一个有趣的念想,如果拿上一代2500万像素的fp拍摄的照片,利用了Adobe Camer Raw来进行放大,获得的图像,和原生6100万像素的fpL拍摄的照片对比,画质会有如何的区别。

我没有做严谨的对比,只是拿自己的手办做了拍摄的比较,但我在网上找到了根我有同样想法的日本玩家,他做了更加严谨的对比,严格控制了拍摄的条件,在同样镜头、光圈、快门速度的参数下进行了静物的拍摄。

左边是fp拍摄的2500万像素的图片,等比放大后,和右边fp L的照片对比细节,两张图都放大了100%并且进行了比例调整,可以看出,fp通过AI超分辨率算法放大到1亿像素后的图片,完全不输原生6100万的照片的细节。

而这张照片的计算,大概只需要短短6秒钟时间。

而我也同时拥有fp和fp L,自己也进行了一些测试,认为日本友人的测试结果是真实的,利用普通的2500万像素的相机拍照,进行AI超分辨率放大,确实可以靠运算获得更高细节,并且自然真实的照片效果,尤其是用Gigapixel AI这款软件放大后效果尤为显著,真的是不输给原生效果的强大。

不过,原生画质像素过低,目前的技术还是无法还原到超清晰的效果,例如你用一张几十万像素的图片,还是没法运算出原生高清晰的照片的效果,但基本在1000万像素以上,就可以还原出接近原生2000万像素甚至更高拍下的照片的细节,不信可以自己测试。

过去AI超分辨率算法有一个硬伤,就是计算太慢,太吃资源。Gigapixel AI目前来说计算也非常吃资源,使用的时候显卡和CPU的占用率高,速度不能算快,1080p的照片算成4K,我的笔记本大概也要十来秒的时间,但Camer
Raw的AI超分辨率的算法尽管牺牲了一些画质,但速度却快许多。2500万像素的照片放大到1亿像素用笔记本也只要10秒左右,低分辨的照片更是快速,利用这个算法,可以批量快速优化一些低分辨率的照片来达到提高视频画质的效果。

那么你说,原生就能拍出6100万像素的照片,也不需要超分辨率,不是更香?一点也不香啊亲!笔者用过索尼的A7R4拍夜景,由于超高的6100万像素的关系,一是糊片率高,二是早点比起A73要明显多许多。A73高感上到12800,一般不需要刻意降噪,夜景也是可以用的。但A7R4上到iso 6400,暗部噪点就非常明显了。高像素牺牲的是高感性能,和更低的出片率。稍微抖动一些照片就糊了。

而且超高像素的传感器,会牺牲视频画质。2500万像素左右的传感器,现在一般采用超采样的方式获取4K视频,画质锐利,没有锯齿。而如果用到6100万像素的超多像素的传感器,处理器来不及读取,只能降低要求使用跳采,A7R4也需要进入APS-C模式才可以超采视频,浪费了传感器的使用率。而如果要同时保持超高分辨率,又要用超采,那结果就变成了索尼A-1那样,价格直接翻好几倍……

所以吧,超高像素带来的一些代价,在技术的限制面前,也就不这么香了。用低分的照片,利用AI超分辨率算法提高细节,这种后期弥补的办法,无疑是这个时代才有的特权。

相关推荐