关于 iPhone 15 系列的影像,我们还有这些想说的

关于 iPhone 15 系列的影像,我们还有这些想说的
2023年09月21日 15:56 爱否科技官方

和以往对于iPhone相机评测有些不一样的是,这次我们获得了一次宝贵的机会,直接和苹果的影像软件工程负责人 Jon McCormack 和 iPhone 产品营销高级总监 Maxime Veron 进行了半个小时的电话沟通,我们学习到了不少关于 iPhone 影像系统软件的具体实现方式和技术细节,也了解到了苹果对于影像的思考和态度。其中的一部分,我们其实已经把它放在了首发评测的视频中,并且我们也在视频中进行了详细的样张和标版测试。

而这篇文章中,我会给大家分享一些视频中没有提及的细节,以及 Jon 对于我们的问题的看回答,和我个人对iPhone的影像部分的一些主观看法。

一、2400万像素的背后,是1.56亿像素

发布会上两句话寥寥代过的2400万像素,其实是我认为的这次iPhone 影像系统里最重大的更新。大家都看到了是用12和48合成的,但究竟是怎么合成的。我们在评测视频中进行了讲解,但因为时间关系,并没有细到每一步。

早在iPhone11上,其实苹果就公布了DeepFusion的工作原理,就是拍摄9张不同曝光条件的1200万像素照片,通过神经网络合成一张1200万像素的照片,其中4张照片在你按下快门之前就开始捕捉了,而在这个过程中会上采样到2400万像素进行运算,来获得更高的精确度,最终再压回1200万像素,进行色调映射,输出成片。

而在这次的2400万像素中,手机还是会先拍摄最多9张经过四合一以后的,1200万像素的照片,经过上采样,合成一张2400万像素的照片,这个时候就相当于有了一张2400万像素的,类似「半成品 ProRAW」的照片,因为还没到最终一步,不会继续色调映射。并且这张照片还保持了四合一的感光能力。然后,接下来相机会立刻再拍摄一张4800万像素的照片,并把它超采样成2400万。这张照片细节会比前一张丰富,但暗光部分欠佳。

两张照片中间其实是有微小的时间差,被摄物体可能已经有了轻微的移动。而这个时候手机会用调用一个神经网络,把4800w降采样的2400w那张照片里的细节,转移到12升采样的那张24上,并且把位置对准让你看不出瑕疵,最后再进行色调映射,输出一张既要清晰度,又要低光表现的照片。

也就是说,在你按下快门的一瞬间,手机会拍摄最多9张1200万像素和一张4800万像素,共计1.56亿像素的照片,并且还要跑至少两套神经网络。

好消息是,在你按下快门以后的0.5秒,你又能再拍一张这样的2400万像素的照片。并且快门还是零延迟的,拍到的照片就是你按下瞬间的照片。甚至拍的还是LIVE Photo。

当然,坏消息是只能快速连拍两张2400万,接下来的几张照片都会变成1200万,大概在第15张左右,快门反应速度最终也变慢了。即便是强如 A17 Pro的ISP性能,也是会遇到瓶颈的。这里的快速连拍,指的是人手动以最快的速度点击快门键。需要这种速度连拍的场景,在实际生活中其实并不常见。

而在安卓阵营的4800万像素模式,虽然说不会出现几年前需要转圈等待的状况了,但是仍然存在影像算法被简化的问题。比如这两张照片是同一款安卓旗舰的4800万像素和1200万像素模式,明显可见4800万像素模式下的HDR算法被限制了,导致高光压制表现不好。而iPhone的4800万像素模式并没有这样缺少算法的问题。

(某安卓影像旗舰开启4800万像素与1200万像素前后对比,请注意灯箱部分高光压制效果)

这些都指向一个结论,原生4800万像素的模式,目前对于几乎所有手机的计算摄影系统来说,压力都很大。而iPhone这次的解决方式,无疑是在现在有限的算力里面,最巧妙的一种。也让手机的四拜尔传感器,终于达成了其设计之初的目的:也就是在几乎每一次拍照中,都能按需要利用到4800万像素的模式。而不是像现在的绝大部分手机,空有高像素的传感器,大部分时候囿于算力限制,只能用四合一的大像素模式,「高像素了个寂寞」。

二、智能人像模式,其实早就准备好了?

这次相机功能体验上的更新中,我个人最喜欢的还是全焦段的智能人像模式。让我可以再也不用多划一次,手动打开人像模式了。几乎每一张人和宠物的图片,都可以在标准拍照模式中直接拍摄,后期再对焦调整。很多时候,就是因为需要多划这一下,我其实就不想拍人像照片了。所以这个功能可以说是解决了我的一大痛点。但是这个功能,为什么现在才出现呢?

所谓人像虚化模式,其实就是通过计算两个摄像头的视差,获得一张照片的深度信息并且后期运算景深效果,听起来运算量是巨大的。但如果你已经理解了上面我们说过的计算摄影的工作方式,就应该也能理解,这些复杂的运算其实是基本操作,每一张照片或多或少都在做。

在没有这项功能之前,相机在拍摄每一张图片的时候,也会计算出人像的轮廓,进行针对性的提亮;也会对画面中的深度进行分析,对不同区域进行不同的处理,只不过并不需要特别精确的信息。而这次的人像模式,只是需要了稍微精确一点深度信息。

其实iPhone在遮挡住一颗摄像头以后,不凭视差,只有单摄的信息也可以运算出人像模式的效果,只不过效果没有双摄获取到原始深度信息处理的那种完美。

所以这个功能的更新,其实算是计算摄影功能一步步迭代,算力一次次提升之后,人像模式一点点完善之后,量变积攒产生质变的结果,而不是技术的突然革新。之前没有这个功能的理由,可能单纯是因为当时的人像模式效果不完美,这次已经完善到可以作为默认选项开启的程度,也可能是之前这项功能的功耗高了那么一点点,还不到可以默认开的程度。当然这两项理由都是我们的猜测。但是这项功能的推出,确实是实打实的提升了我们拍照的体验。

关于这项功能,我也问了 Jon McCormack 这样一个问题,就是:

「会不会终有一天,iPhone 会彻底取消人像模式或电影模式的开关,只用默认拍摄就可以完全记录深度信息,后期再随便调?」

而 Jon 的回答是:

「我们有理由这样做,也有理由不这样做。在普通相机的模式时,我们期望相机界面会很简单,没有任何干扰,而在人像模式的时候,会提供另外一套操作按钮,让你很方便的控制人像模式中比较关键的参数。而现在的智能人像模式可以让你不用在拍摄的时候抽离出来思考『要不要打开人像模式』这个问题」

人像模式的操作按钮

我的理解是,单独的「人像模式」还会存在,只是目的是为了「你确定要拍人像时,给你一套对于人像更方便的按钮」。事实上你可以看喜好随意选择,而普通模式拍人像的效果,并不会和人像模式有什么区别。

三、锐化和光影表现如何?

曾经iPhone拍照最被我们诟病的就是过度锐化和平淡的光影表现。

客观来讲,并不是所有的锐化都应该「一棒子打死」,客观的标版测试可以帮助我们快速对比在「标版」这一固定场景下,锐化量的增减。但想整体评价锐化是否过度需要看具体的场景。在例如建筑物这种棱角分明的画面上,锐化稍高并不影响最终效果,甚至有的时候应该这样做,而在树木、动物毛发上就不应该施加太多的锐化,否则会显得画面很「塑料」。

而这次我们在视频中也进行了详细的样张和标版测试,结论就是:标版测试出的客观锐化量与上代并没有特别大的区别,但每颗镜头的解析力相比于上代都有很大的提升。最终导致在主观的样张对比中,过度锐化状况相比上代有改善,但与其它国产旗舰相比,仍有一定的过锐倾向。这次的结果,我个人更倾向于认为是整个影像管线前端的提升,导致了不需要特别多的锐化,最后也能得到比较好的成像效果,所以锐化相对变少了。

而光影表现方面,这次的iPhone的 Smart HDR 算法也迭代到了第五版,从样张对比中可以看到的是皮肤的渲染更好,阴影过度也更为平滑了,暗光表现也有所提升。但从我的主观视角,总体的明暗风格还是比较平淡,暗部仍然会有一些提亮。所以并不能一眼就给我很深刻的印象。

我们同样也问了 Jon 关于光影与明暗关系的问题。Jon 的回答是这样的

「我们这次围绕 Smart HDR 5 做了一些改进,整个画面会看起来更自然,但是如你所说的光影关系明暗对比,我们是从风格的角度来看待这件事。有些人喜欢阴影部分更深沉一些,有些人还是喜欢暗部细节更清楚明亮一些,我们的立场是更倾向于后者。(原文: We tend to prefer the shadows being a bit open),好让人们在看照片的时候更好的重温那个时刻」

总结一下,相比于前代iPhone,锐化变更少了,光影上尤其是皮肤光影表现更好更自然了,一部分归功于Smart HDR 的升级改善,一部分也归功于这次的2400万像素模式 。但是整个画面的光影基调仍然延续了iPhone一贯比较平的风格。在我的理解中,iPhone的相机,应该不会朝着国内安卓旗舰那种鲜明的明暗关系风格发展。但是稍等,这个问题到此还没有完全回答……

四、iPhone 对于摄影风格的理念到底是什么?

国产安卓这几年给我们最大的惊喜就是,各家都在大胆尝试自己的色彩影调风格,每一个品牌的照片都给人非常深的印象。我们自己也非常喜欢这些照片的风格和审美,也觉得相机作为一个创意工具,就该有自己的审美和色彩风格,这样才能给用户留下很深的印象,而不应该像一台监视器一样追求准确的还原。而我们也非常直白的把我们的理解和色彩影调风格的问题抛给了 Jon。当然要先说明的是,苹果作为全球市值最高的公司之一,不会对友商品牌发表任何评价。但是 Jon 也给了我们一些苹果自己对于影调色彩风格的看法。

「既然是风格,确实会有比较深的个人偏好在里面,我喜欢这种,你喜欢那种,所以我们也一直在思考,我们想要iPhone有一个特定的风格吗?非常浓郁有冲击力,还是平淡一些,还是特别深沉?其实我们想要的iPhone的风格是真实、忠于原状的(原文:Honest),因为有了这样的照片,你才可以把你想要的任何风格放上去。而如果我们创造了一种非常强的明暗对比的风格,就意味着原始的暗部细节会被压掉一些。(就没有足够的信息在后期应用你自己的风格了)」

我自己个人的看法是,iPhone 作为一个在全球销售的手机品牌,在影像系统上会面对格外明显的「重口难调」的问题,不能设置一种非常浓郁的品牌色彩风格。当然,我觉得我们之前说的「相机作为一个创意工具,就该有自己的审美和色彩风格」仍然是对的。但是对于 iPhone 来说,iPhone 的目标显然是卖给更多人、所有人。那么iPhone应该做的也是「满足所有人」,给用户原始信息,把风格交给有需要的人自己做,或者交给第三方App,虽然可能稍显麻烦,但是默认的相机,对于iPhone来说真的可能不能有一个风格,或者说,「Honest」就是 iPhone的风格。

而且即便这些国产品牌,也会把这些选项做成开关,让用户手动去选择、去开启,或者放在专业模式里,总之不会设置成默认的模式强加到用户身上,大家可能看到媒体或网络上会很喜欢某家风格,但实际上很多线下购买者,可能真的不接受或者不喜欢这些浓郁的风格。

而且有没有一种可能,iPhone其实是有摄影风格的。而且比这些国产厂商都早呢,我们误会它了?

我们这些常年连续使用 iPhone 的人,可能很容易就错过了一个很重要的信息。就是从iPhone 13 Pro 开始第一次打开相机的时候,系统的第一个提示,就是问你是否要选择「摄影风格」,全屏提示,优先级其实很高。只不过我们每次备份恢复转移数据,就无法触发这个提示或者麻木忽略了。只有第一次买iPhone的人会很明显的看到,而且会在意。

我自己在用iPhone的相机的时候,就一定会打开iPhone的「摄影风格」,并且把色调拉到-50让对比更强烈,色温暖色20让色调更暖。而我的有些朋友也会选择默认就使用 NOMO RAW 等第三方 App 进行拍照。而 iPhone的摄影风格里面的两项参数,或者其他第三方App,实际上是从非常底层就影响成像管线处理照片的方式,可以理解为在最高画质,保留了全部原始信息的ProRAW上调整完,再存储成HEIF或JPEG。所以比后期用HEIF调整有着更好的效果。

看来苹果的态度依旧会是把风格交给用户和第三方App,这点短时间可能是不会变的。

以上就是我对于 iPhone 15 系列相机的一些额外细节发现和看法,希望大家能够喜欢!

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部