早在2017年,谷歌Pixel 2、Galaxy Note 8和iPhone 8的后置摄像头都配备有1200万像素传感器。五年后,iPhone仍然搭载1200万像素摄像头,而谷歌Pixel 6和Galaxy S22和S22+都具备5000万像素主摄,S22 Ultra则有1.08亿像素的摄像头,并且据说摩托罗拉有计划推出一款拥有2亿像素摄像头的手机。
但是,如果你用过高像素手机会发现,它们实际并不会直接输出5000万像素或者1.08亿像素的照片。那么,这些像素都去哪了?
其实,这是一种被称为“像素合并”的现象。在数据处理中,合并是一个过程,简而言之,就是将数据点分成若干组。特别是在数字摄影中,被合并的数据点是单个像素。根据手机相机传感器的完整分辨率,像素被分成四组或九组,通常手机厂商会描述为“四合一”或者“九合一”。
Galaxy S22 Ultra和之前的几款高端三星手机一样,将像素进行9合一,用其1.08亿像素的传感器拍摄1200万像素的图像,即108÷9=12。而谷歌Pixel 6和6 Pro以4个像素为一组,输出1250万像素的照片(50÷4=12.5)。
但为什么要这样做呢?高通负责摄像头和计算机视觉的产品管理副总裁给出了答案,并归结为两点:光的敏感性和空间限制。
相机传感器的表面有成千上万的像素,它们是感知光线的离散单元。随着智能手机摄像头分辨率的增加,这些传感器表面的像素数量也在增加。但是,虽然在相同的物理区域塞入更多的像素可以使手机摄像头拍摄更精细的细节,但它同时限制了该摄像头在弱光环境下捕捉光线的能力。
小像素无法捕捉到足够的光线,这是基本的物理原理。而现代智能手机的像素很小,像素大小在1微米左右的情况并不少见。像素的大小很重要,因为像素越小,它收集入射光线的表面积就越小。在其它条件相同的情况下,像素为0.8微米的传感器将比像素为1.2微米的传感器拍出的照片更暗。
手机厂商可以做一些事情来解决这个问题,许多智能手机结合了来自多个框架的信息,使用软件来创建一个单一的图像,实际上包含了来自几张照片的数据。还有一种选择是使用物理上更大的传感器,让每个像素有更多的表面积来收集光线。谷歌在Pixel 6系列的主摄上使用了一个相对巨大的1/1.31英寸传感器,这使其拥有相对大的像素点。但这种方法需要将更多的手机内部空间用于相机硬件,也意味着最终要为其它部件,如电池,提供更少的空间。
另一方面,像素合并将相邻的像素结合起来,人为创造出大的“超级像素”,这些像素对光的敏感度比其组成像素本身的敏感度更高。在大多数数码相机中,图像传感器上的每个像素都会过滤光线,只收集某些波长的光线,广义上讲,25%的像素被调整为红光,25%被调整为蓝光,50%被调整为绿光。当手机对像素进行合成时,它的图像信号处理器(ISP)对来自四组(或九组)相似颜色的相邻像素的输入进行平均,以生成图像数据。其结果是“分辨率下降,感光度上升”。
但是,仍然无法通过组合较小的像素来完全复制物理上大像素的弱光性能。而且,对像素进行合成还会造成额外的伪影。
由于像素合并可以在很大程度上弥补小像素传感器固有的弱光缺陷,这也意味着依赖于高像素分辨率的功能不一定是物理上巨大相机传感器的手机所独有的。例如,Galaxy S22 Ultra支持8K视频录制,这在传统的1200万像素相机传感器上是不可能的。
而且高像素也非常适合在不使用专用长焦镜头的情况下进行拍摄,在充足的照明条件下,可以利用传感器的高分辨率来实现高质量的数字变焦。
总的来说,像素合并是一种创造性的变通方法,可以解决不断增加的像素传感器的物理限制。它正在迅速成为行业标准,它帮助我们在光线下获得视觉上准确的照片,否则就需要诱发高ISO或容易产生模糊的长曝光时间。
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有