几年前,智能手机相机是不同的。2017 年,谷歌 Pixel 2、三星 Galaxy Note 8 和苹果 iPhone 8 的后置摄像头配备了 12 兆像素传感器。快进到今天,大多数手机,从谷歌 Pixel 7 Pro到三星 Galaxy S23 和 Galaxy 23+,都配备了 50 兆像素的主传感器,而三星Galaxy S23 Ultra 则配备了 200 兆像素的传感器。苹果甚至变得明智,在其最新的 iPhone 14 Pro 中安装了一个 48 兆像素的主摄像头。
Android 手机摄像头的百万像素数量已激增至数百个。如果您使用过这些高像素相机中的任何一个,您可能会注意到默认情况下它们不会踢出 50 像素或 200 像素的图像。Pixel 7 系列甚至没有保存全分辨率照片的选项。那么所有这些像素都去了哪里?
什么是像素合并?
像素合并是组合多个相邻像素以创建超像素的过程。在数据处理中,分箱是将数据点分类到组(或分箱)中的过程。在数码摄影中,合并的数据点是单个像素,有时称为光点。
根据手机相机中图像传感器的全分辨率,像素被分成四个或九个一组(您可能会看到这分别被描述为“tetra-binning”或“nona-binning”)。Galaxy S23 Ultra 使用像素合并来组合 16 个相邻像素的组,使用其 200 兆像素的图像传感器拍摄 12.5 像素的照片(数学计算:200 ÷ 16 = 12.5)。在 Pixel 7 和 Pixel 7 Pro 中,四个像素组组合在一起可创建 12.5 兆像素的照片(50 ÷ 4 = 12.5)。
像素合并有什么作用?
但是为什么要这样做呢?我们向高通相机、计算机视觉和视频产品管理副总裁 Judd Heape提出了这个问题。答案归结为光敏性和空间限制。
在它们的表面上,相机传感器有数千个像素,这些像素是感知光线的离散单元。随着智能手机相机分辨率的提高,这些传感器表面的像素数量也在增加。虽然将更多像素塞入同一物理区域可让您的手机相机更能看到精细的细节,但它会限制相机在弱光下的工作能力,并导致照片的动态范围较差。
“小像素无法捕获那么多的光,”希普解释道。“这是基础物理学。” 现代智能手机像素很小。常见的像素大小约为 1 μm(单个微米,或微米)。综上所述,人类头发的平均厚度约为 80 微米。
更大的像素通常意味着更好的图像质量,尤其是在低光照条件下。像素大小很重要,因为像素越小,它收集入射光的表面积就越小。在其他条件相同的情况下,具有 0.8 μm 像素的传感器拍摄的照片比具有 1.2 μm 像素的传感器拍摄的照片更暗。
制造商可以做一些事情来解决这个问题。智能手机相机通常采用一种称为计算摄影的技术组合来自多个帧的信息,使用软件创建包含多张照片数据的单个图像。还可以选择使用物理上更大的传感器,让每个像素有更多的表面积来收集光线。
谷歌在 Pixel 7 系列的主摄像头上使用了一个相对较大的 1/1.31 英寸传感器,这使其具有相对较大的像素尺寸和较高的百万像素数。然而,这种方法需要为摄像头硬件留出更多的内部空间,这意味着要么为电池等其他部件留出更少的空间,要么需要一个独特的摄像头凸起,就像在谷歌最近的 Pixel 手机中看到的那样。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!