手机摄像头象素标注的小把戏

  • 主题发起人 主题发起人 guest
  • 开始时间 开始时间

guest

Moderator
管理成员
注册
2002-10-07
消息
402,372
荣誉分数
76
声望点数
0
感谢Archon的投递
这几年来拍照手机可谓热度越来越高,500万已经不好意思见人,800万只能说是主流,1000万才好意思说高端,消费者也很乐于看到像素数的一路攀升。前几天刚刚发布的iPhone4S也把摄像头作为宣传的重点,号称这枚800万象素的摄像头是很多人拥有的品质最好的拍照设备,并给出了样片。诚然,样片的确是非常靓丽,但放大到100%原片以后,我们还是发现了一点问题。

133143048117723.png

可以看到,本来应该是连续的线条,出现了水平和垂直的断痕,看起来像是被拉伸过一样――但是这是800万象素的摄像头输出的800万象素照片啊,怎么会拉伸过呢?难道苹果也玩硬件缩水的把戏吗?其实不是。

我们知道,液晶本身是没有色彩的,只能控制亮度的强弱,于是为了实现彩色,就需要把每一个彩色象素制作成3个独立的子像素,然后在上面覆盖上红、绿、蓝三色的滤光片,再组合成一个彩色的象素。与屏幕一样,作为传感器的CMOS,本身也是只能识别亮度而不能识别色彩的(当然也有可以直接识别色彩,但那种很稀少,而且很贵,手机上没人用)。因此也需要在CMOS的表面覆盖一层滤色片,才能实现彩色图像拍照。

下面一张图画出了常见的CMOS传感器与液晶屏的子像素分布图。
1331441479828477.png

值得注意的是,液晶屏的一个彩色像素,包含了3个子像素,而CMOS中则包含了4个,其中绿色有两个。这是因为人眼对绿色的敏感度最高导致的。所以一个彩色分辨率为960×640的液晶屏,液晶面板上实际上包含了960×1920个真实存在的像素。

按道理而言,CMOS也应该是这样,也就是物理象素数=彩色像素数×每个像素的子像素数,因此800万像素的传感器,实际上应该包含3200万个物理像素――也就是光敏MOS管的数量。但是实际上并不是这样的,在这里,厂家们玩了个小把戏,他们标注的像素数,就是物理像素数,也就是说,一片标称800万像素的传感器,上面只有800万个物理像素,其中200万个红色的,200万个蓝色的,400万个绿色的。这样的传感器可以输出的最大不失真彩色像素点,实际上只有标称像素的四分之一,也就是200万,而不是800万。

所以,目前手机上的彩色传感器,实际分辨率基本上都只有标称分辨率的四分之一。而手机可以输出与标称数相同的彩色图像,则是靠插值来实现的――通过某些算法,把原始的200万彩色像素数据扩展到800万像素。这也是为什么上面iPhone4S的照片中本该连续的绳索出现了垂直和水平的断痕――它被放大了4倍。需要注意的是,这个问题不止iPhone4S有,几乎所有手机,甚至相机,都有这个问题,仅仅是扩展算法的好坏差距而已。如果扩展算法好,那么看起来就会比较好,反之就比较差。也正是因为这个原因,照相机才可以通过调整固件的方式来改善画质。

最后,作为例证,我们来分析一颗传感器的参数。引用:
Features
Image Sensor 14.6Mp sensor with 1/2.33" optics
Pixel size: 1.4 um
Backside illumination sensor
Effective resolution: 4400 (H) x 3300 (V)​
光学参数为1/2.33寸,也就是说传感器的对角线长度大约在8毫米。传感器的比例为4:3,因此水平方向的长度应该是6.4毫米。参数中提到了,像素尺寸为1.4微米,那么6.4毫米能容纳多少个像素呢?大约4570个,和标称的4400个很接近。因此,如果1460万像素的标注是彩色像素,那么水平和垂直上就应该有8800和6600个像素,而实际上只有这个数字的四分之一,这就说明了传感器的标注的确仅是光电管数量,而不是实际的彩色分辨率。
 
后退
顶部