数码相机传感器

RGB,红(Red)、绿(Green)、蓝(Blue)这三种不能再分解的基本色,通过不同比例的叠加混合就可以得到一整个缤纷的色彩世界。当光线通过感光元件,RGB传感器上面密集排列的每一个RGB像素点就会记录下传递过来并能够检测到的现实色彩,然后处理、转化为数字信号存储在设备上,并最终在屏幕上显示出来,这就是一张数码彩色照片诞生的全过程。

数码相机传感器 

在这个过程里面,决定色彩数据的就正是传感器上以"RGBG"方式排列的像素点。伊士曼·柯达公司的科学家BryceBayer研究发现人眼中对于绿色的物体是最为敏感的,因此我们现在所使用的1红、1蓝、2绿的RGBG排列方式正是模拟人类肉眼看到的色彩方式。

 

原理是光线通过每个像素点的时候就会被相应色彩的滤光片过滤掉,剩下来对应的就是这部分色彩的强度值,而传感器本身也只能得到色彩的强度数据,然后通过配合RGB过滤的色彩强度数据交由处理器还原。

 

但是每个像素点过滤下来的其实就只有一种色彩,而这个像素点邻近的其他色彩就要通过"猜色"来确定填充了,也就是利用反马赛克算法进行插值运算才能得到彩色图像,这也是有时候为什么数码相机所拍摄的色彩会还原不准确的原因之一。

 

基本上所有相机(传感器)厂商都会根据客户的不同需求调校传感器表现,同一个感光元件型号,不同的厂商产品甚至同一厂商的不同型号的产品,都可能会有不同的色彩表现,不同的处理算法,从而得到不同的成像风格。

 

当拍摄图像后,得到的其实就是这些传感器采样数值,也就是我们所说的相机原始图像信息,可以说是数码相机的底片。在影像专业上,我们把这种数据输出的文件叫做RAW格式文件,当然RAW文件其实也是将数据压缩过的。

 

RAW格式不能作为图像处理,所以需要将这个RAW文件转换成普通格式文件(TIFF)。

以1200W像素的TIFF文件为例,每一个色彩数据计算机用一个24位的数来表示,那么文件大小应该是12,000,000*8bit*3=34.3323Mbtyes也就是说一个1200w像素相机产生的图像文件最后转换以后变成了一个34MB的图像文件。

 

但实际上,1200w像素的RAW格式文件不会超过12MB,那么超出大小的数据是哪里来的?其实答案很简单,多出来的那么多信息由相机里的或者电脑上的CPU算出来的。这就涉及到不同类型的图像格式和色彩空间标准之间的差异。