底片和原片有什么区别

人气:293 ℃/2023-05-25 20:25:12

底片和原片的像素、二次利用和大小上有所区别。底片经过摄影店粗略修饰,像素已经被破坏了,不能进行二次利用,放大缩小都会失真,而原片的像素未经修改,可以进行二次利用,随意放大缩小不会模糊。

底片和原片的不同点

1、像素不同

底片和原片的像素有所不同。底片是原片中选择出来修片的一部分,经过了摄影店的粗略修饰,像素被破坏和修改,而原片是拍摄后未经过处理的照片,像素是没有经过修改的。

2、二次利用不同

底片和原片的二次利用率有所不同。底片因为经过了粗略的修图,像素被破坏,不能再进行二次利用了,基本上等于废片,而原片二次利用的空间较大,可以无限调整,自己动手获得精修的图片。

3、大小不同

底片和原片在大小上有所不同。底片因为像素改动,大小也固定化了,再经过放大缩小的处理都会失真模糊,而原片也叫做矢量片,可以随意放大缩小不会模糊,占据的内存也明显较大。

胶片正片和负片有什么区别

从零开始的深空摄影13:彩色相机为什么是彩色的?

本期作者:dead_butt, 黑灯

视频制作:黑灯

那个被称为QHY群龙王的男人,来了

很多刚入门天文摄影的爱好者都会发现天文摄影存在一个特别的现象:尤其强调黑白相机和彩色相机的区别。提到彩色相机时,往往还会出现bayer滤镜、debayer等术语。今天我们就追根溯源,来讲一下彩色相机的色彩原理。

和最近几期类似,本期内容不仅限于天文摄影,对理解日常摄影的成像原理也有所帮助。

另外想说的一点是,本期有视频了。

Ohhhhhhhhhhh


Bayer滤镜的出现已经是数码时代之后的事情了。作为一档还算是有那么一点硬核的科普节目,我们先从历史出发,来看看早期的彩色摄影是如何实现的。

彩色摄影的起源


人眼成像的大致原理是锥状细胞对不同波段(颜色)的光反应不同成像后脑补叠加所得。直观一点可以使用RGB数值成像模拟器尝试输入不同配搭看成色。伴随着解剖学的进步,100多年前的摄影先驱便想模拟人眼彩色成像的方式用红绿蓝分层的方法进行叠加曝光摄影,从而制作出彩色照片(1855年苏格兰摄影师James Clerk Maxwell提出的三色法拍摄)。

6年后,Thomas Sutton使用这个方法拍摄出第一幅彩色照片-一个丝绸领结。

受限于当时相机技术以及感光化学涂层的限制,实际的结果并不是我们严格的RGB。实际上据后世研究显示,当时Sutton照片使用的材料几乎不感任何红光,感绿光的能力也相当有限,之所以看起来是彩色的多是紫外线、蓝绿光和蓝光作用的结果。

【引自:R.W.G. Hunt (2004). The Reproductionof Colour, 6th edition. Wiley. pp 9–10.

R.M. Evans (1961a). “Some Notes on Maxwell’sColour Photograph.” Journal of Photographic Science 9. pp243–246)】

但这个结果无疑是令人兴奋的,因为其验证了三色滤镜法的可行性。

在20世纪初,沙俄的Prokudin-Gorsky(Сергей Михайлович Прокудин-Горский)将彩色摄影践行到底。右图为其selfie,放到今天的标准的话他也许也算是一个网红。

随着摄影设备的进步。尤其是更稳定的机械快门控制,取代裸奔针孔的镜头以及更灵敏以及可以甄别出波段的更灵敏的感光化学图层出的出现,得到资助的Grosky更是在1909-1915年周游当时的沙俄拍摄了一系列的彩色记录照片。这一系列的照片最后由其后人于19世界50年代作价3500-5000美元出售予美国国会图书馆。其中较常见的一幅便是下图Said Mir Mohammed Alim Khan的肖像。

【引自:Minachin, Victor (2003). "The Splendors of RussiaCollection" in the Library of Congress. "Restavrator-M" Restoration Center.】

彩色成像的简单原理-正片与负片


根据三色法的原理,柯达公司一直没有放弃对彩色成像的研究。但碍于早期设备的结构,并没有获得突破性的成功。直到1935年推出需要使用K-14药水冲洗的Kodachrome胶卷,这令柯达制霸彩色成像圈数十年。Kodachrome胶卷是一款使用减色法制作的正片。正片可以简单对等与幻灯片,只要放大及照射即可成像;而负片则是颜色成反相,需要进一步冲洗才能得到需要的照片。继续以上图大汗的照片为例:

负片

正片

一般胶卷负片的动态范围比正片大。正片虽然动态范围窄但在小心冲洗和曝光的情况下能捕捉到更多的细节。

彩色成像主要使用加色法及减色法两种方式成像。加色法就是将三种颜色的成像投射到同一个位置叠加成像。而减色法则可以利用以下简图理解。即使看不懂也没有关系,作为了解即可。

数码彩色摄影


之前的章节提过数码摄影的数位与成像灰度的原理。因此数码摄影的基础依然是能够成一幅黑白照片。参见从零开始的深空摄影10:芯片底层概念简介(2)

回到彩色摄影的起点的话只需要增加滤镜便可以做彩色成像。然而在相机加换滤镜的方式似乎并不可行,因此贝尔滤镜就出现了。在其他地方你或许也会见到拜尔滤镜Bayer滤镜的说法,它们都是一回事。

贝尔滤镜的本质就是一个马赛克一样的滤镜以相机感光器像元为单位进行覆盖。贝尔滤镜如右图所示是一组以屡屡蓝红为单位重复的一个阵列。加盖了贝尔阵列的数码相机能够成彩色像的原因是使用四个像素的信息,靠推断相邻像素的信息而获得最终的彩色成像。

每一个滤镜对应一个像元,而四个像元则构成一个显色单位。考虑到眼睛对绿色敏感每四个像素覆盖一个红色、两个绿色以及一个蓝色滤镜,即RGGB排列。当然还有少数厂家会有其他的颜色和排列,比如某个品牌的手机摄像头搞了一个奇葩的RYYB排列,这里就不详细说明。

下面这个视频以一种非常直观清晰的方式阐释了Bayer滤镜的原理。

视频制作:黑灯

在上面我们提到过,人们根据已知的人眼的色彩感知原理制定了RGB色彩模式,也就是彩色图像可以被拆分成红绿蓝三个通道。由于相机感光本身不能区分颜色,所以早期相机通过红绿蓝滤镜分别拍摄得到RGB通道最后合成得到彩色照片。这也是目前天文摄影中黑白相机仍在使用的拍摄方法。

日常生活中出于便捷性考虑,现代彩色相机自然希望可以直接使用彩色传感器。但又因为传感器不能直接识别出颜色,所以绝大多数彩色传感器实际上就是一个黑白传感器,上面给每个像素分别覆盖RGB滤镜,也就是Bayer滤镜。

当镜头成像到达传感器穿过拜耳滤镜后,每个像素就会过滤得到独立的RGB像素。但是因为传感器本质是黑白传感器,所以出来的数据依然是只有深度的灰度数据,只是因为存在拜耳滤镜的原因图像会像是有马赛克一样。

拍摄照片后,这个数据有两种输出途径:一种是通过机内处理输出jpg图像;另一种是将原始数据打包成raw格式。机内处理传感器出来的是黑白图像,如果按照拜耳滤镜给每个像素匹配颜色。这样每个像素都只有孤立的RGB其中一个。如果把四个像素合并成一个就能得到RGB彩色的像素,最终就能得到彩色图像。但是这样像素就变少了很多。

所以为了不浪费像素,又要让每个像素都拥有RGB。这时候就需要从隔壁的像素借颜色了。用红色像素举例:将周围的绿色取平均值补充上,再将四角的蓝色取平均值补充上,这样红色像素就完整的得到了RGB数据。同理绿色,蓝色像素也可以这样补全缺失的颜色,最终就得到彩色数据。这个将彩色传感器的黑白数据变成彩色的算法就叫debayer转色算法(或者去马赛克转色算法)。

当然debayer算法有很多种,前面提到的只是最简单、处理较快的双线性算法,还有诸如VNG,AHD等等算法,这里就不介绍了。

Jpg与Raw


得到的彩色图像往往需要进行机内后期。比如调色,降噪等等。处理完成后就编码压缩成常见的jpg格式图片。这就是相机最常见的拍照过程。

而大部分消费级单反微单还可以将原始数据打包成raw格式。raw格式只是一个统称,不同厂家会有不同的格式名,如:

富士*.raf

索尼*.arw

佳能*.crw

尼康*.nef

奥林巴斯*.orf

宾得*.ptx,*.pef

松下*.rw2

等等。

其实Raw的数据依然还是黑白的。所以当你用彩色相机拍摄Raw格式拍摄,然后用某些天文软件打开之后,可能会一脸懵逼地发现出来的图像全是黑白的。然而用常规设计软件,比如使用Lightroom等查看的话,软件依然会自动执行debayer转色算法并将调整好的彩色图像展示出来。

在天文中后期处理软件中,比如PIPP,MDL等天文软件或其他专业软件,可以读取到raw格式里面的黑白原始数据,然后选择拜耳滤镜的排列方式挑选需要的debayer算法执行转色,然后执行自己想要的调色处理。这样就可以将raw数据转换成需要的彩色图像了。


本期我们讲解了彩色相机的基本原理,希望可以对大家有所帮助。下一期我们还会带更多神秘作者的分享。如果作者不能如时完稿,那我们下一期就直播烤乳鸽。敬请期待。

推荐

首页/电脑版/网名
© 2024 NiBaKu.Com All Rights Reserved.