博鱼体育官方网站数码相机基础知识(2021篇)
发布时间:2023-05-31 02:31:15

  为了方便设置相机的拍摄参数,人们定义了适应各种不同亮度场景的曝光值,以及对应这些曝光值的相机参数组合。例如ISO100、1s快门时间、f/1.0光圈这组参数组合曝光值记作0。当环境亮度每增加一倍曝光值加1,反之当环境亮度每降低一半的时候,曝光值减掉1。上图中黄域表示ISO值,绿色为快门时间,蓝色为光圈大小,灰色为对应的不同参数组合下的曝光值。假如我们想要找到ISO3200、1/60s快门时间、f/4.0光圈所对应的曝光值时,首先在ISO3200列找到1/60s快门时间,并以此快门时间所在行为横坐标,与之交汇的f/4.0光圈所在列为纵坐标,横纵坐标交汇处的曝光值5即为当前参数组合下可以得到的曝光值。从表中可以看出同一个曝光值可以对应多种参数组合,后文将会对快门、光圈、ISO这3个参数对拍摄的影响进行说明。

  数码相机的感光芯片就像是一只水桶,曝光的过程就像是往水桶里面倒水,如果水装的太少,画面就会显得昏暗(欠曝);如果水装的太多就会显得过于明亮(过曝)。而快门、光圈、ISO这三个参数都是控制水桶装水多少的参数。快门控制向桶里倒水的时间长短,时间越长倒的越多;光圈控制出水口的粗细,出水口越粗出水量也越多;而ISO可以用来改变桶的大小(感光芯片的对光敏感性),大桶不容易被填满,而改用小桶后则可以用更少的时间和水流量来填满桶了。

  调节相机的ISO值相当于改变感光芯片的对光敏感性。当ISO值增加一倍的时候,将会使相机的曝光值减去1。相机的感光芯片在运作的时候自身会产生一定的噪声,当ISO值低的时候,感光芯片对光不敏感,可以吸收更多的光子来曝光,这时噪声在整个感光过程中占比低,画面可以保持纯净;而当ISO值高的时候,感光芯片对光变得敏感,只需要少量的光子便可以完成曝光,这时噪声在整个曝光过程中占比会变高,当ISO值过高的时候,噪声就会对画质会产生负面影响,画面中就会出现噪点。并且随着ISO的进一步提高,噪点也会变得更多、更明显。虽然相机ISO值的调节范围都比较高,但是为了画质着想,一般不建议使用太高的ISO值设置。

  根据DXOMark网站的测试,当前的普通卡片相机可以保持良好画质的最高ISO值大约为150-300,拥有1英寸传感器的高端卡片相机大约为400-600,APS-C画幅相机大约为1300-1500,全画幅相机大约为2500-4000。也就是说拥有更大感光芯片的相机在拍照时可以设置更高的ISO值而不影响画质。

  光圈的表示方式为f/1.0、f/1.4、f/2.0、f/2.8、f/4.0 ......等等。其中f代表镜头的焦距,“/”为除号,后面的数值为光圈系数。当镜头焦距除以光圈系数后得到的便是镜头通光孔径的直径大小,但是我们一般不需要这个数值,因为不同焦距的镜头只要光圈系数是相同的,镜头的进光量也基本是一致的。所以对于光圈这个参数平时只要关注光圈系数就可以了。光圈系数由于是除数,所以数值越小反而表示通光孔径越大,进光量越多。在相同的焦距下进光量是和通光孔径面积成正比的,所以f/1.4光圈的进光量是f/2.8的四倍,而非一半,即曝光值相差了2,而f/1.4和f/2.0才是相差了1倍的进光量,曝光值相差为1。

  当变焦镜头的焦距增加的时候,如果光圈孔径的大小还保持不变的话,根据光圈系数的定义光圈系数是会变大的(镜头的进光量会减少)。这种光圈系数会随着焦距的变化而变化的镜头叫做浮动光圈镜头。除了浮动光圈的镜头,还有恒定光圈的镜头,顾名思义,当镜头的焦距增大时,通光孔径也会随之变大,而保证变焦之后的光圈系数可以保持不变,镜头的进光量保持不变。恒定光圈的镜头在画质上会更有优势一些,但同时也会拥有比浮动光圈的镜头更大的体积和重量,同时成本也要更高。

  比如等效焦距为50mm的镜头,其安全快门就是1/50s。不过,安全快门属于一个经验之谈,对于不同的人,可能会有所差异,并不是一个绝对的准则。并且一些带有防抖功能的相机,开启了防抖之后可以将安全快门的速度降低2档甚至更多(相差1档相当于增加一倍或减少一半的快门时间,降低两档即将快门时间增加到原来的4倍)。至于等效焦距与焦距的关系将在后文讲解。

  为了便于描述不同画幅相机搭配不同焦距镜头时的视角,将全画幅相机搭配不同焦距镜头时的视角作为标准,其它画幅的相机与某个焦距组合时的视角用可以实现同样视角的全画幅相机的焦距来表示,即为等效焦距,它并不是这台相机镜头的实际焦距。例如M4/3画幅的相机搭配12mm焦距镜头时的视角和全画幅相机搭配24mm焦距镜头时是一样的,那么就说此时M4/3画幅相机镜头的等效焦距为24mm。全画幅相机的传感器对角线长度与其他画幅相机的传感器对角线长度的比值被称作焦距转换系数。知道焦距转换系数的情况下,用相机镜头的实际焦距乘以焦距转换系数就可以得出等效焦距了。前述例子中M4/3画幅相机的焦距转换系数为2,索尼、尼康等品牌的APS-C画幅相机的焦距转换系数为1.5,佳能的APS-C画幅相机焦距转换系数为1.6。

  不同焦距的镜头到底都有多大的取景范围呢?下面以拍摄距离相机2m的人像为例进行说明:

  距离被摄物体多远的距离、使用多少的焦距进行拍摄并没有一定之规。使用短焦在近处以及使用长焦在远处完全可以让被摄物体在照片上成等大的像,但是不同的视角会让背景有所不同,同样不同的拍摄距离也会让被摄物体因为透视压缩而看起来有所不同。具体到人像上,较近的拍摄距离会让被摄者的脸部成像占比减少,人像的脸显得小一些,而远距离的拍摄则会让脸的占比增大,让被摄者的面部显得更加饱满。焦距的介绍就到这里,下一节我们将讨论下都是那些因素在影响照片的背景虚化效果。

  当相机对焦的时候是在移动对焦点所在的平面(焦平面),当焦平面与被摄物重合的时候被摄物就会变得清晰。不只焦平面处的物体会变的清晰,焦平面之前和之后一段距离内的景物都是可以清晰成像的,这段可以清晰成像的距离就叫做景深。焦平面之前可以清晰成像的范围叫前景深,之后可以清晰成像的范围叫后景深。

  影响景深的因素一共有5个:相机与被摄物间的距离、背景与前景间的距离、博鱼体育相机的画幅、焦距、光圈。相机与被摄物体间的距离越近、背景与前景之间的距离越远、相机的画幅越大、焦距越长、光圈越大,景深就越浅,背景虚化的效果也会越强烈。后景深范围要比前景深更大一些,不同对焦距离、不同焦距下的前后景深范围比值不同,一般大都会落在0.5到1之间。下面以不同规格相机使用镜头的最大光圈拍摄时后景深的变化为例说明不同规格的相机在不同拍摄距离下的背景虚化效果差异:

  由以上图表中数据可以看出,卡片相机在拍摄距离较远的情况下,其短焦端因为后景深范围过大基本没有什么背景虚化效果,在长焦端才有了较明显的背景虚化效果,但效果仍不及画幅更大的专业相机强烈。当拍摄距离变得很近之后,卡片相机也有了不错的背景虚化效果,但效果仍旧不及画幅更大的专业相机,并且在短焦端全画幅相机的背景虚化能力优势依旧明显。当APS-C画幅的相机使用了定焦镜头之后,其背景虚化能力与使用了变焦镜头的全画幅相机相当,但是当全画幅相机也使用了定焦镜头后,此时的全画幅相机仍旧是图表中几种不同规格相机里面背景虚化能力最强的。

  分辨率代表画面的大小,而帧率为每秒钟记录画面的个数,它相当于视频的流畅度。过去胶片时代的电影帧数标准为24帧,由于帧数不高,为了保证播放时的连贯性,其每一帧的曝光时间不能设置的太短,这样就导致了拍摄快速移动的场景时会产生动态模糊。所以当超高清视频时代来临之时,制定超高清标准的时候就引入了高帧率的概念(60及更高帧率的视频)。高帧率视频减少了过去电影中的动态模糊,不过这也让一部分人觉得高帧率的视频少了些电影的质感。但无论无何高帧率时代已被开启了。

  相机的传感器像素及处理器的最大数据处理能力决定了它所能支持的最大分辨率与帧率。目前可以录制8K(7680x4320)、30帧视频的相机一般同时也可以录制4K(3840x2160)、120帧的视频,因为当设置的分辨率降低后,减少了数据处理的压力,就可以腾出额外的数据处理能力来应付更高的帧数。同理最高可以录制4K、30帧的相机,一般同时也可以录制FHD(1920x1080)、120帧的视频。同时还有少部分相机最高可以录制4K、60帧的视频,同时兼顾了分辨率和高帧率,而尼康最新发布的旗舰相机Z9甚至可以录制8K、60帧的视频。随着拍摄设备对于高帧率的普及,未来拍摄高帧率视频将会成为主流。

  目前视频的编码格式主要有H.265(HEVC)和H.264(MPEG4 AVC)两种。H.265的编码格式效率更高,也就是说它可以使用更小的码率(视频体积)实现H.264编码视频相同的画质。但是代价是编码和解码(播放)H.265格式视频所需的计算资源更高,反映到后期上就是编辑所需的时间要更长。

  帧间与帧内压缩是两种压缩模式。帧间压缩表示视频在压缩时是综合前后帧的信息进行的。而帧内压缩主要是服务于后期制作的,它在压缩视频时是为每帧分别进行压缩,这样它的压缩效率相对较低,因此为了保证画质帧内压缩的码率往往是高于帧间压缩的,视频的体积也要更大,但是在后期的时候帧内压缩所需的计算资源更少,后期编辑的速度要更快。

  色域就是画面可以呈现的最大色彩范围。上图中彩色舌型区域为CIE 1931色彩空间,包含了人眼可以识别的全部色彩范围,里面的各个三角型为几种常见的色域标准的色彩覆盖范围。最小的sRGB(standardRGB,标准色彩空间)范围最小,同时也是最常用的,并且其色彩范围与 高清数字电视的REC.709标准是一致的。而Rec.709色域标准对比更早的标清数字电视标准Rec.601(NTSC)也是十分接近的,它们的覆盖范围仅有很少的差异。而更加古老的CRT显示设备标准REC.470(NTSC)反而比REC.709的色彩覆盖范围要大一些,接近于照片标准里面的AdobeRGB。SWOP CMYK为一种印刷品的色彩范围,总体的范围接近sRGB,但有些部分是互不重叠的。AdobeRGB和DCI-P3标准范围要更大一些,它们都包含了sRGB色域范围,但相互之间的范围也是有所不同的。由于AdobeRGB包含了全部的SWOP CMYK和sRGB范围,所以它更适合用在需要打印的照片方面。而DCI-P3是一种用在电影方面的标准。Rec.2020为超高清数字电视的色彩空间标准,其范围是前述几种标准中最大的。

  虽然因为CRT显示设备的淘汰,REC.470(NTSC)标准已经基本不再使用。但是现在的显示器厂商却热衷于将自己显示器的显示色彩范围与REC.470(NTSC)相比较。sRGB的范围可以占到REC.470(NTSC)标准的72%。但是有的显示器可以显示的颜色范围虽然无法完全覆盖sRGB,但是其覆盖面积却同样可以达到REC.470(NTSC)标准的72%覆盖,索性厂商就不提sRGB的覆盖范围了,只提可以覆盖REC.470(NTSC)标准的72%,给消费者一种可以完整覆盖sRGB标准的感觉。同样对于无法完全覆盖AdobeRGB标准的显示器也是如此,不提覆盖了多少AdobeRGB标准,而是说覆盖了超过90%、甚至超过100%与AdobeRGB标准相近的REC.470(NTSC)标准的色域范围。

  色深是与色域密切相关的概念,色域表示整个的色彩显示范围,而色深表示在这个范围内一共有多少总颜色。总体上讲,为了良好的观感,更大的色域范围需要使用更大的色深。一般在sRGB色域下使用的色深为8bit(即红绿蓝三色每种各有2^8=256种,一共可以组成的颜色数为256x256x256=1677.7万种,刨去一些用于其它用途的数据,实际可使用的最大颜色数约为1060万色)。而在更广的Rec.2020色域以及拥有更高最高亮度的画面下,8bit的精度就变得捉襟见肘了,这时就需要10bit或者更高的色深了(10bit色深即红绿蓝三色每种各有2^8=1024种,一共可以组成的全部颜色数为1024x1024x1024=10.7亿种,刨去一些用于其它用途的数据,实际可使用的最大颜色数约为6.7亿色),否则画面就容易出现色阶断裂的问题,尤其当画面需要进行后期操作的时候,问题将会变得更加明显。

  为了减少生成文件的体积及传输数据时对于带宽的需求,一般视频文件不会保存相机传感器捕捉到的全部颜色信息。基于人眼对于亮度相比于颜色更加敏感的特性,视频常使用YUV这种亮度与颜色信息分开的方式来编码,然后对亮度和颜色应用不同的采样方式。Y的值决定亮度,U和V的值共同决定颜色。YUV的编码方式,常见的取样方法有4:4:4、4:2:2、4:2:0三种。

  4:4:4采样方法保留了全部的信息,文件体积不会减少。4:2:2仅保留了三分之二的信息,文件体积也就相应的减少了30%。而4:2:0仅保留了二分之一的信息,文件体积更是减少了50%。4:2:2和4:2:0采样后缺失的色度信息在回放时会通过借用相邻像素的信息来补齐,而没被省略的亮度信息依旧可以用来表现出与相邻像素的差异。这样在大幅减少文件体积的同时,画质不会有明显的变化,方便了数据的存储和传输。4:2:0的采样方式用于视频的最终输出规格,而使用4:2:2和4:4:4更多的是为了提供良好的后期调整空间。

  顶级的视频录制设备为了呈现最好的画质以及最大的后期空间,它们是可以直接记录未经压缩的来自摄像设备感光芯片的RAW原始数据的。但是为了记录这些数据不只对摄像设备本身有很高的要求,同时与之对应的存储和后期设备也得都是些顶级设备才可以应付。而更常用的视频格式会进行一种类似Gamma或者Log的曲线进行压缩。与使用YUV色彩采样方式类似,这种压缩方式也采用了基于人眼对于画面中明暗部分敏感度不同的特性,对不同亮度的数据进行的一种取舍。它对于数据的保留更多的倾向于人眼敏感的暗部,而对于明亮的地方,亮度越高保留的数据越少。这样在保持较高画质的情况下还可以大幅减少文件尺寸。

  另一个使用Gamma曲线的原因是老式的CRT电视输入的电信号和输出的亮度是非线性的,为了获得正常的显示效果,视频文件在保存时使用Gamma曲线进行了变换。虽然后来的液晶电视没有了这个问题,但是为了与CRT电视兼容仍旧保留了Gamma变换,然后在重放的时候再应用一个逆变换得到正常的显示输出。

  而Log曲线与Gamma曲线类似,只不过因为不用考虑对于CRT显示设备的兼容问题,为了在对数据进行压缩的同时还能最大化的保留相机传感器的信息, Log曲线看起来更加陡峭,压缩效率也更高。但不同厂商的Log曲线各不相同。显示设备没有办法进行一个统一的逆运算得到画面亮度正常的图像。因此Log视频在最终输出前需要重新进行亮度映射,以匹配标准动态范围(SDR)的Gamma曲线或者高动态范围的(HDR)的PQ/HLG曲线,然后才可以正常显示。同时也因为Log视频可以保存大量相机传感器信息的特性,对存储空间及后期硬件要求也不如RAW那么高,这就让Log格式视频成为了一种受后期调色欢迎的视频格式。

  HDR即高动态范围,动态范围指的是设备记录下来的场景的明暗范围,越大越接近人眼感知的真实世界。不过目前拍摄和显示设备的动态范围还达不到人眼的水平。而对比拍摄设备,往往显示设备的动态范围还要更低。在HDR这个概念出现之前,一直都是舍弃拍摄设备高于显示设备的那部分动态范围,或者是像一些专业拍摄设备通过设置拐点的方式将超过显示设备动态范围的一些高光部分的信息压缩到显示器的低动态范围之内,但是压缩的范围比较有限,如果过度压缩的话会造成画面整体对比度降低的问题。为了解决显示设备动态范围低的短版,更好的发挥拍摄设备的效用,同时也是为了能更接近再现人眼对真实世界的感知,HDR显示器应运而生。同时出现的还有各种HDR显示标准。其实各个HDR标准本质上就是一些类似Log曲线的定义,但是因为大家在编解码时都可以遵循这些统一的标准,因此它们可以直接作为最终的输出,并且可以在支持它们的显示器上正常的显示。目前常见的HDR标准有HLG/HDR10/HDR10+/Dolby Vision(杜比世界)。这几个标准效果不尽相同,HLG相比于其它几个与过去的SDR标准(即标准动态范围标准)兼容性更好,但整体效果对比其它几个标准也要差一些。HDR10+和Dolby Vision要好于HDR10,而Dolby Vision效果最好,并且它也是这几个标准里唯一需要付费授权的标准。另外,Dolby Vision标准也分几个等级,其中最高端带有附加信息流的双层杜比视界更是超高清影碟的独享标准。

  最新的一种照片压缩格式,虽然和JPG一样属于有损压缩,但是压缩效率更高,可以用更小的文件尺寸实现和JPG同样的画质,或者是用同样的文件尺寸实现更高的画质。并且相比于JPG格式它还可以使用更高的色深、更广的色域、更大的动态范围来存储照片,在画质上可以更加接近于RAW格式。不过HEIF和JPG一样属于适用于最终输出的格式,而不像RAW格式那样还适合于后期制作。并且HEIF格式目前仅有一些高端相机支持,例如佳能EOS 1DX Mark3/EOS R3/EOS R5/EOS R6、索尼A1/A7 Mark4/A7S Mark3。而在手机方面近两年的高端安卓机型也纷纷加入了对此格式的支持。至于苹果手机更是早在iPhone7推出的时候就支持拍摄HEIF格式的照片了。

  尽管相机厂商自己的图片处理软件可以支持查看和编辑各自的HEIF文件。但是通用的、功能更强大的照片处理程序Photoshop及Lightroom目前仅能够支持iPhone拍摄的HEIF照片。甚至在Windows系统里需要借助第三方软件或者安装额外的插件才可以查看HEIF格式的照片。HEIF之于JPG就显示效果而言就相当于HDR视频之于SDR视频,但是目前想要使用还需要专有的软硬件来配合,仍有诸多的不便。HEIF是一个面向未来的文件格式,随着进一步的普及未来它将会成为主流格式,并且在软件的支持方面也会变得更好,使用起来也会更加方便。

  首先问一个问题,相机和手机最大的区别是什么?嗯......其实是体积。手机受小体积所限,难于像相机那样装入大尺寸的感光芯片。而更大尺寸的感光芯片,往往代表着更好的画质。具体来讲一般更大尺寸的感光芯片,拥有更大的动态范围,在明暗对比度高的场景可以拍出更多明暗部的细节,同时由于本底噪声更低,在拍摄夜景的时候更具优势,可以获得更好的夜景画质。所以手机在动态范围和夜景上就不如相机了,是吗?不一定,现在拍照手机可以采用拍摄多张不同曝光值的照片合成的方式来提高自身的动态范围,以及采用多张连拍再合成的方式提高夜景的拍摄能力。对于这两个指标高端手机的主摄是可以达到甚至超越专业相机的。

  手机受体积所限导致的另一个结果是无法通过单只镜头完成变焦,想要大的变焦范围就得配置多颗不同焦段的镜头。但是这种解决方案却有一个劣势:那就是越长焦距的镜头体积越大,为了可以装得下长焦镜头,手机的长焦镜头相比于广角的主摄,只能通过减小感光芯片面积和镜头光圈的方式来缩小体积,这就造成了随着手机变焦倍数的提升,拍照时的画质会逐步劣化,没有办法像相机一样一直保持优秀的画质。

  还有一个手机与相机的不同之处是背景虚化的效果,手机过小的感光芯片尺寸导致其(类似普通卡片相机)只能实现轻微的背景虚化效果,是无法比拟专业相机的。虽然手机很早就有了通过多个摄像头同时拍摄,利用视差信息来计算模拟相机的背景虚化效果,但是始终还不够成熟。即便宣称可以达到f/2.0、f/1.0这样大光圈的背景虚化效果,实际上效果和专业相机相比还是有不小差距的,而且手机模拟的背景虚化看起来会不够自然,并且有时还会出现拍摄主体的抠图错误。并且绝大部分的手机光圈大小都是不可调节的(少数可调光圈大小的手机也仅有两档可以调节),但是相机的光圈调节范围都很广,除了可以通过增大光圈提升背景虚化效果外,还可以通过减小光圈达到前景与背景同时清晰的效果。

  再有手机除了可以通过计算提升动态范围和夜景效果以外,还会通过算法对照片进行各种增强操作,让画面观感更好,甚至可以根据场景自动对成像进行调色,还有各种自动美颜功能,并且自身也有一些后期操作和后期软件可以使用,在手机上就可以完成多种对照片的后期操作。在相机里面可以对画面进行的调节就很有限了,基本上后期的操作都是需要依赖电脑来完成的。

  另外相机比起手机一般像素也会更高。一些手机像素都上亿了,相机才几千万,还说相机像素更高?其实手机摄像头的高像素(最大像素)模式在使用上是有限制的,在手机最大像素输出的时候很多画质增强操作是不可用的,只有在环境明亮且对比度不那么强烈(光比小)的场景下使用才可以获得良好的效果。更多的时候,或者说默认的时候为了最好的画质,手机是将感光芯片的多像素拼合成1200万像素之后输出的。

  专业的相机除了机身上的LCD屏幕用作取景器外,还额外配备了EVF取景窗。当透过EVF取景器取景时不光可以避免光线过亮时导致取景画面看起来变暗的问题,而且对比起手持拍摄还可以降低机身震动对成像造成的不利影响,并且还可以在取景时带来更高的沉浸感和专注度。不过即便都是配备了EVF取景窗的相机,它们的EVF取景窗素质也可能是不同的,一般来讲更高端的相机其EVF取景窗视野更大、分辨率更高(要保证EVF取景窗的清晰度,其分辨率至少要达到100万像素才好,而厂商通常会把LCD及EVF取景器的每个像素的红绿蓝三个子像素分别加在一起计算总像素,这样也就是需要保证EVF取景器至少有300万点才能获得较清晰的观感)。

  各品牌同等级相机的EVF取景器视野范围与上表中的数据大体相当,但索尼的最新旗舰微单A1配备的EVF取景器视野是目前相机里面最大的。不过相机的取景器视野也不能一直增大,除了体积的限制,过大的取景范围并不利于取景,并且改变了的取景器视野也会对过去的使用习惯产生一些影响。

  以上是相机和手机的主要区别,还有像是操作的便利性(实体拍照键、众多功能设置按钮),更好的握持感,对焦、追焦、连拍性能,拍照时的反应速度,往往也是相机更占优势。毕竟相机就是为了拍照而生的,而摄影只是手机众多功能中的一个。但手机仍旧凭借着画质优势淘汰掉了低端卡片相机,又因为轻薄便携、主摄不输高端卡片乃至微单的画质,还抢占了一部分高端相机的市场。

  基于拍到比拍好更重要的原则,手机显然更适合作为拍照工具,而人们对于画质的无限追求,注定高端相机也不会被手机取代。它们会在各自的道路上越走越远、越来越好。目前手机拍照硬件的发展已经趋于稳定,手机厂商下一步将更多的(学习苹果)在拍照的用户体验(软件及软硬件结合)方面发力,而相机作为一个诞生了一百多年的“老物件”,也该引入一些更加颠覆的技术了。佳能前不久就发布了一款VR镜头,虽然售价高昂且当前VR的相关技术还不算成熟,但却是很好的一次尝试。如果可以吸引更多的厂商跟进参与、进一步发展的话,或许不久后真的可以看到全新形态的相机出现。

TOP