如何选择合适的光学元件(镜头,相机)
对于每个视觉系统应用,光学系统对整个图像的质量、准确性、速度和重复性都至关重要。
构建视觉系统时,必须考虑应用、分辨率、照明、景深(DOF)、视场(FOV)、处理速度和其他要素。但是,构建的系统往往无法达到性能预期,或者使用了指定条件过多的组件。这两种缺陷都需要付出高昂的代价,因为由于指定条件不足而出现故障的系统必须重新设计;指定条件过多的系统包含高价格组件。
视觉系统从图像中提取必要的信息,因此应用将决定所需的图像质量。
系统成像能力是由组件成像能力决定的。每个视觉系统都需要照明、镜头、相机以及监视器或计算机/捕获板来分析图像。用户应该选择适合应用且相互补充的组件。避免对系统的某些部件指定过多质量条件,可以确保所有组件的价格不超出项目预算。
要为应用选择适当的镜头,需要了解多种参数和概念。这些概念包括视场、工作距离、分辨率、对比度、远心度和照明衰减等。
视场
视场(FOV)是被观察物体的可视区域。换句话说,就是整个物体中填充相机传感器的部分。FOV可以采用多种形式指定:对于缩放或变焦镜头,可以使用范围的形式来指定(如10~50mm);对于工作距离较广的镜头,可以指定为一个角度规格(如25°);对于固定放大倍率镜头,可以指定为一个固定数值(如25mm)。但是,如果使用了不同尺寸的成像阵列,所有这些规格都会发生变化。
请记住,市场上有许多不同尺寸的阵列。要为您的应用选择合适的镜头,就必须了解阵列的实际尺寸。阵列变大,FOV也会随之增大;反之,传感器变小,FOV也会随之减小。通过镜头的放大倍率,可以指定相应的FOV以顾及不同的成像器幅面。镜头的放大倍率是系统的主要放大倍率,被称为PMAG。
主要放大倍率
主要放大倍率(PMAG)描述了可以在特定传感器阵列中看到的物体范围,其计算方式为:
PMAG=传感器尺寸/FOV 或 FOV=传感器尺寸/PMAG
最后,需要寻找与所选相机配合使用时能满足FOV需求的镜头。通过为这一公式求解,可以了解需要哪种放大倍率的镜头,或者放大倍率或传感器尺寸变化后可以获得多大的视场。此外,还必须了解传感器尺寸(也称为芯片或传感器幅面)才能使用这些公式。例如,
所需FOV=12.8mm、水平传感器尺寸=6.4mm时,PMAG=6.4mm/12.8mm,PMAG=0.5X。
或者,所需FOV=12.8mm、水平传感器尺寸=8.8mm时,PMAG=8.8mm/12.8mm,PMAG=0.69X。
每个镜头都会产生一个PMAG或PMAG范围,这不受所使用传感器的尺寸影响,因为PMAG是镜头的一种属性(见图1)。需要注意的是,如果镜头的焦距接近无穷远,则其PMAG接近于零。在这些情况下,使用视场角值可以更加轻松地确定FOV。请记住,视场角因传感器尺寸而异:
FOV=2×(工作距离×tan[θ/2])
其中,θ=特定成像器尺寸的镜头视场角。
图1:PMAG是镜头的一项属性,描述了可以在特定传感器阵列中看到的物体范围。通过镜头的放大倍率,可以指定相应的FOV以顾及不同的成像器幅面。
成像传感器幅面
许多成像阵列的宽高比都为4:3(见图2)。请注意,传感器幅面尺寸并不等于传感器的有效区域。视频镜头通常可与任何相机配合使用,但先决条件是镜头设计幅面必须要大于或等于相机幅面。如果传感器过大,则会出现渐晕(管状视野)现象。因此,大多数镜头都会指定可配合使用的最大幅面或最大对角。
图2:成像传感器具有多种标准幅面尺寸。阵列变大,FOV也会随之增大;反之,传感器变小,FOV也会随之减小。
|
工作距离
工作距离是指从镜头前端到被观察物体之间的距离(见图3)。一些镜头(如物镜)具有固定的工作距离,但也有许多镜头的工作距离是在特定范围内的。尽管工作距离可能是需要指定的参数中最简单的一个,但用户在确定适合应用的最佳工作距离时,仍然必须考虑一些细节。总的来说,在考虑工作距离时,系统尺寸、移动部件、飞扬的碎屑以及照明等各方面都必须列入考量范畴。此外,镜头系统的放大倍率越高,工作距离就越长。如果需要在工作距离较长时达到较高的放大倍率,系统尺寸可以进一步增加。
图3:工作距离是指从镜头前端到被观察物体之间的距离。 分辨率是被观察物体的最小特征尺寸。镜头的景深是镜头 在物体位置靠近或远离最佳焦点时,保持所需图像质量的能 力。
|
分辨率
分辨率是被观察物体的最小特征尺寸。通过分析分辨率和对比度之间的关系,用户可以了解极为实用的调制传递函数(MTF)。分辨率是对成像系统再现物体细节能力的测量。例如,假设一个白色背景上有一对黑色方形。如果这两个方形在邻近的像素上成像,则会在图像中显示为一个大的黑色矩形。为了加以区分,这两个方形之间需要留出一定的空间。只要找出看见两个方形所需的最小距离即可了解系统的分辨率极限。交替的黑白方形之间的关系通常被描述为线对。
通常,分辨率由频率决定,而频率则通过每毫米线对数(lp/mm)来测量。这里涉及到两种不同但相互关联的分辨率:物方分辨率(可以分辨的物体要素的尺寸)和像方分辨率(镜头分辨率和相机分辨率的结合)。传感器的线对分辨率不能超过传感器像素数量的一半,因为要分辨一个黑白区域,至少需要一对像素。像方和物方分辨率(以lp/mm描述)采用系统主要放大倍率表示。系统的分辨率极限,可以通过对测试目标成像(见图4)来确定。
图4:条状目标由不同频率的线对组成,而星标则由具有连续频率的楔形组成。条状目标中的正交线非常有用,因为通过图像中x和y平面中所显示不同的误差,用户能成功地测试出系统是否存在误差(散光误差)。条状目标受到有限的频率等级限制。星标没有这一缺陷,但它们的解译难度更高。
对比度描述黑色与白色的区分程度。在现实情况中,黑白线条会在某种程度上模糊成灰色。噪音和边缘模糊会导致对比度降低。图像边界区域相互间差异的有效再现能力,通常都以灰度或信噪比来定义。在定义清晰的图像中,黑色细节必须显示为黑色,白色细节必须显示为白色(见图5)。
图5:黑白线条之间的强度差异越大,对比度就越高。人眼可以观察出低至1%~2%的对比度。典型的对比度极限(10%~20%)通常用于定义CCD成像系统的分辨率。
明暗线条之间的强度差异越大,对比度越高。对比度是黑白之间强度的分离程度。再现物体对比度与再现物体细节(即分辨率)一样重要。镜头、传感器和照明,在确定最终图像对比度方面都发挥着重要作用。
对比度
镜头对比度通常以再现物体的对比度百分比来定义。图像的分辨率和对比度可以单独定义,但同时也密切相关。实际上,没有指定特定对比度的分辨率往往毫无意义。同样地,对比度也取决于分辨率频率。
图6:对比度并不是常量,它取决于频率。图中上方的圆点可以通过镜头成像。它们略微模糊。如果斑点进一步移近,模糊部分将重叠,且对比度下降。斑点靠近到足以使对比度达到极限的距离时,其间距即为分辨率。
假设两个圆点相互靠近并且通过镜头成像(见图6)。鉴于光的性质,即使经过完美设计和制造的镜头,也无法准确再现物体的细节和对比度。在衍射极限下使用镜头时,图像中的圆点的边缘仍然会模糊不清。如果圆点之间的距离较远(在低频状态下),则能清楚分辨,但随着它们相互靠近,模糊区域将重叠,直至无法再分辨出这些圆点。分辨率取决于成像系统检测圆点间距的能力。因此,系统的分辨率取决于衍射及其他光学误差所导致的模糊程度、圆点间距以及系统检测对比度的能力。
光学工程师通常会在特定分辨率下指定一个对比度等级。如果将一系列频率下的对比度绘制成图,将得到一条MTF曲线。假设对黑白平行线条进行了目标成像。分析一下逐渐增加目标行间距频率的效果,以及这一行为将如何影响对比度。正如人们所预料的,对比度会随着频率增加而降低。可以采用通过一系列不同线对所得出的对比度值来绘制MTF曲线。
图7:调制传递函数(MTF)曲线表示镜头在特定频率(分辨率)下再现对比度的能力。由于视场内不同位置的MTF各不相同,因此需要绘制多条曲线才能了解镜头的真正性能。右侧的图表显示了视场内三个位置(中间视场、0.7视场和图像角落的全视场)的MTF。视场内的所有位置(不仅仅是中间)都应该满足应用要求,以确保系统准确性。
根据这些位置绘制出的曲线显示了所有分辨率(而不仅仅是极限分辨率)下的调制,即对比度(见图7)。需重点强调的是,曲线的高分辨率端并非总是MTF最重要的部分。对于许多应用,在低频率下达到高对比度比达到分辨率极限更加重要。对于此类应用,高分辨率的镜头非但无法提高整个系统的性能,反而会大大提升成本。相反,用户只需要提供更加稳定或明亮的照明即可。
此外,如果能够在应用所需的分辨率下提高对比度,实际上也就降低了系统的处理时间。这是因为,如果提高了图像的对比度,就能更快地找到和测量物体和边缘。
视场内各个位置的分辨率和对比度都各不相同。距离图像中心越远,分辨率和对比度就会越低。这并非大问题,因为许多镜头都能在所有FOV位置上展现出优于与它们配合使用的传感器的性能。但如果不考虑这一点,那么在许多应用中,视场边缘测量的准确性都会受到影响。这可能会导致不合格部件通过检测,或良好部件未通过检测。同样,这一信息也可通过MTF曲线表示。
还有一些其他措施也可以提高系统内的镜头性能。如果只使用一种颜色,则不需要考虑色差问题。如果系统不需要在整个光谱上进行色差校正,那么镜头设计将会更加简单。采用单色设计也可能简化照明系统,因为相较于白炽灯,单色LED的功率更低、产生的热量也更低。将彩色滤光片与白光光源配合使用也能达到此效果。滤光片能以极低的成本大幅提高系统的能力。此外,单色光源和滤光片还能进行色彩分析。
景深
镜头的景深(DOF)是镜头在物体位置靠近或远离最佳焦点时,保持所需图像质量的能力。景深也适用于具有一定深度的物体,因为高景深的镜头可以清晰呈现整个物体的图像。当物体放置得过近或过远而偏离工作距离时,镜头就会失焦,分辨率和对比度也都会受到影响。因此,只有同时定义了关联分辨率和对比度的DOF才有意义。
标准行业惯例是利用从衍射极限所计算得出的单一值来指定DOF。但是,很难真正对镜头进行比较,因为许多成像镜头都没有衍射极限。尽管两个镜头可能具有相同的f/数(如相同的衍射极限),但它们不一定具有相似的性能或可比较的DOF。对于对景深有极高要求的应用,最好联系镜头制造商定制。
畸变
畸变是一种几何光学误差(像差)。在畸变中,有关物体的信息只是在图像中发生了错位,而非真正丢失。畸变可能具有几种不同的形式:一种是单向畸变,也就是从图像中心向边缘偏移的一致性正/负畸变。单向畸变具有两种形式:桶形(负)和枕形(正)。
非单向畸变在从视场中间偏移到边缘的过程中会反复发生正负畸变。非单向畸变可能是由镜头设计过程中,为减少镜头总体畸变而产生的特殊结果,或者与设计类型相关的特别因素导致。在单向和非单向设计中,畸变与偏离视场中心的距离之间没有直接关联。
图8:图中的畸变具有负值,这是因为视场边缘过于靠近图像中心:畸变(%)=实际距离(AD) – 预计距离(PD)×100PD。
无论畸变是否为单向,都可以通过软件对其分析消除,从而准确测量图像。可使用测量软件和已知尺寸的圆点目标,测量偏离图像中心不同距离的畸变(见图8)。完成测量后,可以在图像中对畸变进行处理,或者在测量时将畸变因素考虑在内。去除图像畸变或重新绘制图像可能需要耗费大量处理器资源。很多时候,只需简单使用畸变计算即可,而且这还有助于缩短处理时间。
远心度
视角误差,也称为视差,是人类日常体验的一部分。实际上,大脑需要通过视差来解释三维世界。近处的物体相对于远处的物体显得更大。传统的成像系统中也存在这种现象。在这些系统中,物体的放大倍率会随其偏离镜头的距离而变化。远心镜头会对这种情况进行光学校正,让物体无论距离镜头多远,看起来都一样大。该效果运作的距离范围由镜头定义。
那么,为什么需要远心度?它有哪些优点、缺点和限制?许多应用都需要远心度,因为它能在一定范围的工作距离内提供近乎稳定一致的放大倍率,几乎可以消除透视角误差。这意味着物体移动不会影响图像的放大倍率。在具有物方远心度的系统中,物体朝向或背向镜头移动不会导致图像变大或变小,深度或广度沿光轴延伸的物体,看起来不会有倾斜感(见图9)。
图9:柱面轴与光轴平行的柱面物体在远心镜头的图像平面中显示为圆形。使用非远心镜头时,同一物体看起来将处于倾斜状态;物体上方显示为椭圆形而非圆形,可以看见侧壁。
在具有像方远心度的系统中,移动图像平面以聚焦系统或有意使系统失焦不会改变图像尺寸。这一属性是光刻行业的基础,在该行业,特征尺寸容差一般小于0.1µm。此外,像方远心度可以产生极为均匀的图像平面照明。因为所有的主光线都与图像平面呈θ角,因此不会再出现光轴到视场边缘平时会出现的图像平面照明cos4θ衰减。
不过,远心镜头也存在一些固有的不足。首先,远心度区域内(图像侧或物体侧)的光学元件的尺寸常常变大。在双远心设计(物方和像方)中,最前和最后几组镜头需要分别比物体和图像更大。例如,如果物体为100mm2,并且需要使用远心镜头观察,则镜头系统前端元件的尺寸必须大大超出部件的对角线长度,这样才能提供无渐晕的物体视场。该物体的对角线约为6in.,因此镜头的直径应该超出6in.。这样的镜头非常大、非常重,安装时需特别小心。在将机器安装到相应位置前,必须先考虑其尺寸。
对于DOF和远心度的常见误解是认为它们的DOF比普通镜头更大。实际上,远心度并不代表大DOF,DOF只取决于F数和分辨率。使用远心镜头时,物体在离开最佳焦距之后还是会变得模糊,不过是以对称的方式模糊,因此也有一定的好处。只要物体的特征在远心工作距离之内,放大倍率就不会改变。换言之,特征靠近镜头时并不会比远离镜头时显得更大。
在使用较大传感器幅面或行扫描相机的应用中,必须考虑Cos4θ衰减。对于要在相当短的工作距离内获得较大FOV的应用,也需要考虑这种衰减。从本质上说,cos4θ衰减是聚焦在图像中心与图像边缘的光线的相对差异。它通过计算图像中心的主光线与图像边缘的主光线所形成夹角的cos4确定。在许多应用中,这并不是太大的问题,但如果这些夹角大于30°,则可能会难以处理。在行扫描应用中尤其如此,因为在此类应用中,系统可能由于曝光时间较短而出现光线不足的情况。将系统推离到过远的位置可能会产生以下不良后果:
θ=30° ⇒ 相对照明=0.56
θ=45° ⇒ 相对照明=0.25
θ=60° ⇒ 相对照明=0.06
对于工作距离极短但又试图获得相对较大FOV的系统,必须时刻注意衰减,因为这种设计可能会在镜头图像侧形成较大的夹角,而且这与传感器尺寸无关。可以通过将镜头设计为像方远心来控制衰减。市面上的像方远心镜头数量有限,因此可能需要定制解决方案。
另一个抵消衰减的方案是在物体本身创建不均匀的照明。可以在靠近物体边缘的位置调配更多光线,或者在光源前端添加中性密度的滤光片,从而降低物体中间的相对照明。
最后,尽管要构建一个完整的系统,但必须了解其中的每个元件才能达到理想效果。所使用的光学元件可以显著影响整个图像的质量,确保准确性和重复性,并且提高系统的总体速度。应用成功的基础是完全承认没有哪个镜头可以解决所有应用问题
。