电脑桌面
添加盘古文库-分享文档发现价值到电脑桌面
安装后可以在桌面快捷访问

立体测量范文

来源:火烈鸟作者:开心麻花2025-09-191

立体测量范文(精选7篇)

立体测量 第1篇

关键词:摄像机标定,双目立体测量系统,棋盘,圆点阵列,精度评价

0 引言

摄像机标定是双目立体测量系统不可缺少的前提和基础, 并且标定精度直接影响最终的测量精度。摄像机标定的目的是确定三维物体的世界坐标系到摄像机上图像坐标系的映射关系, 其中包括摄像机成像系统内外几何及光学参数的标定和两个摄像机之间的相对位置关系的标定。

在一系列标定算法中, Zhang提出的平面模板标定法利用一个具有特征点的平面靶标, 摄像机从多个不同方位拍摄获取图像, 最后通过确定图像和靶标上的点的匹配关系, 计算出映射矩阵, 从而获得摄像机参数。该方法具有操作简单、精度高、鲁棒性好的特点。目前, 摄像机标定过程中使用较多的平面靶标包括棋盘靶标和圆点阵列靶标等。不同类型的靶标, 其特征点的提取精度也不同, 从而影响着摄像机标定精度。本文分别采用棋盘靶标和圆点阵列靶标进行摄像机标定实验, 讨论靶标对标定精度的影响。标定算法实现均基于Open CV。Open CV是英特尔开源计算机视觉库, 它是由一系列C函数和少量C++类构成, 里面实现了图像处理和计算机视觉方面的很多通用算法。另外, 为了对标定结果做出评价, 本文提出了基于三维测量特征点之间真实距离的精度评价方法, 能够比较形象地描述标定精度。

1 标定及精度评价原理

1.1 非线性摄像机模型

用P=[X Y Z]T表示空间中一个三维点, 用p=[u v]T表示投影在图像上的二维点, 则在理想的小孔模型下, 图像的成像过程可用如下关系式表示。

其中A代表的内参数矩阵, fu为图像u轴的尺度因子, fv为图像v轴的尺度因子, (cx, cy) 是主点 (光轴与图像平面的交点) 坐标。[R t]代表外参数矩阵, R代表33的旋转矩阵, t代表31的平移向量, s代表非零比例因子。

由于实际的镜头是透镜, 不是理想的小孔, 因此成像过程并不是理想的透视成像, 而是有不同程度的畸变, 使得空间点的成像偏离理想线性模型描述的位置。镜头的畸变主要是径向畸变, 也存在着轻微的切向畸变, 所以投影得到的实际图像坐标pd=[udvd]T与上面理想针孔投影下的图像坐标p=[u v]T存在如下非线性关系:

确定摄像机的非线性模型的过程就是摄像机标定的过程, 因此摄像机标定就是利用空间点三维坐标和对应图像二维坐标求得摄像机内外参数, 以便建立非线性的成像模型, 其中内参数包括焦距fu和fv, 透镜畸变系数k1、k2、k3、k4、k5以及主点坐标cx、cy, 外参数包括旋转矩阵R和平移向量t。

1.2 双目立体测量系统标定模型

双目立体测量系统的标定除上述单个摄像机分别标定确定内外部参数之外, 还要确定两台摄像机之间空间几何关系 (R, T) , 其中R是33的旋转矩阵, T是31的平移向量, 假设单个摄像机的外参数分别用Rl和tl、Rr和tr表示, Rl和tl表示左摄像机坐标系与世界坐标系之间的几何关系, Rr和tr表示右摄像机坐标系与世界坐标系的几何关系。对于空间中任意一点P, 如果它在世界坐标系、左摄像机坐标系和右摄像机坐标系下的非奇次坐标分别为xw、xl、xr, 则:

以及左右摄像机之间的空间几何关系为:

1.3 三维测量原理

双目立体测量系统经过标定之后, 得到的标定参数包括左右摄像机内外参数以及它们之间空间几何关系。根据相关文献[6]中所述, 利用这些标定参数便可以实现空间三维测量, 而且摄像机标定精度越高, 则三维测量精度也越高, 因此三维测量精度便可作为标定精度的评价指标。已知左右摄像机焦距fl、fr, 它们之间的旋转矩阵R和平移向量T, 和某空间点在左右摄像机投影而成的图像坐标[ulvl]T、[urvr]T, 假设世界坐标系原点与左摄像机坐标系原点重合且无旋转, 则空间点在世界坐标系下三维坐标[X Y Z]T计算公式如式 (12) 所示, 有了空间点的三维坐标, 也就能够计算出两个空间点之间空间距离, 从而能够对摄像机的标定精度做出评价。

2 基于Open CV的摄像机标定软件开发

2.1 标定算法

Open CV是开源计算机视觉库, 有如下特点: (1) 开放C源码; (2) 基于Intel处理器指令集开发的优化代码; (3) 统一的结构和功能定义; (4) 强大的图像和矩阵运算能力; (5) 方便灵活的用户接口; (6) 同时支持Windows和Linux平台。Open CV作为一个基本的计算机视觉、图像处理和模式识别的开源项目, 广泛应用于各领域, 是二次开发的理想工具。

Open CV很好地实现了Zhang提出的摄像机平面模板标定算法, 摄像机只需要从不同的角度拍摄平面靶标的图片, 就可以实现对摄像机的标定, 简单, 执行速度快, 因此能够很好地应用在工程实际中。为了保证标定精度, 图像数目一般为10到15幅, 图像越多, 标定精度越高。Open CV中cv Calibrate Camera2函数用于单个摄像机标定, cv Stereo Calibrate函数用于确定两台摄像机之间空间几何关系。另外Open CV还给出了两种平面靶标, 棋盘靶标和圆点阵列靶标的特征点提取算法, cv Find Chessboard Corners能够检测并提取棋盘角点, 得到棋盘角点个数以及角点图像坐标, find Circles Grid能够检测并提取圆点圆心, 得到圆点个数以及圆点图像坐标。关于两种靶标的标定算法, 除特征点提取函数不同之外, 其余算法均相同, 分别如图1和图2所示。

标定过程用到基本数据结构包括:矩阵Cv Mat_M1和CvMat_D1用来存储左摄像机内参数矩阵和透镜畸变系数;矩阵Cv Mat_M2和Cv Mat_D2用来存储右摄像机内参数矩阵和透镜畸变系数;矩阵Cv Mat_R和Cv Mat_T用来存储左右摄像机之间的旋转矩阵和平移向量;向量vectorobjectPoints用来存储特征点在世界坐标系中的坐标值, 向量数组vectorpoints[2]中points[0]用来存储左图像序列提取的特征点, points[1]用来存储右图像序列提取的特征点, object Points、points[0]、points[1]要保证世界坐标、左图像坐标及右图像坐标一一对应。本文双目立体测量系统标定算法基本步骤为: (1) 分别读取左右摄像机拍摄的标定图像序列。 (2) 按图像序列顺序提取各图像特征点, 将左图像提取的特征点坐标依次存储在points[0], 将右图像提取的特征点坐标依次标存储在points[1]中。这个过程中要特别注意每幅图像特征点是否都能够提取成功, 任何一幅如果提取失败, 则该幅图像及其对应的图像都要抛弃。 (3) object Points存储世界坐标值, (0, 0, 0) , (0, 1size, 0) , (0, 2size, 0) , , ( (M-1) size, (N-1) size, 0) , 其中size表示相邻特征点的空间距离, M表示特征点行数, N表示特征点列数。将特征点的图像坐标和世界坐标points[0]或points[1], object Points代入cv Calibrate Camera2函数, 从而得到左摄像机的内参数矩阵_M1和透镜畸变系数_D1, 右摄像机的内参数矩阵_M2和透镜畸变系数_D2, 以及透镜畸变系数, _D2。这个过程一定要保证points[0]、points[1]、object Points中的坐标能够一一对应。 (4) 将points, object Points代入cv Stereo Calibrate函数, 得到旋转矩阵和平移向量_R, _T, 双目立体测量系统标定结束。主要的核心编程实现语句如下:

2.2 标定软件开发

为了方便进行摄像机标定, 开发了简单的标定软件, 开发工具是Visual C++, 运行平台Windows2003, 软件主界面如图3所示。

软件界面主要包括四部分:控制板, 中间结果显示区, 标定结果显示图以及图像显示区。控制板主要包括是操作按钮, 主要操作包输入包括平面靶标参数、打开左图像文件夹、检测左图像特征点、打开右图像文件夹、检测右图像特征点、摄像机标定、保存标定结果等;中间结果显示区会显示打开的图片名称、是否检测到特征点等信息;图像显示区会显示标定图像;标定结果显示区会显示最终的标定结果。

3 实验及评价

3.1 实验环境

实验所用的两台摄像机型号均为大恒DH-ITS1420GC, 视频采集图像分辨率为1 3921 040 (像素) , 像素尺寸为4.654.65 um。棋盘靶标由17列9行方块组成, 如图4所示, 圆点阵列靶标定由16列8行实心圆点组成, 如图5所示, 两种类型靶标均具有168个特征点 (棋盘取内角点) , 相邻特征点之间距离均为63.0 mm。两摄像机之间的基线距离约为1.5 m, 离靶标距离约为2.5~3.5 m。

3.2 标定实验

在测量距离分别在2.5、3、3.5 m处, 摆放靶标, 使靶标能够均匀分布在摄像机的视场内, 另外要特别保证靶标特征点在拍摄图像中清晰可见, 然后两台摄像机各获取30幅图像, 按照前述的标定算法进行标定, 得到两台摄像机的内部参数fu、fv、cx、cy、k1、k2、k3、k4、k5, 以及两台摄像机的相对几何位置R和t, 结果分别如表1-表3所示。

3.3 评价实验

为了能够对上述摄像机标定结果做出评价, 我们根据三维测量原理设计了一个三维测量实验, 即利用标定参数, 计算靶标两个相邻特征点之间距离。已知真实距离为63.0 mm, 通过与真实距离对比, 能够比较形象地反映标定精度。实验步骤:a) 将圆点阵列靶标在两台摄像机有效视场下任意摆放;b) 左右摄像机分别获取一幅图像;c) 分别提取两幅图像的实心圆点圆心坐标;d) 利用上述标定实验得到的摄像机标定参数, 根据式 (12) 计算出特征点空间三维坐标, 从而计算出相邻特征点之间距离, 并与真实距离对比。实验结果如表4所示。

从测量绝对误差平均值和测量方差来看, 利用圆点阵列靶标获得的摄像机标定参数计算出的三维坐标精度更高, 从而表明实心圆点比棋盘角点具有更高的定位精度, 采用圆点阵列靶标进行摄像机标定将获得更高的标定精度。

4 结语

Zhang平面模板标定法进行摄像机标定, 具有简便、精度高、鲁棒性好等优点, Open CV很好地实现了实现该标定算法。本文基于Open CV和Visual C++, 开发了标定软件, 软件界面简洁友好, 能够方便地进行摄像机标定。该软件已经成功应用到大场景, 比如船板测量系统和小场景, 比如牙齿测量系统的标定, 测量结果表明, 本文的标定方法能够满足大部分场景的标定精度要求。

参考文献

[1]Brown D C.Close-range camera calibration[J].Photogrammetric Engineering, 1971, 37 (8) :885-886.

[2]Tsai R Y.A versatile camera calibration technique for high-accuracy3D machine vision metrology using off-the-shelf TV cameras and lenses[J].IEEE Journal of Robotics and Automation, 1987, 3 (4) :323-344.

[3]Zhang Z.A flexible new technique for camera calibration[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 22 (11) :1330-1334.

[4]Intel Corporation.Open Source Computer Vision Library Reference Manual[S].2001-12.

[5]马颂德, 张正友.计算机视觉——计算理论与算法基础[M].北京:科学出版社, 1998:87-89.

[6]张广军.机器视觉[M].北京:科学出版社, 2005:99-102.

[7]刘瑞祯, 于仕琪.OpenCV教程基础篇[M].北京:北京航空航天大学出版社, 2007:393-400.

[8]尹文生, 罗瑜林, 李世其.基于OpenCV的摄像机标定[J].计算机工程与设计, 2007, 28 (1) :197-199.

立体测量 第2篇

三维立体技术是利用先进的数码合成技术制作相应的三维立体图像。选择清晰的照片扫描到电脑里,之后利用电脑里的三维制图软件对其进行处理,得出一个和原物成比例的数字模型,其精确度超过 99%.目前在具体工程中,三维立体技术主要有以下 2 方面应用[1].1.1 数字地形建模(GIS)

数字地形建模的本质是将地形表面信息进行数字化表达,具有很强的空间位置和地形特征。该技术将地形放置在三维坐标系中,通过一系列的离散点来构建模型,目前在地理信息中应用广泛,和我们的关系也很密切,如 GPS、农业管理等。

1.2 虚拟现实

虚拟现实是利用计算机技术给人以逼真、自然的场景,属于一种大规模的场景建模技术,很多电影娱乐特效都是基于该技术创建的,在以后的工程模拟和灾害预测中必然会得到发展。三维立体图生成法在煤堆测量工作中的应用

2.1 对矩形区域进行三角剖分

三角剖分是计算机图形和几何中的关键问题,其质量直接影响到计算的精确度,其中以 Delaunay三角剖分应用最为广泛。它的一个重要性质就是其外接圆不包括其他数据点,据此技术人员将煤场底面假定为矩形区域,之后进行散落点数据采集,最终建立煤堆三维立体图。

2.1.1 数据结构该算法的具体数据结构如下:①每个数据点都以链表的形式储存,且对应着各自的 x、y 坐标值和高度值;②边界点集由边界上的数据点构成,记录内容相同,不过随着剖分而作实时修改;③内点集由区域内的点坐标构成链表,也要进行实时修改;④三角形集是剖面形成的三角形链表,链上的每个节点都记录着三角形顶点指针,按照逆时针排列[2].三角剖分过程如图 1 所示。

2.1.2 算法的实现数据收集完成后,就要对其进行算法处理,具体步骤如下:

(1)根据原始数据点的所在区域对其加入一定的矩形边界,之后按照扫描步长生成边界的点集和边集,将其作为原始数据点集的组成部分。

(2)在边界的边集中选取 x 值最小的点(即位于区域的最左端)作为基边,之后在右侧搜索第三点,使 cos(∠P1P3P2)取得最大值。

(3)检查第三点,对边界的边集进行修改,如图 2 所示,即在内点集不变的情况下删除原边界集中的边界边,增加新的边界点。

(4)将三角形的顶点号依次记录下来,并认真更新边界的边数、点数。如果内点数为 0,则说明未完成的部分是一个具有边界点的多边形区域。

此时要以该多边形最小内角两条边和另外的两个顶点连接三角形,并对应地修改边界边数、点数、点集,记录三角形顶点号。如果内点数不为 0,而且边数大于 3,则继续从第二步开始;如果内点数为0,而且边数大于 3,则从第三步开始;如果都不是的话就结束三角剖分运算[3].2.2 煤堆三维立体图的生成对三维数据点进行三角剖分后,再经过图形变换,就可以将三维数据点集用三维图形表示出来,其拓扑结构和平面域内的一样。在三维立体图中,轴测图可以比较简单地进行绘制,一般也采用这种方法。轴测图是一种单面投影图,其在 1 个投影面上可以同时反映出 3 个坐标面的形状,接近人们的视觉习惯,一般在设计中用轴测图来帮助构思和想象物体,以此来补充正投影的不足。

轴测图具有平行投影的所有特性:①物体上互相平行的线段在轴测图上仍然是平行的;②物体上两平行线段或同一直线上的两线段长度之比在轴测图上不变;③物体上平行轴测投影面的直线和平面等于轴测图上的实长和实形。

轴测图的主要画法如下:

2.2.1 坐标法根据物体的特点建立合适的坐标系,在坐标中画出各顶点的轴测投影,之后将各点连接组成其轴测图。具体步骤如下:①确定坐标的原点和坐标轴;②作轴测点,按照坐标次序将顶面各点的轴测投影连接;③过顶面各点做 OZ 轴的平行线,量取相应的高度,再连接起来即得到轴测图。

2.2.2 叠加法对于一些图形可以用叠加法来画出其各部分的轴测图,然后再进行整合。具体步骤如下:①将物体分为可叠加的几个部分;②定出原点位置,画出第一部分的轴测图,之后画出第二部分的轴测图;③分别将第一部分和第二部分开槽和整理,最终得到该物体的轴测图。

2.2.3 切割法切割法首先将物体看作一定形状,画出其轴测图,之后按照物体形成的过程对其进行切割,依次画出被切割后的形状[4].在煤堆三维立体图生成过程中,主要应用坐标法和相应的矩阵变换方法,最终形成数据点集的三维图形。

2.3 消隐处理

三维图形要有明确的意义和真实感,因此要对其不可见部分进行消隐处理。煤堆三维立体图一般由三角面片线框勾勒,消除隐藏线对于增加其真实感是很有必要的。在煤堆立体图中,每个三角面片都有其外法线,外法线和 y 轴夹角是判断该外法线所在平面可见性的重要标准。当该夹角 90°≤U≤180°且 cosU≤0 时,该外法线所在平面不可见;当 0°≤U≤90°且 cosU>0 时,该外法线所在平面可见。cosU 正负号的判断方法按式(1)进行,由公式可以看出 cosU 的符号由 B 决定[5].cosU=UN(1)N=Ai+Bj+Ck(2)式中:|N|为法向量 N 的模,恒为正值;U 为外法线与 y轴夹角;i、j、k 分别为 x、y、z 轴 3 个方向的单位向量;A、B、C 均为系数。三维立体图生成法在煤堆测量工作中的效果分析

选取 1 个 200 m×80 m 区域的煤堆进行测量。

首先利用激光扫描仪将煤堆的三维非规则数据场以图形形式展示出来,提高其可视性;然后将采集到的数据放入到三维图形中,整个计算过程不超过 3s,即可得到三维网格状结构图,如图 3 所示。从布置仪器到得出结果,整个过程比传统方法用时少50%左右,而且其精度能达到小数点后五位(单位为 m3),比传统手段提高了 15%,完全满足了实际使用要求。结 语

煤堆测量作为用煤大户的一项基础性工作,在指导生产、安排企业资金等环节中起着非常重要的作用,积极运用先进技术提高煤堆测量工作的方便性和准确性是目前煤堆测量工作的发展趋势。本文介绍的三维立体图生成法正是在计算机技术的基础上发展而来的,与传统煤堆测量方法相比,优势明显,为类似煤堆测量工作提供了参考。

参考文献:

基于双目立体视觉的深度信息测量 第3篇

从图像中提取识别特征, 输入识别分类器判别目标, 然后在左右图像中寻找对应点获得视差, 最后计算目标区域形心的三维坐标信息。如果知道一幅图像中的点与另一幅图像中的对应点, 就可以获得许多有关三维场景的几何信息, 称之为匹配问题或对应点问题。双目立体视觉定位建立在对应点视差基础之上, 因此左右图像中各点的匹配关系成为双目立体视觉技术的一个关键问题。在实际的立体图像对中, 匹配问题非常具有挑战性, 是双目立体视觉中最困难的环节之一。Zitnick等许多研究人员提出各种匹配算法, Scharstein等也对各种算法做了相关的比较研究。为了提高图像匹配的速度和准确度, 预先将图像校正后进行匹配寻找对应点。通过一个标准的外极线几何结构简化对应点的求取, 预先计算出双目摄像机标准极线几何结构, 后续图像对校正时调用即可, 能快速完成校正步骤[1,2]。

1 双目立体视觉原理

设左摄像机坐标系为Oxyz, 与世界坐标系的原点处且无旋转, 图像坐标系为OlXlYl, 有效焦距为fl;右摄像机坐标系为orxryrzr, 图像坐标为OrXrYr, 有效焦距为fr, 具体如图1所示。

Oxyz与orxryrzr之间的旋转矩阵和原点之间的平移变换矩阵矢量分别为:

根据双目立体视觉三角测距原理, 对于坐标系Oxyz中的空间点p三维坐标可以表示为

因此, 已知焦距fl、fr、R、T和左右摄像机中的图像坐标, 就可以得到被测点的三维空间坐标。

2 视觉测量系统与实验方案

2.1 视觉测量系统

视觉系统由双目立体摄像机、图像采集卡、计算机三部分组成, 通过IEEE1394数据线连接。双目立体摄像机 (Videre Design公司产品) 型号为STH-DCSG-VAR, 标准焦距2.4 mm/4.0 mm/8.0 mm三档, 图像分辨率为640×480、像素的大小dX=6μm、dY=6μm, 帧率30 Hz, 基线可调范围50~200 mm。计算机CPU为Core2 E7500, 主频2.94 GHz, 内存3.0 G, 编程软件为Matlab2010b。实验用番茄由农贸市场购买, 最大直径52~68 mm。

2.2 实验方案

识别目标是深度信息测量的前提, 双目摄像机拍摄彩色图像, 从彩色图像中提取颜色、轮廓、纹理等识别特征, 作为支持向量机分类器的输入;在应用分类器之前, 先用样本数据训练, 运用交叉验证和网格搜索技术优化参数, 然后拍摄图像用于识别目标。目标区域确定之后进行边缘检测、提取轮廓、拟合轮廓外接圆、获得目标近似圆心区域;匹配左右相机中的目标区域图像, 结合摄像机标定和图像校正获得的视觉系统参数, 计算目标三维坐标, 具体流程如图2所示。

目标区域一般对应于图像中具有独特性质的区域, 为了辨识和分析目标, 需要将区域提取分割出来, 在此基础上才能对目标进行特征提取和测量。图像分割是由图像处理到图像分析的关键步骤, 图像分割、目标分离、特征提取和参数测量将原始图像转化为更高级的形式, 用于进一步分析和理解。

双目立体摄像机拍摄RGB彩色图像, 成熟番茄为红色, 首先会考虑提取R分量作为识别的颜色特征。但光照条件变化时RGB色彩模型各个分量容易发生变动, 增加了识别难度, 而HSV颜色空间中的色调H分量几乎不受光照条件变化的影响, 能更好的反映目标颜色特征。番茄图像在HSV颜色模型的H分量图及其直方图如图3 (b) 、图3 (c) 所示。由H直方图可以发现, 曲线峰值点明显, 适合阈值分割。最大类间方差法 (Otsu) 又称为自适应阈值分割算法, 适用于具有双峰直方图的图像分割, 它根据图像的灰度特性, 将图像划分成背景和目标两部分。阈值分割后的二值图像如图3 (d) 所示, 由图3 (e) 可知, 图像分割达到预期效果, 对目标区域边缘检测, 为特征提取等后续操作做准备, 其结果如图3 (f) 所示。

在HSV颜色空间中色调分量H和饱和度分量S与亮度无关, 将其用于颜色特征提取, 提取识别目标区域的H分量平均值和S分量平均值, 颜色特征CL计算公式如下:

形状特征主要包括目标区域圆方差、离散度、伸长度。设轮廓边缘坐标为pi=[xi, yi]T, 轮廓为N个随机向量的集合:P={pi}, i=1, 2, …, N;目标区域的质心坐标为:;平均半径为:。圆方差σc反应了物体外形和圆的相似程度, σc越小表示物体越接近圆, 其定义为:

离散度定义为:

其中S为目标区域周长, A为目标区域面积。伸长度定义为:

其中L为目标区域外接矩形长度, W为外接矩形宽度。

纹理特征是从物体的图像中计算出来的一个值, 它对物体内部灰度级变化的特征进行量化。基于灰度共生矩阵的纹理特征提取方法简单、易于实现, 具有较强的适应能力和鲁棒性, 所以采用该方法提取纹理特征。

检测到的区域有两大类:一类是番茄目标, 另外一类是非番茄目标, 运用支持向量机技术作为分类器, 用来区别两者。通过某种事先选择的非线性映射 (核函数) 将输入向量映射到一个高维特征空间, 在这个空间中构造最优分类超平面。常用的核函数有线性核函数、多项式核函数、径向基核函数等, 经过实验比较, 径向基核函数具有较好的综合性能, 用于识别目标, 具体表达式如下:

其中ci是核函数的中心, σ是核函数的宽度参数。

图像匹配方法很多, 其中区域匹配是常用的匹配方法之一。区域匹配以基准图的待匹配点为中心创建一个窗口, 用邻域像素的灰度值分布来表征该像素, 然后在对准图中寻找一个像素, 以其为中心创建同样的一个窗口, 并将其邻域像素的灰度值分布来表征它, 两者间的相似性必须满足一定的阈值条件[13]。采用区域匹配算法的目的是获取致密的视差图。

为了对每个视差建立误差能量矩阵, 考虑主要采用块匹配技术。左图像记为L (i, j, c) , 右图像记为R (i, j, c) , 误差能量记为e (i, j, d) 。对于窗口大小为n×m的块匹配, 误差能量e (i, j, d) 可表示为:

其中c表示图像中的红绿蓝分量, 取值为{1, 2, 3},

3 实验分析

双目立体视觉目标测量时摄像机水平放置, 图4是实验时双目摄像机和被测量的三个番茄目标的Z-X平面投影简图, 其中O1、O2是摄像机的两个光心, B为基距, PA、PA、PC分别表示番茄的投影中心, la、lb、lc是三个番茄到x-y平面的距离即Z方向的距离。

番茄目标的三维坐标信息有X、Y、Z三个分量, 最佳的实验方案是获得三者的测量误差。确定精确的摄像机实际光心比较困难, Z方向测量基准在镜头位置后挪焦距处, 而X、Y方向的测量基准位于镜头的两个互相垂直的平面上, 实验过程中Z方向距离可以方便测量, 而X、Y方向测量难度较大。在初步研究阶段, 先完成Z方向误差分析, 下一阶段研究分析其他两个方向。为了方便测量, 实验时三个目标番茄均不移动, 将双目摄像机沿着-Z方向移动, 从而等效于测试物体的移动。双目摄像机每次移动的距离Δz是50 mm, 测试目标计算获得在左摄像机坐标 (假设世界坐标系与其相同) 的空间位置为 (x, y, z) , 测试目标在Z轴方向的距离为Lz (与图4中所示的la、lb、lc等价) , Z方向测量误差为Δa=|z-Lz|。

标定、校正、匹配等内容完成后计算目标深度信息, 实验测量数据如表1所示, 图5表明了摄像机Z方向移动时误差的变化情况。通过实验可知: (1) 在视觉系统基本参数已经确定的条件下, 系统工作距离越远, 测量误差越大, 其测量精度越低; (2) 测量目标番茄PB在左摄像机光轴上, PB在左图像中的位置在理论上是不变的, 导致其测量误差更大, 这与平时的观察事物时的体会相一致; (3) PA、PB、PC三个测量目标相对于双目摄像机的方位不同, 其测量误差也各异。

另外, f、B等摄像机参数直接参与测量计算, 参数提取准确度也影响测量精度;理论上, 长焦距摄像机测量精度高, 基距B较大的视觉系统测量误差小, 摄像机参数对测量精度影响的详细特性还需由进一步的实验进行分析。

4 结论

双目立体摄像机的内外参数、图像校正都可以得到较好的完成, 而图像分割和图像匹配方面仍有很大的提高空间。

图像分割的速度直接影响番茄目标的识别时间, 分割的精度影响识别的准确度, 目前尚未提出速度和精度都很好的彩色图像分割算法。在实际的番茄采摘现场, 视觉系统所拍摄的图像中除了成熟的番茄外还有其他的背景, 例如番茄植株本身、土壤、天空、蔬菜大棚支架等。如果系统能够识别多类目标, 那么识别能力将会有质的飞跃。

匹配特征点提取精度越高, 视觉系统测量越准确, 这就要求更好的匹配算法, 然而匹配算法的好坏往往会受到其他众多条件的制约, 例如光照条件变化。另外, 实验只是对Z方向的测量情况进行分析, X、Y方向并没涉及, 在后续研究中需要对实验方案进行改进与完善, 以实现三个分量的误差分析。每个视觉系统都是具有其特定的应用环境, 本课题中的果蔬采摘视觉系统应该结合采摘机器人机械结构、控制要求、果蔬识别距离、识别时间等特点, 优化设计视觉系统的参数、匹配算法等内容, 这也是今后研究的一个重要方面。

摘要:介绍了双目立体视觉三角测距原理和视觉测量系统, 双目摄像机拍摄彩色图像, 提取颜色、轮廓、纹理等识别特征用于目标区域识别。采用区域匹配算法获得视差图, 根据视差计算目标区域的三维坐标信息。完成了目标测量实验并对实验结果进行分析。

立体测量 第4篇

关键词:特征匹配,双目立体视觉,SURF,反向匹配,NN/SN

0 引言

双目立体视觉测量[1]一般由双摄像机从不同角度同时获取目标的两幅数字图像, 基于视差原理即可恢复出物体三维几何信息。但由于空间三维场景通过透视投影 (Perspective Projection) 变换成二维图像时, 同一场景在不同视点的摄像机图像平面上的成像会发生不同程度的扭曲和变形, 而且场景中的光照条件、被测物体的几何形状和表面特征、噪声干扰和畸变、摄像机特性等诸多因素的影响都被集中体现在单一的图像灰度值中, 这使得左右图像对应点的特征点提取和匹配问题成为双目视觉测量的关键。

快速特征点提取算法一直是国际上研究的热点。其中主要有Moracvec、Forstner算子、Harris算子、SUSAN算子等, 随着SIFT算法的提出, 多尺度特征算子成为当前研究的重点, 比较典型的多尺度特征算法有SURF (Speeded Robustness Invariant Fea-tures) 算子和FAST (Features from Accelerated Segment Test) 算子。FAST算法是运用简单的特征点提取方法, 用比较大小的方式代替了以往特征点中大量的数学积分运算, 故运算速度大大加快。而SURF算法则通过快速Hessian矩阵检测出局部最大值并定位特征点, 使用近似的方框状滤波代替了高斯滤波, 采用积分图像后, 大幅度地提高了计算速度。

根据特征提取的层次不同, 可将图像匹配方法分为基于灰度的匹配[2]、基于相位的匹配和基于特征的匹配三大类。灰度匹配算法的实质是利用局部窗口之间灰度信息的相关程度, 在变化平缓且细节丰富的地方可以达到较高的精度, 但该算法的匹配窗口的大小难以选择, 计算量大, 速度慢。以相位作为匹配基元, 本身反应信号的信息结构, 对图像的高频噪声有很好的抑制作用, 适用于并行处理, 能获得亚像素级精度的致密视差。特征匹配算法不直接依赖于灰度, 具有较强的抗干扰性, 对图像畸变、噪声、遮挡具有一定的鲁棒性, 匹配性能很大程度上取决于特征提取的质量。宋昌江[3]等将解相的光栅投射到物体上, 采集畸变栅线图像并进行编码, 最后根据曲线拟合和极线约束条件得到两幅图像的匹配点。刘小军等[4]在提取特征点的过程中加入多尺度Harris检测算子, 提高了匹配点对的重复率, 通过类聚和归一化互信息准则对候选匹配点对的角度、尺度和位置特征进行迭代筛选, 计算量较大, 实时性较差。张辉等[5]在随机光场的辅助照射下, 综合利用图像信息和几何约束信息, 提出了一种带权值的窗口, 在一定程度上改善了匹配结果, 并提出用生长法给出初始匹配, 减少了迭代次数, 提高了匹配速度。

鉴于此, 本文分析了快速鲁棒性匹配算法 (SURF) [6,7]的缺陷, 对特征点描述子进行了改进, 扩大了特征点描述区域以得到更精确的主方向, 并且通过重复利用子扇区的矢量和, 提高了计算效率。对提取的特征点描述向量进行反向匹配的相似性度量, 有效地去除误匹配点, 精确度明显提高。文中算法充分保证了图像特征的平移、缩放、旋转和仿射等不变属性, 并能很好地适应光照变化、局部遮挡环境, 具有更强的抗噪声干扰的能力。

1 SURF特征点的提取

SURF特征点提取算法通过快速Hessian矩阵检测出局部最大值并定位特征点, 使用积分图像大幅度地提高了计算速度, 并且具有尺度不变性。本文着重对SURF特征点描述符进行改进, 使得特征点提取更加快速且精确。

SURF算法的流程主要包括5个步骤:

①输入原始图像;②对图像进行金字塔分层;③对每层图像进行Hessian特征点检测, 用近似方框状滤波代替高斯滤波, 计算积分图像;④计算中心点的26邻域极值点;⑤对特征点进行描述。流程图如图1所示。

1.1 对图像进行金字塔分层, 构造图像尺度空间

尺度空间通常由图像金字塔来实现的, SURF算法通过图像与不同尺度σ下的高斯函数卷积, 并对初始图像做采样处理, 得到更高阶的图像金字塔, 源图像保持不变。图像的多尺度结构如图2所示。

高斯金字塔的构成分成两步:一是对图像进行高斯滤波, 即图像与高斯函数进行卷积运算;二是对图像进行下采样。如图3所示。

x, y两个方向的高斯卷积过程如公式 (1) 所示:

g (σ) =12πσ2e- (x2+y2) /2σ2 (1)

1.2 特征点检测并提取极值点

SURF算法选择Hessian矩阵来检测特征点, 通过计算Hessian矩阵的行列式局部最大值来定位图像特征点位置。给定图像I中的某点X= (x, y) , 则定义该点在尺度σ下的Hessian矩阵H= (X, σ) , 如公式 (2) 所示:

Η (X, σ) =[Lxx (X, σ) Lxy (X, σ) Lxy (X, σ) Lyy (X, σ) ] (2)

其中, Lxx (X, σ) 是图像中点X与高斯二阶导数的卷积。

SURF算法中采用了方框状滤波 (box filters) 代替高斯滤波 (Gaussians filters) 计算积分图像, 克服了高斯函数在处理尺度空间产生的偏差, 且与模板大小无关, 如图4所示。

图4中滤波器模板的尺度为σ=1.2的高斯函数的近似。将近似模板的Dxx, Dyy, Dxy代替图像的高斯卷积结果LxxLxyLyy得到近似的Hessian矩阵Happrox, 如公式 (3) 所示, 其中ω表示权值, 主要是为了平衡近似误差。

det (Happrox) =DxxDyy- (wDxy) 2 (3)

为了定位图像中的特征点, 在333的邻域内, 采用非极大值抑制方法, 用Hessian矩阵求出极值后, 在333的立体邻域内比较, 只有当这个值比26个邻域都大或者都小, 才把这个值作为候选特征点。然后在尺度空间和图像空间进行插值运算, 得到稳定的特征点位置及所在的尺度值。

1.3 改进的特征点描述符

SURF算法使用的是特征点对灰度信息, 通过计算积分图像的一阶Haar小波响应, 得到灰度分布信息来产生64维或128维特征点描述向量。

①确定主方向及其优化

首先, 以特征点为圆心, 选取的半径为6s (s为该点对应点尺度) 的圆域为待计算区域, 使用边长为4s 的Haar小波模板对图像进行处理, 得到x, y方向的Haar小波响应。

在实际的测试中可以发现, 对图像水平x 和竖直y方向使用22 的Haar小波模板滤波的结果和图像的一阶微分图像结果基本相似, 而44的Haar模板[10]则并没有很直接的物理意义。在本文实验中采用22的Haar小波模板。

得到小波响应后, 根据各个特征点离中心点的距离不同赋予不同的权值, 越近的所赋的权值越大。以特征点为中心, 以π/3为窗口对整个圆形区域进行遍历一周。落入窗口中所有点的Haar小波响应相加形成新的矢量, 选择最大的矢量就为该点的主方向。

然而, 计算主方向时, 使用π/3 扇形区域窗口内的Haar响应矢量之和表示主方向矢量, 实际计算中会让扇形区域以固定角度θstep步长转动, 所以, 相邻两次的转动中存在π/3 -2θstep扇区内的向量和是相同的。如果直接在每次转动后重新计算区域内的矢量和, 则会重复性地计算重叠的π/3-2θstep扇区内的向量和, 效率很低。

因此, 为了改进其计算的效率, 将计算过程改进如下:首先将Haar小波模板边长调整为2s, 为了充分利用特征点周围的区域灰度信息[8], 将计算时的统计区域扩大到半径为10s的圆域, 同时将圆域划分为2π/θstep个子扇区。在计算圆域内的每点的Haar小波响应时, 通过判断响应向量位于哪个子扇区, 将当前计算的向量累加到每个子扇区上, 计算出每个小扇区内的向量和, 然后按照扇区转动方向计算出小扇区的前缀和。从而, 每次转动π/ 3扇区窗口时, 窗口内的向量和等于未转动时的向量和加上新覆盖的一个子扇区内的向量和, 然后减去丢弃的一个子扇区的向量和, 避免了重复计算扇区内的中心π/3-2θstep部分的矢量和, 将减少1-6θstep/π 的计算量, 在一般情况下θstep取值约0.1左右, 所以效率提高了大约4倍。

②构建显著的描述符

确定主方向后, 以特征点为中心, 取边长为20s (s为特征点对应的尺度) 的矩形, 将坐标轴旋转到特征点的主方向, 划分为44的16的子区域, 对每一个子区域, 计算55采样点的Haar小波响应dxdy, 并为响应向量赋予不同的高斯权重, 以加强几何变换的鲁棒性。然后将子区域内dxdy、|dx|、|dy|分别求和, 得到四维特征向量v (∑dx, ∑dy, ∑|dx|, ∑|dy|) , 16个子区域相连就得到一个64维向量, 即该特征点的描述子特征向量。

然而由于dxdy的值可以近似为图像的一阶微分结果, dx>0和dx<0反映了图像灰度在x正方向上梯度幅值增大和减小两种不同的趋势, 同时, ∑dx和∑|dx|可以通过dx0dxdx0dx线性组合得到。但是, 由于其正交性差于后者。所以, 向量v= (dx0dx, dx0dx, dy0dy, dx0dy) 相对于向量v是更为显著的描述符。

2 SURF算法的缺陷分析

SURF算法的优点[9]在于解决了特征点检测的尺度不变性问题, 同时采用了维数较低的特征点描述子, 使特征点匹配的计算复杂性得到显著降低。但在实际应用SURF算法计算两幅图像的特征点描述子之间的距离时, 会发现某些实际的图像匹配点并不是描述子向量之间距离最近的点, 而如果取向量距离最近的点作为两幅图像的匹配点, 则会发生误匹配。

首先, 在比较相近的两幅图像中, 如果特定区域的亮度规律改变, 会极大影响到区域内特征点的描述子取值, 从而使得SURF描述子式中的∑|dx|和∑|dy|项变化剧烈, 影响到特征点距离计算。如图5所示, 图5 (a) 和图5 (b) 分别为取自两个待匹配图像同一位置对应特征点不同亮度下的邻域图像, 图5 (c) 和图5 (d) 分别表示与图5 (a) 和图5 (b) 的邻域图像相对应的描述子向量取值情况。由图5可见, 图5 (a) 中的邻域图像各部分亮度均匀;而图5 (b) 的邻域图像中x方向亮度变化很快 (从黑到白交替变化) 。由于特征点的描述子中, dx表示了x方向滤波响应极性变化的强度 (即变化频率的快慢) , 因此图5 (c) 的∑|dx|项取值较小, 而图5 (d) 的∑|dx|项取值很大。因此在特征点匹配过程中, 图5 (a) 和图5 (b) 的两个特征点之间的欧氏距离将会变得很大, 导致发生误匹配的概率明显增大。

此外, 如果特征点邻域的尺度较大会使得子区域的边长会很大, 这样图像特征点的采样点会比较分散。若待匹配的目标图像某个子区域被物体遮挡, 将造成这个子区域的特征点描述子向量与原图像完全不同, 这会极大影响特征点的匹配。如图6中, 图6 (a) 为原图像, 图6 (b) 为目标图像, 特征点邻域子区域用小方框表示, 子区域内的箭头方向即为特征点主方向, 箭头长度为特征点描述子的模。设目标图像中用黑色虚线方框表示的区域被遮挡, 则该区域的特征点描述子取值将可能与原图像的相同区域有明显不同, 因此导致误匹配的概率显著增大。

另外, 图像的转动也会引发特征向量的变化, 从而造成误匹配。J.Bauer等人通过实验发现, 当图像发生转动, 特别是旋转角度在P/4的奇数倍时, 由于高斯滤波函数的走样, 在特征点精确定位环节误差较大, 找到的特征点不准确, 从而导致同一特征点在旋转后的图像被重复检测出来的概率变低, 发生误匹配。

此外, 从SURF算法的特征点匹配搜索策略可见, 如果待匹配图中有N个特征点, 那么必须计算N64次欧氏距离才能寻找到一个匹配对。如果能通过一些约束条件减少N的大小, 则将进一步提高匹配的实时性。

3 改进的特征点匹配算法

图像特征点匹配中, 若采用NN/SN作为唯一的匹配标准, 忽略了特征向量之间的统计规律, 并且由于图像的部分遮挡以及背景复杂等因素, 大量的匹配点对中会存在误匹配的现象[11], 对后期的视觉测量造成影响。如果采用 RANSAC 算法进行剔除错误点时, 当匹配点较多时, 由于要进行多次迭代, 其计算量很大。本文在NN/SN的基础上, 利用随机抽样一致性RANSAC[12]估计利用正确的输入数据来估计参数, 并进行反向匹配, 可以有效去除误匹配点, 可提高匹配正确率。

根据对SURF算法的缺陷分析, 本文结合了NN/SN (最近邻/次近邻比较) 的方法和RANDSAC (随机抽样一致性) , 提出了反向匹配, 对图像特征点进行匹配。

①通过计算匹配点在两图像中的欧式距离, 采用NN/SN (最近邻-次近邻) 最为匹配标准对特征向量进行匹配, R1表示最近距离, R2表示次近距离, 如图7所示。

设源图像P和目标图像Q中的任意特征向量为FpFq, 则FpFq的欧氏距离Upq如公式 (4) 所示:

Upq=minp, q1, 2, (i=164Fpi-Fqi) (4)

②根据上式, 求取最近欧氏距离UNN与次近距离USN比值的UNN/USN。当比值小于阈值ε时, 为正确匹配, 反之为误匹配。阈值ε可以根据需求来定, 阈值越小, 匹配点对的数目减少, 但是图像匹配越稳定。

③求第一幅图像的所有局部特征点在第二幅图像中的最佳匹配点, 将结果存入集合A11中, 反之被舍弃。

④第二次将第二幅图像中的局部特征点, 作为源特征点, 在U’第一幅图像中寻找最近邻UNN’和次近邻USN’, 当| U’- UNN’|<| U’- USN’|时, 则认为是正确的匹配点, 将结果存入集合A2中。将集合A11, A21取交集, 则得到最终的匹配点对A1, 即A1= A11∩A21。

⑤重复第③步和第④步, 将得到的匹配点存储到集合A12和A22中, 将集合A12和A22取交集, 得到匹配点对A2, 即A2=A12∩A22, 依此类推, 执行3次, 然后取最终的匹配点的交集A, 即A=A1∩A2∩A3, 便可得到较为精确的匹配点对, 避免了RANDSAC方法多次迭代过程所产生很大的计算量。

经实验, 反向匹配算法能够克服在存在随机噪声、不同光照条件、局部遮挡以及仿射等复杂环境, 使左右摄像机图像的特征点匹配点对误差率较低的问题。

4 图像匹配实验与分析

为了验证算法的有效性, 实验选择具有双目视觉系统中是否带有随机噪声、不同光照条件、局部遮挡、存在仿射变换的图像进行测试, 并且对不同算法进行性能比较与分析。

①实验的测试图像

实验图片像素为853640, 如图8所示, 其中, 图8 (a) 是左摄像机的图像, 图8 (b) 是右摄像机的图像, 图8 (c) 是加入20%随机噪声的左摄像机的图像, 图8 (d) 是不同光照条件下的图像, 图8 (e) 是局部遮挡的左摄像机的图像, 图8 (f) 是复杂条件下的图像。所采用的硬件平台为Intel Core i3 CPU 2.27GHz, 开发环境为Visual Studio 2008。

②加入20%随机噪声情况下的特征点提取

如图9所示, 图9 (b) 是在图9 (a) 的基础上加入了20%的随机噪声, 利用文中改进的方法能够98.4%地提取出图像的特征点, 达到较高的精度。

③不同光照条件下的特征点匹配

图10是相同光照条件下图8 (a) 和图8 (b) 左右摄像机图像的特征点匹配。

选择光照不同的场景进行特征点提取、匹配, 图11是图8 (a) 和图8 (d) 的图像匹配, 正确匹配率为97.6%。

④随机噪声、光照变化、局部遮挡同时存在下的特征匹配。

对同时存在随机噪声、光照变化、局部遮挡的场景进行特征点提取并匹配, 如图12所示, 除遮挡区域外, 特征点匹配很精确。

在随机噪声、光照变化以及旋转、偏移、缩放存在的环境中, 表1给出了图像在不同位置的比较结果, 实验证明该算法具有较强的鲁棒性, 不受噪声、光照、局部遮挡的影响, 具有较好的运行速度和匹配精确度。

⑤算法性能分析

为了测试算法对各种环境的适用性, 进行了不同场景的特征提取, 与其它算法进行了比较, 随机选取以下几组图片, 如图13所示。

表2给图3中的测试图片进行了尺度不变特征算法提取图像特征点, 平均提取特征点所需时间、匹配时间及误匹配率的对比, 通过原始的SURF算法和改进的SURF算法进行比较分析, 文中的算法时间性能有很大提高, 误匹配率降低, 匹配时间也缩短了。

5 结束语

在双目视觉测量系统中, 图像特征提取与匹配的精确度和实效性是衡量一个算法的重要标准。文中通过对SUFR的特征描述符进行改进, 减少了描述子向量的维数, 使得算法的计算量大大减少, 从而提高了计算速度。结合NN/SN和RANDSAC算法, 用反向匹配方法, 提高了匹配精度。实验验证, 在存在随机噪声, 光照变化及仿射变化的图像匹配过程中, 本文算法具有很强的适用性, 能很好地应用于双目视觉测量系统中。

参考文献

[1]张可.基于双目立体视觉原理的自由曲面三维重构[D].华中科技大学博士论文, 2005.

[2]李强, 张钹.一种基于图像灰度的快速匹配算法[J].软件学报, 2006 (2) :216-222.

[3]宋昌江, 吴冈, 何艳.基于相位编码技术的双目视觉亚像素匹配算法的研究[J].自动化技术与应用, 2010, 29 (9) :63-68.

[4]刘小军, 杨杰, 等.基于SIFT的图像配准方法[J].红外与激光工程, 2008, 37 (1) :156-160.

[5]张辉, 张丽艳, 等.面向三维点云测量的双目立体匹配算法[J].南京航空航天大学学报, 2009, 41 (5) :588-594.

[6]Lowe D G.Distinctive image features from scale invariant keypoints[J].In-ternational Journal of Computation Vision, 2004, 60 (2) :91-110.

[7]Herbert Bay, Andreas Ess, Tinne Tuytelaar, et al.SURF:speeded up robust features[J].Computer Vision and Image Understanding, 2008, 110 (3) :346-359.

[8]廉蔺, 李国辉, 田昊, 等.加窗灰度差直方图描述子及其对SURF算法的改进[J].电子与信息学报, 2011, 33 (5) :1042-1048.

[9]刘明烁, 吴铁军.一种基于关联规则的图像特征点匹配算法[J].传感技术学报, 2009, 22 (12) :1737-1741.

[10]陈景航, 杨宜民.一种基于Harr小波的快速模板匹配算法[J].计算机工程, 2005, 31 (22) :167-171.

[11]文贡坚, 吕金健, 王继阳.基于特征的高精度自动图像配准方法[J].软件学报, 2008, 19 (9) :2293-2301.

立体测量 第5篇

视觉方法是确定空间目标位姿的常用方法[1],并且立体视觉测量系统是一种精确、高效率的非接触测量系统,克服了接触式测量测量速度慢、测量范围有限等缺点[2],近年来立体视觉测量系统得到了广泛的应用[3,4,5]。国内外一大批的科研院校也对立体视觉领域的相关问题做了大量的研究工作[6,7,8,9,10,11],国内的院校比如国防科技大学、天津大学、浙江大学等在这方面都做了很多深入的研究,这些研究工作涵盖了系统模型选取建立、图像处理算法、镜头畸变矫正等诸多方面,对于后人的工作具有一定的指导作用。

在该领域很重要的一项工作就是测量误差的矫正。立体视觉测量系统误差的引入因素包括摄像机本身的分辨力、镜头畸变、图像处理算法、测量操作误差、以及结构参数设置等方面[12,13]。而其中的结构参数设置将会直接影响图像的识别精度,在相机分辨力、镜头畸变矫正模型、图像处理算法都基本相同的情况下,选取一组合理最优的结构参数,将会在一定程度上提高系统分辨精度。

本文计算给出了立体视觉测量系统整个观察视场范围内各个点在不同方向的空间分辨力,对空间分辨力的取值规律进行了详细分析,得出了空间分辨力与光轴夹角、以及观察位置的关系,提出了空间分辨力最优的摄像机参数设置方式。

1 立体视觉测量系统的空间分辨力分析原理

单目视觉测量方法仅利用一台摄像机采集图像,对物体的几何尺寸及物体在空间的位置、姿态等参量进行测量。众所周知通过一台摄像机可以拍摄记录物体的颜色、形状、甚至是大小等信息,但是却无法还原出被观察物体的空间深度信息,要想得到物体的空间深度信息,至少应该采用两台摄像机,根据空间直线求交点的方式得出物点的实际坐标,并且,双目视觉具有算法计算过程简单、测量精度高、系统稳定的优点。为了分析和计算的方便本文采用针孔成像模型,并且将两台摄像机对称摆放,如图1所示。图中两台摄像机位于世界坐标系的YOZ平面内,与Z轴的夹角都是α,两台摄像机光轴交于Z轴上的一点M,因为观察距离的远近会对摄像机的分辨力有一定的影响,所以在讨论角度α对于空间分辨力的影响的时候,保持观察距离R不变,也就是让两台摄像机在以M点为圆心、以R为半径的圆周上移动。整个系统的观测视场是两个摄像机观测视场的公共区域。

在本实验成像模型下,物点的坐标和CCD图像坐标之间的关系可以用下式进行表述

其中:f代表CCD的焦距,x、y代表特征点在CCD图像坐标系中的图像坐标,xc、yc、zc代表物点在摄像机坐标系中的坐标值。

由旋转和平移矩阵可以得到世界坐标系和摄像机坐标系之间的关系:

式中:xw、yw、zw代表物点在世界坐标系中的坐标,M代表由于坐标系之间的旋转带来的参量变化,T代表由于坐标系平移带来的参量变化。

由上述式(1)和式(2)可得CCD1的成像公式如下:

整理可得:

对于CCD2,可得成像公式如下:

整理可得:

接下来再将两个像点(x1,y1)和(x2,y2),以及两个透视中心点的坐标转换到世界坐标系,通过空间直线求交点的方式,可以求得观测点的世界坐标。因为摄像机CCD像面上的像元是离散的[14],所以导致了相机的空间分辨距离不可能无限的小。两个相机组成一个双目视觉测量系统进行工作时,物点在空间移动一段距离后,只要两个相机的图像坐标(x1,y1)和(x2,y2)中的四个数值x1,y1,x2,y2任何一个数值发生变化,则该移动是可以被系统识别的。这里选取空间点M进行分析,之所以选取空间点M是因为M点是光轴交点,位于视场中心,由后面的分析可知M点在X、Y方向的空间分辨力最低,而Z方向的空间分辨力变化很小,所以M点的空间分辨力提高,将代表着整个视场的空间分辨力的提高。

2 结果与分析

2.1 空间分辨力和两台摄像机光轴夹角之间的关系

本实验中所采用的CCD摄像机的焦距f=2.7mm,分辨力640480,每个像元的尺寸3.2μm。在观测距离不变的情况下,此处设定观测距离L=400mm,当两个摄像头的光轴夹角从小到大变化的过程中,分别绘制出X、Y、Z三个方向的最小空间分辨距离随着光轴夹角的变化关系,在观测距离为其他值时,同样会得到类似的曲线。如图3所示。

从图3可以看出,X方向的最小分辨距离不随两个摄像机光轴夹角的变化而变化,Y方向的最小分辨距离随着两个摄像机光轴夹角的增大而增大,Z方向的最小分辨距离随着两个摄像机光轴夹角的增大而减小。

从中可以得出,观测空间中每一个物点不同方向的最小分辨距离不相同,同一物点不同方向的最小分辨距离可以用一个以物点为中心的小椭球表示,椭球中心到椭球表面的长度代表了这个方向的最小分辨距离。

将三个方向的最小空间分辨距离求和之后,绘制出三个方向的最小分辨距离之和随着两个摄像机光轴夹角的变化关系,如图4所示。

从图3和图4可以看出,当两个摄像机的光轴夹角取值在80°~100°之间的时候,双目立体视觉测量系统的空间最小分辨距离最小,空间分辨力最高。

图5是实际的实验测量结果,从中可以看出,理论分析结果和实验结果是基本一致的,中间误差产生的原因包括测量设备误差和人为操作等因素,理论计算过程中针对的是无限小像点,而实验过程中采集的是光斑,验证光斑重心移动一个像素距离需要空间物点移动多少实际距离,这也是误差产生的原因之一。

2.2 整个观测视场中的空间分辨力

从上面的分析可以得出,当两个摄像头的光轴夹角取值在80°~100°的时候,立体视觉测量系统的空间分辨力最高,因此在接下来的试验中设置两个摄像机的光轴夹角为90°,分析Z取不同值的时候,视场中每个点的空间分辨力的变化规律。

可以按照Z值的不同,将视场空间划分成无数个平行于XOY面的平面,计算出每一个面上全部点的空间分辨力,就可以计算出整个视场中全部点的空间分辨力。图6~图10给出了空间中不同观测距离的几个平面上的各个点,在X、Y、Z三个方向的空间分辨力分布情况。

从图6和图7可以看出,在与XOY平面平行的特定平面上,X方向的最小分辨距离不随着X值变化而变化,但是随着Y值变化而变化,并且观测距离越远,X方向的最小分辨距离越大,空间分辨力越低。从图8和图9可以看出,在与XOY平面平行的特定平面上,Y方向的最小分辨距离不随着X值变化而变化,但是随着Y值的变化而变化,并且观察距离越远,Y方向的最小分辨距离越大,空间分辨力越低;Y方向的最小分辨距离整体上高于X方向的最小分辨距离,即Y方向的空间分辨力整体上低于X方向的空间分辨力。

从图10可以看出,在与XOY平面平行的特定平面上,Z方向的最小分辨距离不随着X值变化而变化,但是随着Y值的变化而变化,并且观察距离越远,Z方向的最小分辨距离越大,空间分辨力越低。Z方向的最小分辨距离整体上变化平缓。

从图6∼图10的对比可知,同一物点X方向的最小分辨距离比Y方向的最小分辨距离小,即X方向的空间分辨力整体上高于Y方向的空间分辨力;整个空间中Z方向的最小分辨距离变化较小,即Z方向的空间分辨力变化较小;所以为了提高观测系统的空间分辨力,可以添加两台相机,同样是以M点为中心,但是却在XOZ平面内对称摆放,两组相机所在的平面相互垂直,第一组相机空间分辨力较低的Y方向,正是第二组相机空间分辨力较高的方向,所以可以整体上提高观测系统的空间分辨力。系统图如图11所示。

图中1号相机和3号相机为一组,二者对称放置,光轴夹角为90°,2号相机和4号相机为一组,二者对称放置,光轴夹角为90°。4台相机的光轴交于同一个点,并且前后两组相机所在的平面相互垂直。

3 结论

通过上述的分析,我们可以得到如下结论:1)双目视觉系统X方向的最小分辨距离不随摄像机光轴夹角的变化而变化,Y方向的最小分辨距离随着摄像机光轴夹角的增大而增大,Z方向的最小分辨距离随着摄像机光轴夹角的增大而减小。当两个摄像机的光轴夹角取值在80°~100°之间的时候,立体视觉测量系统的最小分辨距离最小,空间分辨力最高。2)在与XOY平面平行的特定平面上,三个方向的最小分辨距离均不随着X值变化而变化,但是随着Y值的变化而变化,并且观察距离越远,三个方向的最小分辨距离越大。为了提高整个系统的分辨力,可以选用两组相机对称摆放,选用每组中分辨力较高的方向的数据。

摘要:立体视觉测量系统的空间分辨力随着物体的空间位置和移动方向的变化而变化,系统的空间分辨力高低在很大程度上会影响整个系统的测量精度。本文根据立体视觉测量系统的成像公式,对整个系统观察范围内的所有空间点的空间分辨力进行了详细分析与计算。结果表明,两个CCD夹角在80°100°时系统的空间分辨力最高,并且X方向的空间分辨力整体上高于Y方向,Z方向的空间分辨力变化相对较小,最终的实验结果和仿真结果相吻合,根据系统空间分辨力的分布规律,本文制定出了制出了空间分辨力最优的立体视觉系统的参数设置方案。

立体测量 第6篇

1.1 主要基准点概述

人体数据测量是立体剪裁的基础, 为了更准确地进行设计和拿准尺寸, 一般的做法必须借助于人台, 将主要的基准点标注清楚, 这也是初学者基本功的一部分。人台主要基准点的标注如图1所示。

前颈点 (FNP) :此点位于左右锁骨连接之中点, 同时也是颈根部有凹陷的前中点。

颈侧点 (SP) :此点位于颈根部侧面与肩部交接点, 也是耳朵根垂直向下的点。

后颈点 (BNP) :此点位于人体第七颈椎处, 当头部向前倾倒时, 很容易触摸到其突出部位。

肩端点 (SP) :此点位于人体左右肩部的端点, 是测量肩宽和袖长的基准点。

胸高点 (BP) :胸部最高点, 即乳头位置。它是女装结构设计中胸省处理时很重要的基准点。

前腋点:此点位于人体的手臂与胸部的交界处, 是测量前胸宽的基准点。

后腋点:此点位于人体的手臂与背部的交界处, 是测量后背宽的基准点。

1.2 主要基准线的测量

当已经确定了人台上的主要点后, 测量就跟着开始了。这也意味着测量步骤开始了, 数据也就产生了。这些数据就是驳样或是设计的重要根据。

主要基准线在人台上的测量部位及方法如表1所示。

2 一级原型部位概述

一级原型的整体图如图2所示。原型图中分前衣片和后衣片, 里边分有许多的线和点, 也就是上面所述的基准点和基准线。

3 立体裁剪法制作女装衣身原型初探

为了更好地理解女装衣片原型样板结构设计的理论依据, 可借助人台从立体裁剪入手, 在人台进行立体裁剪操作, 以获得前后衣片的基本样板支持。如下以女上装为例进行简述。

3.1 面料准备

立体裁剪用的面料为白胚布, 这样可以非常清晰地辨认面料的组织结构及长宽方向。用做裁剪前后衣片原型样板的面料采用大小一样的尺寸。

长度 (经向) 从人台的侧颈点过人台BP点量至腰围线 (BL) ;宽度 (纬向) 从人台前中心线经人台的BP点量至侧缝 (SS) 的尺寸加上6cm。

3.2 画基准线

女装的立体裁剪是在人台的右半侧操作的, 标注立裁所需的基准线。

画前中心线 (CFL) :在整理好的白胚布右侧距布边3cm画一条经纱线。

画胸围线 (BL) :从面料的上边缘向下量取侧颈点 (SNP) 至胸围线的距离加上3cm的尺寸找点, 过该点画一条纬向线即为胸围线。在胸围线上按人台上前中心到侧缝的距离加上0.3cm松量确定侧缝 (SS) 位置。

画腰省中心线:在胸围线上以人台上乳间距一半的尺寸取到BP点, 过BP点作一条竖直向下的经纱线。

画经纱线辅助线:在胸围线上将BP点和SS点之间的距离二等分, 等分点记为PP点, 过此点拉一条经纱辅助线。

立体裁剪基准线见图3。

3.3 立体裁剪的步骤

固定胸围线与前中心线。对准白胚布与人台上的BP点、胸围线和前中心线, 然后用别针固定。

固定经纱辅助线 (PP线) 。从胸围线向下别往PP线, 注意必须保证此线是竖直向下的, 同时在腰围处可以别出约0.3cm的松量。

固定侧缝。从胸围线位置往下、经纱辅助线位置往侧面两个方向捋平面料至侧缝与腰围线的交点, 用别针固定此交点。

别出腰省。在前中心线与经纱辅助线之间产生的多余面料。

裁剪前领口。在前颈点用别针固定, 从前颈点开始向侧颈点方向用手沿着面料的经纬纱向捋平面料, 一边捋一边裁剪掉领口多余的面料, 并同时需要在领口的缝头处打剪口, 别出平整的前领口。

固定前肩点。从侧颈点开始捋平面料, 将多余的松量推至袖窿以下部位。

立体裁剪步骤示意图如图4所示。

3.4 其他

根据人台上各点与线条的位置在白胚布上描出相应的点。如前颈点、肩点、腋下点等交点用“+”, 其余就用“.”表示, 以作区别。

3.4.1 控制人体肩斜度

人体肩倾度, 人体肩部的厚度, 以及与此处于同一高度胸腔正中线的形态。也要根据对人台的测量以及相关的经验来确定。

3.4.2 胸腰差的解决

女性体型腰部呈圆柱形, 腰围线以上由前胸部、后背部、侧肩部不等球形面组合成上部体型, 上衣主要处理的一个问题就是胸腰差。这里通过省道来解决。省的设计基准就是当视线面向站立人体时, 其基本上呈现平衡状态。

人体上半身的突出点包括胸点、前腋点、后腋点及肩胛点 (在腋窝位置看不到明显的突出位置) , 因此省道的设置基本选取在这几个部位周围合适的位置。

4 结语

4.1立体剪裁是结合于人台进行立体操作的一种较合理的方法, 学习服装设计不妨从立体剪裁着手, 这样比较能看得见, 也摸得着。

4.2点、线、面是立体剪裁的基本元素, 故必须认真测量和理解人台中人体的基准点和基准线的概念, 并在日后的设计中加以运用。

4.3初学者可考虑以一款常用的女装立体剪裁作实践, 按照基本的操作步骤进行, 并注意人体肩斜度及胸、腰差, 以及袖窿弧线的适体性合、胸部浮余量的分配, 省道的数据角度与大小等问题。

摘要:服装立体裁剪是区别于服装平面制图的一种较先进的裁剪方法, 它是完成服装样式设计的重要方式之一, 更是服装设计初学者主要的基本功。现从人体数据测量点入手, 阐述人台主要基准线及其测量, 最后通过常用的女装原型版型设计的步骤作一探索。

立体测量 第7篇

分析了串扰的表现形式,提出了串扰率和受扰度的两种串扰参数的概念和表达式。指出在完整测量串扰参数时,灰阶到灰阶(G2G)的亮度测量是避免重复测量的有效策略。根据人眼的视觉特征,分析得出串扰权重的计算公式。以实际测量数据和统计分析结果为依据发现了既可大大简化测量过程又能保持满意正确程度的可行途径, 进而为双目戴镜立体电视设计了具体的测试图形、测量步骤和计算方法。还对该简化测量方法在多视点裸眼立体电视场合的运用作了说明。

该报告详细 内容可参 考本刊2013年(37卷)第22期题为《立体电视串扰参数及测量方法的研究》的文章。

立体测量范文

立体测量范文(精选7篇)立体测量 第1篇关键词:摄像机标定,双目立体测量系统,棋盘,圆点阵列,精度评价0 引言摄像机标定是双目立体测量系...
点击下载文档文档内容为doc格式

声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。如若本站内容侵犯了原著者的合法权益,可联系本站删除。

确认删除?
回到顶部