电脑桌面
添加盘古文库-分享文档发现价值到电脑桌面
安装后可以在桌面快捷访问

二维条码识别算法研究

来源:莲生三十二作者:开心麻花2025-09-181

二维条码识别算法研究(精选10篇)

二维条码识别算法研究 第1篇

1 二维图像的概述

二维图像指的是在同一个平面中用点和线拼画出的一幅图像, 其具有平面性, 比如三角形、长方形等图形。二维图像与三维图像相比少了立体感, 但是可以更直观地表示出图像的表面特征。本章节对二维图像的特征进行了详细的介绍, 接着又对二维图像的研究意义方面进行分析, 最后对二维图像的应用范围进行了描述[1]。

1.1 二维图像的特征

现在大众的观点认为二维图像中物体的亮度、角点、梯度、边缘和轮廓线等是最为基础的特征信息;还包括一些经过特殊处理的特征信息, 例如像对称性、旋转不变性、经过多种变换后产生的新特征;由于这些特征信息的数量和种类过于大量化, 研究者常常要根据不同的情况来选择不同的特征[2]。研究工作中使用的二维图像就是图像中最具有特征性的部分, 这些具有特征性的部位就可以用来作为识别点。就像世界上没有两张完全相同的叶子, 也没有完全相同的二维图像, 正是因为每张二维图像都有自己的特征, 所以就可以根据这些特征来识别不同的事物。

1.2 二维图像研究的发展历程

人类认识世界的方式就是用自己的方式去理解这个世界, 当人类用自己的视觉观察世界, 就会有意或无意地用自己的方式来记录自己观察到的世界, 这样最原始的图像就出现了。最开始的记录内容可能有非常浓厚的艺术目的, 常常用带有浓重的原始宗教或图腾崇拜色彩来表示一件事物。随着科学知识的不断进步, 人们对世界的认识越来越深刻, 其记录方式往往会越来越简单, 简简单单的几笔, 就能勾画出一幅完整的画面, 这样的画面具有线条简洁、突出重点等特征。对现在的二维图像的研究而言, 研究学者追求的就是用最简单的结构来突出事物的独有特征, 以达到后期的识别目的。

1.3 二维图像的意义和应用范围

二维图像具有特征性是二维图像拥有相关高级应用的基础, 对于二维图像的研究有着非常广泛的应用。

提高机器的识别能力要根据二维图像的表示方法来改进, 可以对机器进行设置让其“看到”相应的二维图像。

在现代化农业生产中, 对农作物和动物进行编号和拍照可以用于对农作物的生产和畜牧动物养殖的高科技管理。拍到的图像就是一个二维图像, 代表着植株或动物的特征表达, 这样就可以对作物和动物的生长过程进行管理。

二维图像在医学中的应用相当频繁。医学的二维图像的数据量非常大, 比如CT或MIR等, 医生借助二维图像在计算机的帮助下完成初步的分析和诊断, 以获得有效的可靠信息。

在军事安全中, 二维图像在嫌疑犯的识别、出入管理、摄像头等方面都有使用。另外在娱乐行业、通讯业这些行业, 二维图像的特征表示也都有非常好的应用。

2 人脸识别算法

最早的人脸识别技术出现在20世纪60年代末, Capon教授[3]在Nature上发表了两篇论文, 其中就对最初的人脸识别技术进行了阐述。当今人脸二维图像库还未完全成型, 不利于人脸特性识别研究成果的共享和评价。本小节内容主要就当前的人脸识别技术作出了讨论分析, 讨论了几个主要人脸识别方法, 最后探讨了人脸识别技术的应用范围。

2.1 人脸识别概述

近几年来, 人脸识别技术在各种应用的推动下已经有非常大的发展了, 现在各个研究机构针对人脸识别技术已经有比较可观的成果了。人脸识别技术与指纹、虹膜、语音等其他人体生物特征相比更加直接、方便。人脸识别在访问控制、身份识别、档案管理、基于二维图像的识别和视频检索等方面有着非常广泛的应用, 现在国内很多机构都已经研制出一套比较好的人脸识别系统和技术方法, 一些成熟的商家机构也将人脸识别技术投入到实际应用。最早期的人脸识别技术就是应用最简单的集合特征识别, 例如像眉毛的弧度、眼中心到眉毛的位置、嘴的厚度、脸宽等特征;发展到现在是基于模板的整体匹配思想, 最近在这些新方法下人脸识别技术有了很大的进步。

2.2 当前的人脸识别技术

本章节主要介绍了现在世界上常用的3种人脸识别方法:基于几何特征的人脸识别方法、基于模板匹配的人脸识别方法和基于弹性图匹配的人脸识别方法[4]。

2.3 基于几何特征的人脸识别算法

基于几何特征下的人脸识别方法是最早的研究方法之一, 现在很多新的技术方法就是在此为基础上发展而来的。对于每个人来说, 人脸的轮廓、大小和各个器官的几何分布位置是不一样的, 几何特征就是提取人脸部特征区域的形状和对应的几何关系为基础来进行人脸识别的。这个方法就是提取眉毛、眼睛、鼻子和嘴巴这些特征点, 计算出这几个特征点的大小以及它们之间的几何关系来进行人脸识别。

2.4 基于模板匹配的识别算法

模板匹配识别方法属于模式识别中的一种较为传统的方法, 这个方法首先是用积分投影的方法确定出面部特征位置, 提取局部的特征的模板, 然后进行模板匹配, 利用计算机计算相应的关系系数, 并进行分类。有研究人员进行了模板匹配识别方法与几何特征识别方法两者的稳定性和优越性的比较试验, 结果显示模板匹配识别方法明显要优于几何特征识别方法。

2.5 基于弹性图匹配的识别算法

弹性图匹配是一种考虑到识别目标局部特点之间拓扑结构的, 具有适应性的局部特征的匹配方法, 基于弹性图匹配下的人脸识别方法的基本思想是动态链接结构。弹性图匹配的理论基础是图匹配, 它用图来描述人的脸部特征, 用图的顶点来表示人脸的局部特征点, 边表示面部特征之间的拓扑连接关系, 测匹配度时要同时考虑顶点和边的距离。

3 二维图像表示的人脸识别算法研究

在本小节中主要介绍了基于二维图像下表示的人脸识别算法的研究。

3.1 二维线性特征子空间特征提取方法主成分分析

Turk在发表的论文中首次提出了将主成分分析法 (2D Principal Component Analysis, 2DPCA) 作为人脸特征提取算法并应用, 并在人脸识别领域取得了较大成功。此后有人将这个算法与二维人脸图像结合来表示一个较长的一维向量形式后来计算协方差矩阵, 由于转换后协方差矩阵的维数过高, 容易超过样本数目, 出现奇异矩阵、运算复杂度高和对计算机硬件要求过高的缺陷, 从而导致人脸图像特征抽取困难。所以, 之后有学者提出了一种直接利用二维图像矩阵计算协方差矩阵的方法, 优点就是能够很好地保持人脸的结构关系, 并可以有效减少计算复杂度;将二维人脸图像矩阵直接映射到子空间, 称之为二维主成分分析法解决以上问题。

3.2 线性判别分析算法

线性判别分析算法 (2D Linear Discriminant Analysis, LDA, 2DLDA) 是人脸识别中重要的特征提取方法, 从一维加权LDA算法发展到二维形式技术, 完善了一维形式的不足之处。线性判别分析算法就是利用平衡子空间的类间距的方法, 提出一种新的能够克服当前不足之处的算法, 这样的算法理解起来更加直观, 应用起来更加简便;线性判别分析算法还具有收敛性, 在类间距差别较大时应用有很好的效果。有学者对线性判别分析算法的结果进行了检测, 结果表明此算法是可行的、有效的。

3.3 局部保距投影

局部保距投影 (2D Locality Preserving Projections, 2DLPP) 能够在子空间很好地保持人脸基本流行结构, 经常应用于人脸识别技术中, 随着科技的发展, 二维局部保距投影已经成为一种新的人脸识别技术中重要的特征提取方法[2]。局部保距投影方法可以很好地消除二维图像的部分冗余信息和噪音;在特征提取方面可以有很好的表现;并且它具有降维功能, 在一定程度上减少了很大一部分工作量, 显著地降低了计算的复杂程度。在多个人脸数据库中的人脸识别实验结果显示在频域中使用二维局部保距投影的识别率要明显高于其他的技术的识别率。

4 结语

本文主要对传统人脸识别算法的不足进行了分析, 然后指出基于二维图像表示的人脸识别算法的进步之处, 弥补了传统算法的不足, 但仍然指出二维算法仍有需要改进的地方。比如提高准确性以达到局部与整体的有效结合、满足实时要求等, 这些都是有待解决的问题。

参考文献

[1]路翀.基于二维图像表示的人脸识别算法研究[D].大连:大连理工大学, 2012.

[2]张正.直接基于二维图像表示的人脸识别技术研究[D].哈尔滨:哈尔滨工业大学, 2006.

[3]刘党辉, 沈兰荪.人脸识别研究进展[J].电路与系统学报, 2004 (1) :85-94.

二维条码识别算法研究 第2篇

作为物联网和电子商务的关键应用技术,二维码识别技术在整个物联网的发展中是最好的实现手段,亦是关键环节,在国外的起步较早、发展较快,欧美发达国家在芯片设计、终端设备和系统应用方面处于领先地位。尽管如此,中国在二维码技术和应用上仍有赶超的趋势,市场处于爆发临界点的关键时刻,大量资金的涌入,二维码技术正在引发一场商业模式革命。

二维码将是物联网投资最早的受益者

中国物联网二维码主读识别领军企业灵动快拍,依托云计算技术推出快拍二维码云服务模式,为品牌企业、传统媒体、广告公司、应用商店、开发者提供一站式二维码生成、二维码品牌展示、二维码数据分析与挖掘、二维码平台建设与行业解决方案。“快拍二维码”实现“云服务”模式的物联网创新应用,解决了二维码不能多次修改以及容量不足的两大瓶颈。

灵动快拍创始人兼首席执行官王鹏飞先生接受记者采访时表示:“2011年是二维码应用的起步年,2012年“快拍二维码”与各大运营商、手机厂商、广告传媒业和移动电子商务领域的广泛合作,将会促进二维码应用市场的爆炸式增长。”

二维码将成为O2O模式下的传感器

随着二维码行业的逐渐成熟,以及手机终端智能化的发展,二维码的应用将会越来越多,基于O2O模式下的二维码购物已被1号店、淘宝网、京东商城广泛应用到户外广告中,随处可见的地铁、公交站台广告上二维码购物“虚拟超市”成为人们关注的焦点。O2O模式下二维码有效地提升营销活动的趣味性、参与的便捷性,吸引众多消费者参与品牌的活动,进而与品牌企业建立互动关系。

二维码在移动商务市场的应用前景被业内人士看好,二维码突破了时空束缚,为整个媒体传播行业和营销广告行业带来了创造性的变革,将成为精准营销时代的最大推动力量。

基于限速牌数据的识别算法研究 第3篇

关键词:图像增强技术 归一化处理 canny、HOUGH变换

0 引言

车祸被誉为没有硝烟的战争,是当今世界上危害人们生命财产安全最严重的公害之一。造成车祸最主要的原因是违章超速行驶。超速行驶影响驾驶员的反应判断能力和认识空间的能力,易出现误判,基于机器视觉的限速牌自动识别算法有效、快速、准确的预警车载是否处于安全行驶状态。

1 系统设计

本系统首先是机器视觉的限速牌自动识别系统提出速度值与GPS导航系统定位的速度作逻辑比较运算,下达给上位机的执行器作出判断、预警。

2 限速牌识别算法研究

为了增强识别的准确度、稳定性,本文采用了图像增强、归一化处理、canny、HOUGH变换、提出限速牌的数据传送到导航系统。

2.1 直方图的图像增强技术 在应用中,图像增强技术没有固定和统一的标准,只要能把图像的质量和识别的精度提高。而系统在对限速牌数据摄取,变换、传输的时候,受到自然环境因素的影响,获得的图像失真较大,易造成误提取。直方图的增强技术可以根据图像实际情况,采用直方图增强技术,将速度值增强,滤掉杂质等无关紧要的信息,以便从整体或局部上起到改善图像质量的作用。

2.2 归一化处理技术 本文设定单位大小为:100*100像素的图像,当获取到120*150的图像时候,就需要将120*150的图像归一化到100*100,具体操作是它的宽和高都乘以一个缩放参数1/1.2、1/1.5。要想实现图像的标准化就要先将字符调到一致的尺寸,再将系统中的高度统一一致,最后根据高度的不同来调整字符。

2.3 边缘检测算法 所谓图像的边缘就是指图像中局部区域亮度变化剧烈的部分,它是图像分割的重要特征和依据,包含了图像的绝大部分信息。边缘检测作为图像处理技术研究的重要领域,其检测结果将作为重要参考,以得出最终的目标图像。

Canny算法是一种与边缘检测类似的方法,具体步骤包括:降噪、寻找图像中的亮度梯度、在图像中跟踪边缘。本文首先是将限速牌滤波,再利用双阈值算法检测和链接边缘。(如图2图3所示)

2.4 圆的检测Hough变换技术 Hough变换利用点-线的对偶性将图像内的空间线条转换为参数空间的聚集点,搜索给定性质的曲线是否存在,根据此原理便可检测限速牌的圆。

所谓圆形轮廓的去除,实质上就是掏空图像内部,若给定图像中有一点是黑的,并且其相邻的8个点也是黑色时,就要将该点去掉,以获得具有图像外部轮廓的特征点的像素,具体操作流程为:先进行限速标志图像的整体扫描,处理后的图像会呈现黑白色,若扫描时遇到白色像素点,则将函数值设定为0,直到扫描至出现黑色像素时,方停止扫描。使白色圆形轮廓和背景样色保持一致,即为黑色,然后去除。

3 模板匹配

受到集合变形、系统性强度变化及几何变形的因素的影响都会改变被测物的属性,影响匹配的准确性,增加伪相关概率。本文采用模板匹配识别限速标志,大大提高了匹配的正确率和适应性,不会出现因黏连笔画和断裂而产生误判的情况。

3.1 待测样品特征提取 在提取待测样品的特征时,先确定各个样品的起始位置,并在此范围内将样品的高度和宽度测算出来,再根据各样品的长度和宽度划分为等量的8份,构建出一个8×8的模板之后,统计各个小区域内的黑像素个数,计算其与该小区域的面积总数的比值。具体包括以下三个步骤:①搜索数据区,划分限速牌上下左右的边界范围。②构建一个8×8的模板区域。③计算各个小区域中黑像素的比例。

3.2 训练集特征库的建立 在监督学习(分类器设计方法)识别方法中,为了能够对未知事物进行分类,必须输入一定数量的样品,构成训练集,而且根据这些样品的类别已知,提取这些样品的特征,然后判别函数,构成一个分类器。再用该分类器判别未知类别的模式。

3.3 限速标志识别算法流程图 通过上文的一系列处理,限速标志识别算法的步骤如图4。

4 结论

本文采用了与市场广泛使用的GPS导航系统相结合与限速牌提取的数据进行逻辑比较,利用先进的识别算法排除了受到系统噪声、曝光不足(或过量)以及相对运动等因素影响,有效的提高了识别的精度,对后期的神经网络识别算法提供了基础。

参考文献:

[1]刘怀贤,姚晓东,常青.基于Canny算子的红外图像边缘检测研究[J].激光与红外,2007,37(5):474-477.

[2]李娅娅,李志洁等.图像边缘检测算法的比较与实现[J].计算机工程与设计,2010,31(9):19-21.

二维条码识别算法研究 第4篇

近年来, 随着人脸识别技术的发展和研究的深入, 提出了很多成熟的识别算法, 如基于人工神经网络算法、基于模板匹配的算法、基于隐马尔科夫模型的算法等, 各种算法都有各自的优缺点。目前, 人脸识别方法正朝整体识别和部件分析相结合的趋势发展。多种算法结合是目前人脸识别领域最受关注的方法, 其优势在于综合利用了人脸面部的各种特征信息, 将各种成熟算法的优势相结合, 与单一算法相比, 大大提高了人脸识别的效率和准确率。

人脸识别的两个重要部分是特征提取和特征分类识别。本文采用二维主成分分析方法进行特征的提取, 充分利用其特征提取能力强的特点, 再利用神经网络进行特征分类和识别, 充分利用其分类能力强的特点, 将二者相结合来提高识别率。但是神经网络需要大量的样本进行训练, 一张11292的图像就超过万维, 如果直接送入神经网络进行识别会消耗大量计算时间, 因此在特征识别前对图像进行预处理和特征提取, 将提取的特征量送入神经网络进行分类识别, 这大大降低了计算量, 提高了识别的效率和准确率。

1 图像预处理

人脸图像存在多种影响识别效果的因素: (1) 采集环境光照; (2) 采集设备噪声; (3) 图像背景、服饰、发型; (4) 图像高维度。在识别前, 需要对图像进行预处理。

1.1 图像归一化处理

归一化处理包括图像几何归一化和图像灰度归一化。

图像几何归一化可以将采集的不同尺寸图像统一为同一尺寸, 去除姿态、服饰、环境背景的影响, 使人脸图像关键特征保持清晰一致。几何归一化主要包括图像旋转、图形缩放、图像剪切等, 实例如图1所示。图像的平面旋转可以在一定程度上将不同姿态的图像姿势调整一致, 旋转后图像的两眼连线保持水平, 获得图像的正面人脸。图像剪切可以降低图像的维度, 同时可以在一定程度上克服服饰、发型和背景的影响。

灰度归一化对图像进行灰度调整, 调整图像的对比度, 扩展图像的动态范围, 使图像的灰度分布在较大的范围内, 也可以去除一定的环境光照影响。直方图均衡化是常用的灰度归一化方法, 该方法简单有效。例如图1剪切后图像的直方图分布如图2所示, 直方图均衡化后直方图分布如图3所示。均衡化前图像灰度分布在一个较小范围, 均衡化后图像灰度范围变大, 各个灰度级像素出现的比例接近, 分布概率更接近, 此时的图像包含的信息量最大, 冗余信息最少, 更易于识别。

1.2 小波变换

小波变换可以降低图像维度, 去除冗余信息, 降低图像噪声, 具有良好的多尺度特征表征能力, 因此在图像处理中应用广泛。小波变换是基于多层次函数的数学工具, 在时域和频域都具有良好的局部化特性, 而且变换速度更快。

Daubechies紧支撑小波是由世界著名小波分析学者Inrid Daubechies构造的小波函数, 其对应的尺度函数核小波函数分别为:

φ (t) =2n=02Ν-1hφ (n) φ (2t-n) (1)

ϕ (t) =2n=02Ν-1hϕ (n) φ (2t-n) (2)

其中, hφhϕ是展开系数, 分别成为R度和小波。Daubechies小波函数具有正交、时频紧支撑、高正规性等优点, 它提供了比Haar小波更有效的分析和设计能力, 本文选用Daubechies小波函数对人脸图像进行变换。

选取db4小波, 经二维小波变换后的图像由一系列的不同分辨率的子图像组成, 图像特征的主要信息保存在低频子图中, 冗余信息和噪声信息一般保存在高频子图中。变换后的低频子图保留了原始图像的主要信息并且维度降低, 以变换后的低频子图作为识别对象, 不但降低了图像的维度, 而且去除了噪声和冗余信息。以图1直方图均衡化后的图像为例, 二层小波变换示意如图4所示, 一层二维小波变换后的图像分解为四个子图, 这四个子图从不同的角度描述了原图的信息, LL是低频子图, 保留了原始图像的大部分特征信息。LH、HL是水平和垂直方向变化子图, HH是高频子图。LH、HL、HH子图包含大部分原始图像的噪声, 因此可以直接去除。二层小波变换与一层小波变换类似, 在一次变换的LL子图上进行。本文采用二层小波变换后的低频子图作为后续特征提取的对象。

2 基于2DPCA的人脸特征提取

二维主成分分析2DPCA (two-dimensional principal component analysis) 是图像特征提取的一个向前图像处理技术, 其直接利用二维图像数据作为分析对象构建协方差矩阵, 计算容易, 特征抽取时间短, 特别适合人脸图像的像特征提取, 2DPCA算法如下:

假设训练样本集合T={A1, , AN}, N为训练样本总数, Ai (i=1, , N) 是mn维图像矩阵, 为训练样本集中的任意一个样本, 则有 (平均样本A¯;图像协方差矩阵G) :

A¯=1Νi=1ΝAi (3)

G=1Νi=1Ν (Ai-A¯) Τ (Ai-A¯) (4)

根据协方差矩阵提取特征的方法如下:

获取最优投影轴:令A (mn) 为给定的人脸图像样本, Xn维列向量, Y为样本图像AX方向的投影后的特征向量 :

Y=AX (5)

为获取最优投影方向X, 定义最优化准则函数:

J (x) =tr (Sx) (6)

其中SxY的协方差矩阵, tr (Sx) 是Sx的迹, 求最优化准则函数的最大值即可得到最优投影方向X

Sx=E (Y-EY) (Y-EY) T

=E[ (A-EA) X][ (A-EA) X]T (7)

tr (Sx) =XT[E (A-EA) T (A-EA) ]X (8)

令样本图像A的协方差矩阵:

G=E[ (A-EA) T (A-EA) ] (9)

可知G为非负定nn矩阵, 由式 (4) 、式 (6) 、式 (8) 、式 (9) 可知:J (x) =XTGX, 其中X是一维列向量, J (x) 取最大值时对应的XG最大特征值对应的特征向量, 称为最优投影轴, 由此得到满足条件① {X1, , Xd}=argmaxJ (X) , d<n;② XiΤXj=0, ij, j=1, , d。前d个较大特征值对应的特征向量X1, , Xd

特征提取 对于给定样本图像A可得:Yk=AXk, k=1, , d, 相应的Y1, , Yd即为样本图像A的主成分向量, 组成了样本图像A的特征矩阵, 完成了样本图像A特征提取。

3 神经网络分类器

3.1 神经网络分类器设计

神经网络由许多并行运算的功能单元组成, 具有很强的容错性和鲁棒性, 可以将其看作是一个函数映射, 是一个多层前馈型网络, 适用于有明确的输入和输出的对应关系。本文采用标准的三层神经网络作为分类器, 结构如图5所示, 包括输入层、隐含层和输出层, 其中输入层有M个节点, 对应提取的人脸特征维数, 隐含层有N个节点, 输出层有L个节点, 对应识别出的人脸类别数, 且N>M>L

输入层到隐含层的激活函数采用Sigmoid函数, 隐含层到输出层的激活函数采用线性函数purelin函数, 可得网络输出与输入的关系如下:

y^k=j=1rvj.f[i=1mωijpi+θj]k=1, , Ν (10)

其中ωij为连接权值, θj为阈值, y^k为网络实际输出, y^为期望输出。

设网络的总误差小于ε, 最小均方函数为误差函数, 可得:

E=1Νk=1Ν[yk-y^k]2ε (11)

3.2 神经网络分类器的训练

设人脸图像有M类, 选取任意人脸图像A的特征向量为网络输入, 设样本图像A为人脸图像的第i类, 目标输出为[0, 00, 1, 00], 即输出层的第i节点输出为1, 其他节点输出为0。将网络权值初始化为 (-1, 1) 之间的随机数, 采用批处理的方式, 有动量的梯度下降训练函数对训练样本进行训练, 当误差函数没有达到设定的最小误差ε时, 转入误差后向传播, 将误差值沿连接通路逐层向后传送。并修正各层的连接权值, 如此循环, 直至达到期望的最小误差值, 完成网络训练。

4 算法流程

(1) 读入人脸图像数据。

(2) 归一化预处理。

(3) 小波变换预处理。

(4) 从预处理过的图像中选取10人的图像, 根据不同的实验方案选取训练样本和测试样本, 分别计算训练样本和测试样本的主成分向量。

(5) 将步 (4) 中得到的训练样本的主成分向量输入神经网络进行训练, 并保存网络。

(6) 将步 (4) 中得到的测试样本的主成分向量输入神经网络进行测试, 根据输出层节点的输出进行分类识别。

5 实验仿真与结果分析

5.1 实验设计

实验人脸样本图像采用英国剑桥大学的ORL人脸数据库, 该数据库由40个人的400张图像组成, 每人10幅不同的图像, 每幅图像为11292像素, 256灰度级, 它们是在不同时间, 光照略有变化, 不同面部表情 (眼睛张开或闭合、笑或不笑) 以及不同脸部细节 (有眼镜或没眼镜) 下获得的。

ORL原始图像的维数为11292, 图像归一化预处理后的图像为8080维, 经过二维二层小波变换后的低频子图像为2020维。实验采用Matlab进行仿真, 共设计了三种实验方案, 其中方案1与方案2的训练集相同, 但方案2的测试集数量有所减少。方案2与方案3的测试集相同, 但方案3的训练集有所增加。利用这三种方案可以检测出训练集变化对识别准确率的影响, 不但可以确定影响本方案识别效果的因素, 还可以比较出本方案与常规方法的识别效果, 具体方案如下:

方案1

训练集 选取10个人的图像, 每人随机选取5幅, 共50幅作为训练集。

测试集1 采用训练集作为测试集。

测试集2 将训练集外的50幅图像作为测试集。

方案2

训练集 选取10个人的图像, 每人随机选取5幅, 共50幅作为训练集。

测试集1 在训练集中选取每人2幅, 共20幅图像作为测试集。

测试集2 在训练集外中选取每人2幅, 共20幅图像作为测试集。

方案3

训练集 选取10个人的图像, 每人随机选取8幅, 共80幅作为训练集。

测试集1 在训练集中选取每人2幅, 共20幅图像作为测试集。

测试集2 在训练集外中选取每人2幅, 共20幅图像作为测试集。

5.2 实验结果分析

采用上述实验方案, 分别使用本方法和只用神经网络的传统方法进行仿真实验, 得到的实验结果如表1所示。由表1可以看出, 在相同的测试集合情况下, 随着训练样本数量的增加, 两种方法的人脸识别准确率都有所提高, 这说明采用神经网络作为分类器的方法, 对训练样本数量是非常敏感的。另外, 本方法的识别率明显高于将原始图像未经2DPCA特征提取, 而是直接输入神经网络进行识别的常规方法, 这说明通过2DPCA方法提取特征, 再送入神经网络进行分类, 可以明显提高人脸识别的准确率, 因此, 证明了本方法的优越性。

6 总 结

本文通过改进神经网络的输入, 采用综合图像预处理方法, 在保留图像基本特征信息的前提下, 去除了图像的冗余信息, 降低了图像的噪声和维度, 从而大大降低了计算量, 提高了计算速度。然后再应用二维主成分分析方法提取人脸特征向量, 作为神经网络的输入, 进行分类与识别, 有效提高了识别准确率, 并缩短了计算时间。但本方法也存在神经网络训练速度慢, 特征提取计算量仍较大, 没有进行最优特征选取和验证的缺点。随着多信息融合技术的发展, 下一步的工作将进行虹膜信息与人脸信息融合算法的研究, 将虹膜特征作为分类器输入的一部分, 选取并验证最优特征, 在进一步提高识别准确率的同时大大降低计算量。

摘要:提出基于神经网络的二维主成分分析人脸识别算法。通过图像的预处理改善了图像的质量, 提高了图像的亮度和对比度, 降低了图像的维度, 然后利用二维主成分分析方法进行人脸关键特征的提取, 并将该特征作为神经网络的输入, 用改进的神经网络作为分类器, 并通过实验证明了算法的有效性和可行性。

关键词:人脸识别,神经网络,二维主成分分析,小波变换

参考文献

[1]Brunell R, Poggio T.Feature recognition:features versus templates[J].IEEE Trans Pattern Analysis and Machine Intelligence, 2008, 15 (10) :1042-1052.

[2]Jian Yang, David Zhang.Two-Dimensional PCA:A New Approach toAppearance-Based Face Representation and Recognition.

[3]曹林, 王东峰, 邹谋炎.基于小波变换和隐马尔可夫模型的人脸识别方法[J].计算机工程与应用, 2005, 41 (7) :18-23.

[4]姜文翰, 周晓飞, 杨静宇.基于小波和最近邻凸包分类器的人脸识别.微计算机信息, 2008, 2 (1) :212-214.

[5]Rafael C Gonzalez, Richar E Woods, Steven LEddins.数字图像处理[M].电子工业出版社, 2005.

[6]徐倩, 邓伟.融合类别信息的二维主成分分析人脸识别算法.计算机工程与设计, 2008, 29 (22) :5792-5794.

二维DCT快速算法及硬件实现 第5篇

关键词:图像处理;二维离散余弦变换;流水线;并行处理

离散余弦变换作为频域变换最先在图像处理中的模式识别和维纳滤波提出,DCT广泛应用于图像压缩、语音压缩和数字水印等技术,JPEG(Joint Photographic Experts Group,联合图片专家组)、MPEG(Moving Picture Expert Group,运动图像专家组)、H.263和H.264等标准都采用了DCT技术作为压缩编码的主要方案。然而,DCT的算法复杂,如果直接进行计算,计算量很大。以8×8的图像块为例,若采用直接计算,那么进行二维DCT(2D-DCT)运算需要1024次乘法和896次加法[1],难于满足实时处理的要求。考虑到DCT的正交性和对称性,人们提出了许多快速的算法。在这些快速算法中,一类是利用快速傅里叶变换 (FFT)来计算DCT,另一类是直接根据DCT的规律寻求快速算法。在第2类算法中,最常用的是采用行列快速算法,该算法首先逐行计算一维DCT,再逐列计算一维DCT,从而把乘法的计算量减少了一半,其算法规律性强,特别适合于DCT算法芯片的研制[2]。

1 二维DCT算法

对于一个大小为N×N的像素块来说,假设x(i,j)为输入的像素点阵数据,其二维DCT变换公式如下

由于系数矩阵全是浮点数,为了能用定点乘法器运算,将它们扩大26倍后再取整[4]。

3 硬件电路设计

3.1 硬件结构规划

由前面的算法可知,2D-DCT的实现可采用基于共享乘积因子的1D-DCT,采用行列分解的结构实现2D-DCT。如图1所示为基于一维DCT复用的二维DCT实现框图。

二维DCT被分解为两个一维DCT。首先进行的是列变换,此时输入数据首先经过输入控制模块进入1D-DCT模块,经过10个时钟周期后,将得到的1D-DCT系数写入转置矩阵,待8组1D-DCT系数全部输入转置模块后的下一个周期,开始行DCT变换。这时候矩阵转置模块中的数据按照行的顺序逐个读取出来,经过输入控制模块进入1D-DCT模块。1D-DCT模块处理完后再由转置模块处理得到2D-DCT变换结果Y,由输出控制模块控制产生输出Y。

3.2 二维DCT模块的时序规划

文中设计的二维DCT模块连续处理16组数据,即批处理两个8×8的像素块,这样二维DCT模块在128个周期内处理2组YCbCr,即在128个周期内处理6个Block(8×8像素块)。二维DCT模块中,各子模块的时序规划表,如表 1所示。二维DCT模块在128个周期内依次处理YCb,CrY,CbCr六个Block。

表中TZTZY/b表示对Y、Cb块依次进行一维DCT变换(Z),转置(T),一维DCT变换(Z),转置(T)得到的二维DCT结果(TZTZY/b),其他以此类推。

3.3 1D-DCT的实现

一维DCT模块中,乘法器采用基于查找表的三级流水线结构,这样做能在保证吞吐量的前提下合理降低乘法器的复杂性减小消耗的硬件资源;加、减法器中,从数据输入到数据输出需要1个周期,吞吐量为1data/sec。

设计乘法器时的三级流水线结构为:第一步将有符合数分成若干块,并寄存符号位以满足流水同步,第二步用前面若干数字块作为地址,查找固定系数的乘法表,第三步移位并相加输出结果。这样每一个乘法运算虽然要三个周期,但由于采用流水结构同样能达到1data/sec的吞吐量。

3.4 矩阵转置模块的设计

如图2所示,为基于移位寄存器的矩阵转置模块的实现框图f0,f1,f2,f3,f4,f5,f6,f7为输入数据,来自1D-DCT模块。F0,F1,F2,F3,F4,F5,F6,F7为矩阵转置模块的输出数据。基于移位寄存器的矩阵转置模块主要由8个移位寄存器组(8 depth shift registers-15 depth shift registers)、8个8输入的多路选择器(MUX)和一个地址发生及输出控制模块(AGOC)构成。

f0,f1,f2,f3,f4,f5,f6,f7为输入数据,来自1D-DCT模块。F0,F1,F2,F3,F4,F5,F6,F7为矩阵转置模块的输出数据。基于移位寄存器的矩阵转置模块主要由8个移位寄存器组(8 depth shift registers-15 depth shift registers)、8个8输入的多路选择器(MUX)和一个地址发生及输出控制模块(AGOC)构成。

1D-DCT模块同时并行处理8个像素,则8×8的像素块全部被处理需要八个周期。经过1D-DCT模块处理的八个输出数据直接分别进入八个移位寄存器组。当8×8的像素块全部处理输出后的下一个周期多路选择器在地址发生及输出控制模块的控制下产生转置输出。对应于F0的MUX的8个输入数据分别来自八个寄存器组的最后一个寄存器输出,对应于F1的MUX的8个输入数据分别来自八个寄存器组的倒数第二个寄存器输出,其他的以此类推。地址发生及输出控制模块产生的地址依次为0,1,2,3,4,5,6,7,作为多路选择器的选择信号。且各个MUX的sel信号为0时选中8 depth shift registers寄存器组中输出的数据,sel信号为1时选中9 depth shift registers寄存器组中输出的数据。其他的以此类推。

因为矩阵转置模块第一组输出数据的是原来从f0端口输入的八个数据,故第一组移位寄存器只需要八个寄存器,待来自f0端口的八个数据全部进入寄存器组的下一个周期便可产生转置输出。而第二个转置输出来自f1端口,发生在下一周期,故需要多加一个寄存器。以此类推,来自f7端口的转置输出对应的寄存器组需要15个寄存器。

4 FPGA实现与仿真结果

各模块都用StratixII族中的EF2S15F484C3器件为目标器件,在QuartusII中进行综合,综合策略为blance,设定工作频率为110MHz。2D-DCT模块的实质是用1D-DCT模块的复用来实现二维的DCT,那么,除设计出基于快速优化算法的1D-DCT模块,转置模块所消耗的器件资源也是需要重点考虑的问题,由上面的综合结果可知:1D-DCT模块消耗了器件17%的资源,矩阵转置模块消耗了器件7%的资源。如果直接用两个1D-DCT模块实现2D-DCT变换,则消耗的资源为41%,现在用基于1D-DCT模块复用的2D-DCT变换消耗的总资源为25%,这样节省了约40%的资源。

用RAW测试矩阵,在ModelSim中编写验证二维DCT模块的RTL代码,得到RTL仿真结果如图3所示。

如图4为二维DCT的Matlab仿真结果,以检验RTL仿真结果。对照两图可知硬件实现功能和时序的正确性。

5 结束语

文中研究了基于FPGA的二维DCT算法的芯片设计,并给出了具体的实现电路。由于采用了高度并行的流水线结构和基于寄存器整列的高效矩阵转置技术和1D-DCT的复用,整个设计方案获得了很好的性能,共同构造出完整的视频、图像处理芯片。

参考文献

[1] 沈兰荪,卓力,田栋等.视频编码与低速率传输[M].北京:电子工业出版社,2001.

[2] 李跃新,张吉烈.二维DCT并行流水线算法及FPGA实现[J]. 贵州大学学报(自然科学版),2009,26(4),82-83.

[3] 朱竹青,郭裕顺,覃兴.快速二维离散余弦变换的VLSI设计[J].机电工程,2010,27(7),69-73.

[4] 沈斌. JPEG编码器的设计与优化[D].合肥:合肥工业大学,2008.

二维条码识别算法研究 第6篇

二维条码在各领域得到了广泛应用,快速、准确渗透到计算机管理领域的各个角落。这是因为二维条码能脱离数据库及时读取大容量、高可靠性信息,并且对身份进行准确描述,以防止各种证件、卡片及单证的伪造。本文探讨将二维条码PDF417技术运用到身份识别系统中,重点研究了二维条码的识别技术,包括数字图像处理中的图像灰度化、图像二值化、图像倾斜校正、图像边缘检测、条码解码算法技术等。

二维条码在发达国家很多领域都有应用,带来了巨大的经济利益。我国对人员的现代化管理需求日益剧增,需要在身份证件上对管理对象进行精确描述,未来的一段时间内,在身份识别技术上将有很大的发展空间。利用好二维码技术,必能提高生产力,提高工作效率。

本文介绍了二维条码的核心技术,运用图像处理方法和算法,准确识别那些污迹、破损、模糊的二维条码图,在二维条码识别技术上有新的进展。

1 系统分析

PDF417二维条码是一种高密度大容量的便携式数据文件,可实现证卡、报表等数据信息的自动录入、存储、携带,并可用机器自动快速识读。

条码图像预处理在整个系统中起着举足轻重的作用,直接影响着系统的性能指标,是整个系统的核心。条码识读框架如图1所示。

在复杂环境下获得的图像有许多不足,比如模糊、低对比度、高亮度等,只有经过图像的预处理才能正确解码。图像的二值化[6]是图像。

用灰度变换来研究灰度图像f(x,y)的方法称为图像的二值化。二值化处理就是求解阈值T,从而把灰度图像f(x,y)分为特征和背景两个部分。使用阈值是一种区域分割技术,用于物体和背景有较强对比的景物效果很好。它计算简单,能用封闭而连通的边界定义不交叠的区域。

本系统根据条码的结构组成和编码规则设计解码算法,实现PDF417条码图像的识别和解码,识别流程如图2所示。

2 开发平台

系统采用微软公司的Microsoft Visual Studio 2010.NET平台和C#语言。C#(音CSharp)是一种强大的、面向对象的开发语言,是微软专门用于.NET平台的编程语言。在当前的软件开发行业中,C#已经成为绝对的主流语言,可以和Java语言平分天下。C#作为一个全新的编程语言,可以实现大多数程序功能。包括Windows桌面应用程序、Windows服务程序、Web应用程序、WPF应用程序、WPF浏览器应用程序等。

3 系统实现

首先对图像进行灰度化和二值化识别处理,代码写在code类中。当打开条码图像时,把图片存在图片框中。断开与原图像的关联,以便原图像可以进行其它操作,方法名如下:

public Bitmap gray8_click(Bitmap curBitmap)

用加权平均值法对图像灰度处理后(之后是二值化过程),返回一个Bitmap对象复制到curBitmap2中,一般处理后的图片都放在curBitmap2中以便进行对比。

二值化图像时需要使用Otsu方法选取阈值,二值化后的图像同样保存在curBitmap2图像中,其方法名如下:

protected int GetOstuValue(Bitmap bitmap,byte[]bitmapBytes,int stride)//bitmap,求阈值图像,bitmapBytes是求阈值的图像像素信息,stride是求阈值的图像在内存中的扫描宽度,流程如图3所示。

程序设计有两个关键点:(1)图像的旋转过程;(2)图像的噪声去除。在图像旋转时确定角度有一个约定,就是条码有效部分外部不能有明显的直线污染,否则在检测条码边界时将不能检测到有效条码真正的边界,从而造成条码信息的完全错误。在去除噪声时,从中值滤波常用的窗口形状(见图4)可以看出,对类似水平直线的污染可以完全去除,但对垂直的直线污染却无能为力,没有在垂直方向上采用类似的模板窗口再次去除污染,是因为考虑到条码的一个条的宽度为1个像素,如果对单个像素宽度的垂直直线进行去除,就会把有效条码的条删除了。即如果在垂直方向有直线污染,对条码的识别将产生严重影响。

对大量条码图像测试后得知,污染如果是点,或者是类似单个像素的水平直线情况,都能有较高的识别率。但是下列情况将会对条码识别率有较大影响:(1)如果在条码的空白处有类似于直线的污染,将会严重降低条码的识别率,甚至不能对图片进行识别;(2)如果条码中在不是码字列开始的位置有垂直直线污染,将对识别率有严重影响;(3)如果类似水平直线高度的像素值大于1个像素,对条码识别率会有较大影响;(4)如果条码的行高太小,对条码会有很大影响。

实现的关键技术:

(1)图像旋转时角度的确定。利用Hough直线检测算法检测条码图片左边界,得到的左边界有可能是有效条码的上边界(向上偏斜较大角度)、左边界、下边界(向下偏斜较大角度)。因此还需组合各种情况,求出用来旋转时的角度。

(2)图像转换为二值化图像时,阈值的选取有多种方法,如:最大值法、平均值法、加权平均值法、Otsu最大类间方差法。综合分析后采用Otsu方法求阈值。

(3)用中值滤波方法去除噪声时,可以采用多种模板窗口。使用多种窗口比较后,最后采用效果最好的模板窗口,见图4。

(4)为求出条码图像包含有效行数目和每行有效码字列的数目,对图像进行带方向的边缘检测,使检测出的图像更有分析价值。

(5)解码算法的实现过程要根据标志值900、901、902、913、924分多种情况考虑,否则会有遗漏情况,造成解码出来的信息严重失真。

4 结语

本文依据GB/T 17172-1997标准,在VS.NET2010开发环境下用C#语言实现了从条码图像文件到文本信息的解码过程;采用有针对性的图像预处理方法,并充分利用条码图像的特点,达到提高PDF417条码识别率的目的。

首先对条码图像进行识别。识别图像前分析多种方法实现效果,选取一种较好的方法进行图像预处理。图像预处理过程为:图像二值化、条码部分图像旋转至水平、中值滤波去除噪声、水平和垂直方向边缘检测、水平和垂直方向投影、图像二值化,将图像从被识别物体和背景分离,实现图像分割的目的。对二值化后的图像去除噪声可使污染的点和类似水平的直线删除。通过对条码每一行采用垂直投影法,进一步减低噪声干扰,提高识别率。经图像预处理的图像,识别率有较大提高。实验表明,这种有针对性的图像处理方法是可行、有效的。为了进一步提高识别率,采用了相似边距离法,确定一个模块的基本宽度,求取满足这一宽度的模块,进一步提高了识别率。条码解码过程参照公开的算法解码,保证了可靠性和通用性。

摘要:二维条码已经运用到身份识别中。将个人信息和照片编在二维条码中,不但可以实现身份的自动识读,而且可以有效防止伪造和使用假冒证件。探讨了PDF417二维条码的识别与解码算法及在身份识别上的应用。分析了多种图像处理方法,针对条码图片的特点,采取特定的图像处理方法以得到最佳效果。在.Net平台开发环境下,用C#语言首先对各种图像预处理方法进行分析和对比,然后在图像识别时对图片进行预处理。对处理后的图像进行水平边缘检测和垂直边缘检测,得到条码行数和列数,最后依据PDF417公开解码算法进行解码,还原编码的文本信息。

关键词:身份识别,二维条码,图像预处理,解码算法

参考文献

[1]王小科.C#清华程序开发范例宝典[M].北京:人民邮电出版社,2015.

[2]李俊山,李旭辉.数字图像处理[M].北京:清华大学出版社,2013.

[3]李丽萍,周子尧,原坚威.PDF417二维条码的识别及应用[J].数字技术与应用,2014(6):141-145.

二维条码识别算法研究 第7篇

关键词:二维粒子群优化,粒子空间对称分布,禁忌搜索,模糊增强,自适应寻优

图像增强作为图像初级处理阶段中的一项重要的技术,可通过提高图像清晰度、扩大图像中不同物体特征之间的差别以提高图像的分辨率、对比度并为后续的图像分割、边缘提取以及模式识别等深层次处理提供了技术基础[1,2]。一般的灰度图像增强技术根据图像所在的空间不同,分为基于空域增强和基于频域增强两类[3]。

基于空域增强的图像增强方法通常分为5种:灰度变换增强、直方图增强、图像平滑、图像锐化和基于数学理论的增强。其中,图像的灰度变换增强是最先引用且广泛使用的增强方法。主要通过改变原始图像数据所占的灰度范围而使图像在视觉效果上得到改观。随着研究的不断进展,在传统灰度变换增强算法中常引入数学原理,提出多种基于数学理论的灰度图像增强方法,根据算法模型、方程参数值的不同对图像进行增强操作。其中,邸慧等人利用分段线性灰度增强技术,使目标区域得到增强[4],但是该方法需人为参与调节方程中3个参数值以调整曲线的位置和形状来达到增强目的,误差较大。龚昌来等人提出一种改进正弦灰度变换的图像增强算法,根据图像的灰度分布进行自适应选择[5],但是图像灰度值较大区域增强效果不够明显。李均利等人基于模糊数学方法提出一种结合小波变换原理的图像增强方法,对图像有一定的增强效果[6],但是算法复杂度较高。陈延梅等人采用一种模糊逻辑将二值形态学分级算子推广到灰度图像[7],但是该方法理论原理复杂、算法效率较低。

因此,针对以往基于数学理论的灰度图像增强方法中所普遍出现的增强效果不理想、需要人为干预和算法精度低等问题,本文根据图像采集后本身存在被模糊化的特性,基于粒子群优化算法结合禁忌搜索算法和粒子空间分布原理,提出一种基于二维粒子群优化的图像模糊增强算法,自适应的搜索出模糊清晰度函数中两个参数值,使图像在模糊域与空域相互变换的过程中有最大模糊清晰度。

1 改进粒子群优化算法

1.1 传统粒子群优化算法

粒子群优化算法是由美国的学者Eberhart和Kennedy在1995年提出的仿生类算法[8],源于对鸟群和鱼群群体运动行为的研究。随着研究的不断进展,粒子群优化算法已在组合优化和函数优化中有了广泛的应用,为了一种优化效率较高的优化工具[9,10]。在寻优过程中,粒子的速度和位置随着搜索的进程在不断更新,使得算法具有很好的导向性,但是这种导向性同时会导致算法陷入局部最优解,收敛过早。

如图1所示,在一定搜索范围内由于所有粒子都分布在局部最优解以及全局最优解一侧,而且最早接触局部最优解,因此会有算法过早收敛且粒子陷入局部最优解的情况出现。

1.2 二维粒子群优化算法的改进

根据传统粒子群优化算法在寻优过程中所出现的容易陷入局部最优解的问题,利用空间对称分布原理,自动调整若干粒子的位置分布,使粒子的位置尽量在局部最优解的周围而不是一侧,并且保证在当前全局最优解两侧的粒子个数均衡,以减少粒子陷入局部最优解的情况发生。

同时,考虑到若将粒子对称分布调整后的粒子群优化算法与模糊算法进行融合,会增加混合算法的收敛时间影响粒子群算法的寻优速度,因此加入具有较强“爬山”能力的禁忌搜索算法[11,12],并借助禁忌表的存档优势自动判断某一位置是否已经被搜索过,可以避免重复搜索、提高算法效率。

与模糊算法的结合,需要寻找两个未知参数,因此将粒子搜索位置和速度更新方向设定为二维。

改进二维粒子群优化算法寻优过程概述如下:

1)随机初始化每个粒子,并且禁忌表初始化。

设置空白禁忌表table1,table2,table3,table4。设种群共有N个粒子,搜索空间为D维空间,若搜索两个未知量数值,则第i个粒子的位置向量可表示为

其飞行速度向量可表示为

每个粒子所各自维护的自身历史最优位置向量可表示为

群体所维护的全局最优位置向量可表示为

式中:i=1,2,…,N;j是粒子所在的维度,j=1,2,…,D;分别为粒子针对第一个、第二个未知量寻优位置向量(或数值);分别为粒子针对对第一、二个未知量所在位置的飞行速度向量(或数值);分别为粒子针对第一、二个未知量的自身历史最优位置向量;分别为群体粒子针对第一、二个未知量的全局最优位置向量。

2)判断此处结束条件是否满足。若满足则转至步骤8),若不满足则继续步骤3)。

3)更新每个粒子的速度和位置。每迭代一次,速度和位置更新一次。

飞行速度向量更新方程为

位置向量更新方程为

式中:gap代表迭代次数;w为惯性权重系数;c1,c2为学习系数;rand1、rand2为介于[0,1]间的随机数且相互独立。

式中:T是当前迭代次数;Tmax是最大迭代次数;wmax和wmin为w的最大值和最小值;cmax和cmin为c1和c2的最大值和最小值。

4)计算每个粒子的适应度值,确定候选位置(解)。

设置:目标函数为

约束条件为

评价函数为

式中:r=1或2;k为D维空间中某一维;R=(c*t)α为惩罚系数;α=β=2且c=0.5为经验值;分别为第一、第二个约束条件下的目标函数值。

5)对粒子进行空间对称分布的位置调整。计算粒子在当前全局最优解两侧的数目m和n,若m≠n,则调整(m-n)/2个粒子。调整公式如下(速度向量会跟随位置向量调整而调整,此处仅对位置向量的变化作详细描述)

式中:gbestk为在j=k维处群体所维护的全局最优位置,rand为介于[0,1]间的随机数。

6)判断粒子是否重复搜索某一位置。

选择下一次搜索位置,依次对比禁忌表table1和table3,若所选搜索位置xi1,j和xi2,j在禁忌表中,则继续步骤7)。若不在禁忌表中则证明该位置未被搜索过,则转至步骤2)进行操作。

7)粒子选择该处已搜索位置附近所未搜索位置进行搜索,转至步骤2)。

8)输出群体所搜索到的全局最优解,程序结束。

2 改进二维粒子群优化的模糊增强算法

2.1 传统模糊增强算法

图像在采集过程中由三维景象向二维进行映射时,不可避免地存在图像信息丢失,所以图像具有模糊性。针对这一特点,Pal.S.K等人提出了一种模糊增强算法[13],将模糊数学理论引入到图像增强中。

图像的模糊增强算法是在图像所建立的模糊特征平面上对图像的像素进行处理。算法中所含有的两个模糊参数Fp和Fe的取值直接影响模糊特征平面P的模糊性的大小,因此合理选择参数Fp和Fe是保证增强效果的重要环节。目前Fp和Fe的选取多凭程序使用者经验或观察图像灰度分布等方法确定,一般需要经过多次的尝试。对于比较复杂的图像,理想的Fp和Fe很难找到。

算法操作流程主要分为3步执行:对原始图像利用模糊特征函数式(15)进行模糊特征提取、利用模糊增强算子式(16)进行增强变换、利用式(15)的逆变换进行特征还原。

式中:Fe默认使用值为2;Pu,v为模糊特征值提取后值;P'u,v为根据不同模糊特征值所取增强算子;xu,v为第(u,v)点像素的灰度值;xmax为图像最大灰度值;Tk定义为T1的多次调用,k=1,2,…,∞。

目前模糊算法在图像的增强应用中,较为经典的有叶志伟等人所提出一种基于PSO的图像自适应模糊增强算法[14]。但是在算法中令参数Fe=1仅自动寻优参数Fp的值,并且未考虑粒子群优算法自身所存在的易陷入局部最优的问题,使得混合算法精度依然有待于提高。

2.2 二维粒子群优化与模糊增强算法结合

本文将模糊算法与改进的粒子群优化算法相结合,自动寻找模糊参数Fp,Fe的最优值以确定增强后的图像有最大的模糊清晰度函数H(P)。与传统基于数学理论的灰度变换图像增强方法相比,充分考虑到了图像的复杂性以及图像处理过程中的模糊性;与传统基于粒子群优化的模糊增强方法相比,还可以自适应的搜索两个模糊参数值,有效的改善了原始图像的视觉效果。

本文所提出算法对图像增强过程概述如下:

1)随机初始化每个粒子,初始化禁忌表table1,table2,table3以及table4。

2)判断此处结束条件是否满足。若满足则转至步骤11),若不满足则继续步骤3)。

3)更新每个粒子的速度和位置。

考虑到寻找模糊参数Fp和Fe的最优值,采用上文改进二维粒子群算法对第i个粒子速度更新和位置更新方程。

4)确定模糊参数,利用模糊特征函数式(15)进行图像模糊特征的提取,生成模糊特征平面。

5)计算每个粒子的适应度值,确定候选位置(解),进行禁忌表的更新。

为了定量测定图像增强后的质量,在算法中采用模糊清晰度函数H(P)评价图像增强的质量[15]。将H(P)作为适应度函数,寻找最大值以确定模糊参数Fp、Fe的最优值。

式中:Sd(i)为模糊增强后图像的标准差(Standard deviation);Ffd(i)为图像的模糊特征平面的模糊清晰度值(Fuzzy feature definition);Fcs(i)为图像模糊特征平面的模糊紧支度值(Fuzzy compactly supported feature plane);Gl(i)为模糊增强后图像的灰度级数(Gray levels);E(i)为模糊增强后图像的信息熵(Entropy)。

此时,目标函数设定为

之后,将当前粒子位置、粒子历史最优位置向量分别放入禁忌表table1和禁忌表table3中;将当前粒子位置、群体所维护的全局最优位置向量分别放入禁忌表table2和禁忌表table4中。

6)基于粒子空间分布对称原理,根据式(8)对粒子进行位置调整。

7)判断粒子是否重复搜索某一位置。

通过禁忌表table1和table3中所存位置向量的对比判断,以确定下一次的搜索位置是否重复。若位置未被重复搜索,则继续8);若位置被重复搜索,则转至2)执行操作。

8)通过判断,粒子此时需选择已搜素位置附近未搜素位置进行搜索,即算法直接转至3)。

9)图像模糊增强变换。在所得模糊特征平面上,利用模糊增强算子式(16)进行增强变换,获得新的模糊特征平面。

10)在新的模糊特征平面上利用式(15)的逆变换进行特征还原。

11)输出增强后图像,程序结束。

算法流程图如图2所示。

3 实验结果和分析

为了验证本文所提出的基于二维粒子群优化的图像模糊增强算法的可行性及针对图像进行增强后与经典的传统灰度变换(CTGT)增强方法、传统基于粒子群优化的模糊(TFPSO)增强方法相比会有更好的增强效果,本文选用过暗常用lena图像、过暗SAR图像和过暗医学MR图像分别进行了处理。软件使用MATLAB R2009b版本,硬件环境为主频1.8 GHz、内存4 Gbyte的Windows8系统便携式笔记本电脑。算法中最大迭代次数为100次,粒子个数为100个,所用图像大小为256×256。

3.1 图像增强结果对比

实验1:选取带有背景物的过暗常用Lena图像,如图3a所示。图3b为使用CTGT增强方法中的分段线性增强算法后所得结果,但是由于图像灰度变化具有一定的随机性,需要人工经验调整算法3个参数值,最后往往得不到满意的增强效果,图像的增强效果不理想。图3c、图3d分别为TFPSO增强方法和利用本文方法对图像增强后结果。可以看到与原始图像相比,两种方法增强后图像质量都有了较大的提高,而且利用本文增强方法增强后的图像效果比使用TFPSO增强方法后的图像效果在视觉上又有了进一步提高。

实验2:选取复杂背景下的SAR图像,如图4a所示。经过CTGT方法增强后,由图4b可以看到,SAR图像中的一些非河流区域(建筑、桥梁)得到了一定的增强,但是还有一些原本亮度值相对较大的到了过度增强而且河流区域依旧没有得到增强。经过TFPSO方法增强后,由图4c可以看到,图像的整体细节都得到了一定的增强,包括河流区域。图4d为使用本文增强算法后所得图像,可以看到在图4c的基础上,增强效果又有了更进一步的提升,整体清晰度增加,可以清楚地看到图像中房屋分布、房屋界限以及桥梁区域等细节,这作为图像的预处理过程为之后桥梁、房屋区域的识别或分割等后续操作奠定基础。

实验3:将本文算法用于过暗医学脑部MR图像增强。图5a为1幅过暗脑部图像,只能模糊的看到头骨、脑和脑室。经过CTGT方法增强处理后得到图5b图像,虽然头骨轮廓得到了增强,但是脑轮廓变得不再清晰。图5c为采用TFPSO方法对图像进行了增强,可以看到图像整体清晰度和对比度与原图相比有了很大的提高,不仅可以看到头骨、脑和脑室,还可以看到部分大脑灰质。在使用了本文算法对图像增强后,由图5d看可以看出图像头骨、脑和脑室变得更加清晰,可以清楚地观察到大脑灰质、脑镰结构和脑回走向,增强效果最好。

3.2 数据对比

为了进一步体现本文方法对图像处理后的效果,将本文方法与其他两种方法对Lena图像、SAR图像和脑部MR图像分别增强后图像熵值结果进行了对比,结果见表1所示。

由表1可看出,使用本文方法对Lena图像、SAR图像和脑部MR图像进行增强后所得图像熵值均为最大,而且较原图像熵值相比分别增大9.20%、26.58%和57.36%。而使用CTGT增强方法和TFPSO增强方法后所得图像与原图像相比,图像熵值仅分别增大1.11%和3.88%、13.95%和17.94%、29.43%和36.41%。

在利用模糊算法对图像增强或与其他算法结合后对图像进行增强的过程中,模糊参数Fp、Fe的取值最优与否,对图像的增强后是否是最优效果起着极其重要的作用。因此,将本文方法与其他两种方法对lena图像、SAR图像和脑部MR图像进行增强后所求模糊参数Fp、Fe的最优值结果进行了对比,结果见表2所示。

由表2可看出,除CTGT增强方法不需要对模糊参数Fp、Fe求值以外,TFPSO增强方法和本文方法都获得了模糊参数Fp、Fe值。但是,TFPSO增强方法虽然可自适应的获得模糊参数Fp的值,却未考虑粒子群算法容易陷入局部最优的特点使得数值结果不够精确导致图像增强后质量不高,而且设置模糊参数Fe的值始终默认为1使得算法具有一定的使用局限性。本文方法通过提高粒子群优化算法的全局寻优能力以确保算法精度并防止重复寻优改善算法混合后的运算速度,而且采用二维粒子群优化搜索,同时得到了模糊参数Fp,Fe两个数值的最优值,因此数值结果较为精确、图像增强效果较好。

为了进一步证明本文方法的有效性,在算法检验后期,另外甄选出具有代表性的过暗SAR图像5幅,过暗医学MR头骨、胸骨、手骨、腿骨和脚骨这5种人体不同部位的过暗MR图像(各1幅)进行了增强操作。实验表明,通过本文方法处理后的过暗SAR图像、医学MR图像与原图像相比熵值分别平均增大24%以上、52%以上。

4 小结

本文针对图像在采集过程中所存在的模糊特性,在传统灰度变换增强算法的基础上,将模糊增强算法与粒子群优化算法相结合,提出一种基于二维粒子群优化的图像模糊增强算法。该算法可以在寻找模糊参数Fp、Fe的最优值过程中利用粒子空间对称分布原理,不断调整粒子位置,使粒子的位置尽量在模糊参数Fp、Fe的局部最优解周围而不只在其一侧,以减少粒子陷入局部最优情况出现,提高算法全局寻优能力;在搜索后期使用存储的禁忌表判断每次迭代时每个粒子是否有位置重复搜索,以避免粒子重复搜索,提高融合算法搜索效率。

二维条码识别算法研究 第8篇

随着计算机多媒体技术和通信技术的日益发展, 以及网络的迅速普及, 图像数据信息因其直观、形象的表现效果, 在信息交流中的使用越来越广泛。每天都有大量的图像信息通过数字方式进行存储、处理及传输。由于技术上对图像数据的要求, 图像的分辨率在不断增加。由此导致图像数据量急剧增加。这就给图像的传输和存储带来了极大的挑战。因此, 图像数据压缩势在必行, 通过压缩手段将信息的数据量降下来, 以压缩的形式存储和传输, 既节约了存储空间, 又提高了通信干线的传输效率。

一般原始图像中通常存在大量的各种冗余, 如像素相关冗余、编码冗余、视觉冗余等。图像压缩技术所追求的目标就是最大限度地挖掘和利用这种冗余信息。尽量减少表示图像所需的数据量。所谓压缩就是去掉各种冗余, 保留对我们有用的信息。图像压缩的过程常称为编码。相对的, 图像的恢复当然就是解码了。正是由于图像压缩的重要性, 使得图像压缩算法和技术成为非常活跃的一个研究领域。

通常数据中含有大量的冗余信息, 主要体现在信号的平滑度以及数据之间的关系中。信号中冗余信息的去除可以通过合适的变换, 从而可以使数据更紧凑。

通过变换对去除数据中相关性较小的变换系数, 从而节约了存储空间。多年来, 离散余弦变换 (DCT) 一直用于数字静止图像和图像序列压缩, DCT变换使用不同频率的余弦函数去除了数据的相关性。例如, 对于静止图像的处理, 通过空间域到变换域的变换, 所获取的变换域系数被量化 (有损操作) 编码, 从而达到图像压缩的目的。

近几年, 小波变换也受到了极大的关注。小波变换是一种窗口大小固定不变但其形状可改变的时频局部化分析方法。小波变换在信号的高频部分可以获取较好的时间分辨率;在信号的低频部分可以取得较高的频率分辨率, 从而能有效的从信号 (语音, 图像等) 中提取信息, 由于小波变换编码相对于传统的图像编码具有不可替代的优点, 在压缩比和编码质量方面都优于DCT变化编码。基于小波变换的图像压缩方法能在高压缩比的前提下保持好的重建图像质量 (消除了块状效应) 。小波也可用于无损图像压缩。这就是我们所熟知的整数小波变换。

本文利用小波技术对原始图像“面具”进行图像压缩, 分别采用Haar小波变换, Symlet小波变换, Coiflet小波变换以及db小波变换, 从压缩比和均方误差两个角度进行对比研究。

1理论分析

小波作为一种数学函数 (例如, 零均值) , 用于表征数据或其它函数。母小波函数在时空域有确定的位置, 均值正好为零, 其绝对值和平方值是可积分的, 因此是一个可测量的函数, 它的平方值的积分正好为1。由于比例尺度的变化相当于在时空域的压缩或扩张, 若在时空域进行压缩, 则相当于在频率域的扩张, 所以经过扩张后的小波具有较低和较窄的频率范围。因此在小波变换中, 扩张母小波用于对数据进行空间/ 频率分析。相对地, 压缩子小波, 使他们代表图像的边缘尖峰等局部信息, 这使得它们更适合于空间分析。因此, 通过改变母小波的扩张及变换, 可以形成可变的时间/ 频率的分析算法。

将小波分析引入图像压缩的范畴, 有着其自身的特点。它的特点在于压缩比高、压缩速度快, 压缩后能保持信号与图像的特征基本不变, 且在传递过程中可以抗干扰等等。由原理可知, 一个图像作小波分解后, 可得到一系列不同分辨率的子图像, 不同分辨率的子图像对应的频率是不相同的。高分辨率 (高频) 子图像上大部分点的数值都接近于0, 越是高就越是明显。而对于一个图像来说, 表现一个图像的最主要的部分是低频部分, 所以最简单的压缩方法是利用小波分解去掉图像的高频部分而只保留低频部分。

2小波变换的种类

目前, 常用的小波有以下几种, 下面分别介绍:

2.1 Haar小波变换

Haar小波来自于匈牙利数学家Alfréd Haar于1910 年提出的Haar正交函数集, 对于一组个数的数据, 分别提取两个数, 存储差值, 计算和值。重复该操作, 最后获取个差值和一个和值。

Haar小波有以下优点:

1) Haar小波在时域是紧支撑的, 即非零区间为 (0, 1) ;

2) Haar小波属于正交小波;

3) Harr小波是对称的。我们知道, 离散的单位抽样响应若具有对称性, 则刚系统具有线性相位, 这对于去除相位失真是非常有利的。

4) Haar小波是目前唯一一个既具有对称性又是有限支撑的正交小波。

2.2 Symlet小波变换

Symlets具有近似的对称性, 一般人们不把其称为Symlet小波, 在图像压缩中用的比较多, 在Matlab命令语句中, 输入waveinfo (‘sym’) 便可获取相关介绍, 此处就不再详细叙述。

2.3 Coiflet小波变换

Coiflet小波变换由Ingrid Daubechies提出, Coiflets小波简记为coif N, N=1, 2, …, 5。Coif N是正交、双正交小波, 且是紧支撑的, 支撑范围为6N-1, 也是接近对称的, 小波函数的消失矩是2N, 尺度函数的消失矩是2N-1。消失矩越大, 对应的滤波器就越平坦, 而且小波函数的振荡很强。光滑函数在利用小波展开后的零点越多, 也就是说小波的消失矩的大小, 决定了小波逼近光滑信号的能力。

2.4 db小波变换

Daubechies小波简称db小波。它是由法国女学者Ingrid Dauechies于90 年代初提出并构造的。

db N中的N表示db小波的阶次, N=2~10。当N=1 时, db1 即是Haar小波。前述的Haar小波应归类于“正交小波”类, db小波是正交小波, 当然也是双正交小波, 并是紧支撑的。但是db小波是非对称的。

3讨论

绝大部分的图像有一个共同的特点, 即相邻像素的相关性。图像压缩的最基本目的就是信息的冗余及相关性的去除。基于小波变换的图像压缩算法利用均值和差值形式生成小波系数, 然后利用小波阈值技术减少系数的数量从而得到压缩后的图像。该算法是在MATLAB 7 仿真环境中实现的。

对原始图像进行不同小波变换所获取的图像如图1 所示。

由不同变换所产生的均方差数据在表1 中显示, 由不同变换产生的压缩比数据在表2 中展示。

对表1 和表2 数据分析可知, Haar小波变换在图像压缩处理中具有非常好的压缩比和均方差。

图2 为原始图像, 图3~ 图5 显示了利用Haar小波变换对原始图像不同阶次的压缩以及重建所获取的图像。

通过以上图像可知, 随着压缩阶次的提高, 图像重现的效果越差。

4总结

本文讨论了利用小波变换这一算法实现二维图像的压缩, 从而达到减少存储空间的目的。通过对原始图像分别进行四种小波变换压缩比较以及不同阶次的图像压缩, 从压缩率及均方误差两个方面对比分析可知, Haar小波变换可以获得最佳的图像压缩及重建。然而, 任何一种压缩图像的方法都不可能尽善尽美。要获得最佳图像压缩, 则需要综合的利用多种其他技术, 特别是数据编码和解码算法。

摘要:随着信息技术的发展, 图像因其信息量丰富的特点, 成为通信和计算机系统中信息传输的重要载体, 而图像信息占据了大量的存储容量, 因而图像压缩编码是图像存贮的一个重要分支。本文首先介绍了图像压缩编码的研究背景, 然后详细地从理论上介绍了利用小波变换来实现图像的压缩, 通过Haar小波变换, Symlet小波变换, Coiflet小波变换以及db小波变换的理论研究及Matlab仿真分析, 证明了Haar小波变换在图像压缩中的可行性。

二维不规则冲裁件排样算法研究 第9篇

冲裁是通过模具的一对工作零件冲头即凸模和凹模,利用冲压设备加压于其间的被冲材料,使之在具有一定间隙的刃口处产生剪切等变形,进而分离被冲材料的加工方法。冲裁件的排样,属于二维排样问题。从工艺角度出发,冲裁件的排样要考虑搭边。对于搭边的程序处理有两种基本处理方式,等比例法和等量法。等比例法就是将待排板件同时乘上一个比例系数(取大于1的数),然后,对它们进行排样,图形显示等操作时除以这个比例系数。等量法就是将待排板件同时加上某个常数值。

冲裁件的排样算法,研究较为广泛的条料排样,这和当时单模具、单工位的冲压设备相适应的。随着数控转塔冲床这些多模具、多工位的冲压设备的出现和发展,很有必要研究二维冲裁件的组合优化排样。现将简要介绍矩形包络,然后详细探讨不规则冲裁件的直接排样。

1 矩形包络简介

将二维图形置于坐标系中,找出图形的x,y坐标的最小、最大值,就构成一个矩形,将每一种非矩形图形和对应的包络矩形编上号,从而一一对应起来。这样,排样问题转化成了矩形排样问题。由于二维图形旋转会带来包络矩形的变动,可以采用下述方法找最小包络矩形。以多边形的重心为固定点旋转,每次旋转时增加一个固定的角度增量,然后把每次旋转后形成的当前正置最小包络矩形面积计算出来,最后在所有的包络矩形中找出面积最小的那个包络矩形和对应的旋转角度,作为该多边形的最小包络矩形。图1为包含三种模具(正六边形、梯台形、圆形),用所编写的排样软件得到的排样图。

2 不规则冲裁件的直接优化排样

2.1 多边形离散化描述和定位

采用把多边形转换成样片的离散化表达这种方法,可以脱离多边形几何形状的复杂性,这就可以避免多边形判交的复杂性和最小包络矩形排样的低利用率。它是用等间距的水平扫描线与不规则多边形相交,从而得到由交点坐标构成的水平线段区间,多边形就可以看成由这一系列的线段区间构成(图2)。图中多边形用线段区间表示成:(D1,D2),(D2,D3),(D3,D4),(D4,D5),(D5,D1)。

以间距为1mm的水平扫描线顺序扫描多边形区域(假定待排不规则零件的最小单位为1mm),多边形的最小、最大的横坐标和纵坐标分别记作xmin,xmax,ymin,ymax,那么通过这个多边形的扫描线条数N=int(ymax-ymin)+1。每条扫描线与多边形相交形成的线段区间可通过求交点、排序、组合得到。对于图2中多边形,扫描线1与多边形交于D1,D1是多边形的顶点且是极值点,扫描线1上多边形的扫描区间为(D1x,D1x)。扫描线2与多边形交于M1,D2,扫描线2上的扫描区间为(M1x,D2x)。同理进行,多边形的扫描区间为:(D1x,D1x),(M1x,D2x),(D5x,M2x),(M3x,M4x),(M5x,M6x),(D4x,M7x),(D3x,D3x)。

多边形描述成线段区间后,同样的方法,将整个可排料区域也描述成线段区间。为了将多边形排入,有必要对每一个线段区间增加一个标识量ϕ。有效区间的ϕ置为0,无效区间的ϕ置为1。多边形板料排入后,多边形占有的线段区间ϕ变成1,其他可排区域的线段区间ϕ更新为0。由于,每个线段区间都是一对x坐标,当有板料排入时,只需比较坐标值就可以判断出两个区域的线段区间是否重叠,启发式地底左排放,就可以完成排料过程。

2.2 遗传模拟退火算法

遗传模拟退火算法是把遗传算法和模拟退火算法相结合而构成的一种优化算法。遗传算法的局部搜索能力较差,但是把握搜索过程总体的能力较强;模拟退火算法具有较强的局部搜索能力,并且能使搜索过程避免陷入局部最优解,但是它对整体的搜索空间处理并不很强。将这两种算法结合起来,就可以取长补短,充分发挥两种算法的优点。

在应用算法前,首先进行染色体的编码操作。在把n个多边形板件排入到一块矩形板料上时,产生的每一个排样结果都要包括各个多边形的排样顺序(1~n)和排样角度(0°~360°)。对于角度,为了程序处理的方便,将其描述成0°~89°的基本角度值和8种镜像方式,如图3所示。

设有n个待排件,第i个板件的编号为i。每一个板件有3个参数,分别是次序i,角度θ,镜像方式ω。把一种排样方案看作一个个体,每一个个体的染色体编码可以描述成:Xi={(i1,θ1,ω1),(i2,θ2,ω2),,(ij,θj,ωj),,(in,θn,ωn)},ij是第j个板件排入的次序值,θj是第j个板件排入的角度值,ωj是第j个板件排入的镜像方式值(取值1~8之间)。

第二步,进行个体适应度评价。可以采用排样高度作为评价指标,排样高度值越低,意味着排样利用率越高,它的个体适应度评价值也就越高。个体适应度函数为:f(X)=1/h(X),h(X)是已排板料的包络矩形的高度,其值是大于0的实数。如果f(Xi)>f(Xj)时,表示第i种方案的排样结果利用率更高。

第三步,选择运算。适应度高的个体遗传到下一代群体中概率较大。对于个体Xi,被选择的概率f(Xi)/j=1n(Xj),选择运算时,随机生成[0,1]的随机数p,如果j=1ipipj=1i+1pj,那么Xi就被选择遗传到下一代群体。

第四步,交叉运算。采用双点交叉。设Xi,Xj是参与交叉运算的2个个体,生成2个不等的1~n范围内的随机数P,Q(P<Q),从Xi的染色体编码中第P位置处取Q-P+1个基因组成新染色体Xi的一部分,其余基因从Xj中适当选取,之后就构成2个新的子代Xi,Xj。例如,P=3,Q=5,

Xi={(2,45,1),(3,35,2),(5,15,3),(1,26,4),(6,30,7),(4,55,2)}

Xj={(4,25,2),(6,15,3),(3,25,1),(2,23,4),(1,45,8),(5,35,1)}。

经交叉运算后,产生的新的子代染色体编码为:

Xi={(5,15,3),(1,26,4),(6,30,7),(4,25,2),(3,25,1),(2,23,4)}

Xj={(2,45,1),(3,35,2),(4,55,2),(6,15,3),(1,45,8),(5,35,1)}。

第五步,变异计算。由于染色体的编码包括3个参量。因此变异计算又有3种。

1) 次序变异。改变排样次序i,从而形成一个新个体。例如,对于上面的Xj,在第1,3位置进行变异计算,就得到新个体Xj={(4,55,2),(2,45,1),(3,35,2),(2,45,1),(6,15,3),(1,45,8),(5,35,1)}。

2) 基本角度变异。对基本角度值进行变异,用0°~89°的一个随机值替掉原先的值。例如,对上面的Xj的第1位置进行基本角度变异,得到新个体Xj={(2,34,1),(3,35,2),(4,55,2),(6,15,3),(1,45,8),(5,35,1)}。

3) 镜像方式变异。类似于基本角度变异,用1~8的一个随机值替掉原先的值。例如,对上面的Xj的第1位置进行镜像方式变异,得到新个体Xj={(2,45,6),(3,35,2),(4,55,2),(6,15,3),(1,45,8),(5,35,1)}。

第六步,后续退火处理。产生一组关于种群大小n的互不相同的随机数,其中某个随机数对应于某个个体,复制其中一半的随机数对应的排样个体,对这些个体以已经初始化的参数变异概率Pm进行变异运算,分别计算出变异前的群体的适应度函数值f(X1),变异后的群体的适应度函数值f(X2)。比较f(X1)与f(X2)。如果f(X2)>f(X1),表示变异结果更优。那么就可以选中变异后群体。否则,就以概率p=exp(-ΔC/T)接受变异后的群体。ΔC是变异前后群体排样高度差值,T为模拟退火的温度。每次模拟退火达到指定的退火迭代次数后,更新温度T=αT和变异概率Pm=βPm,α是温度冷却因子,0<α<1,β是变异概率下降因子,0<β<1。之后,重复执行上面过程,直到达到遗传运算的终止进化代数。最后,就可以输出排样结果。排样效果如图4所示。

3 结语

文中从矩形包络和遗传模拟退火算法这两个角度探

讨了包含不规则形状的冲裁件的排样算法。随着冲压设备的不断发展,二维冲裁件的组合优化排样将会得到越来越广泛的普及和应用。

摘要:冲裁件的排样是一个NP问题,在工业界具有广泛的需求。从矩形包络和遗传模拟退火算法这两个角度探讨了包含不规则形状的冲裁件的排样算法。随着冲压设备的不断发展,二维冲裁件的组合优化排样将会得到越来越广泛的普及和应用。

关键词:冲裁件排样,矩形包络,遗传模拟退火算法

参考文献

[1]刘嘉敏,张胜男,黄有群.二维不规则形状自动排料算法的研究与实现[J].计算机辅助设计与图形学学报,2000,12(7).

二维条码识别算法研究 第10篇

关键词:二维码,非对称加密,公钥私钥

移动互联网已经成为人们社会生活不可规避的工具, 而验证登陆过程也是我们实现网上操作的必备过程, 导致我们同时拥有着多个网站或者是手机端登陆口令。这些口令与用户ID在保证我们处于独立网络用户范围内网络操作的同时, 也给我们的个人信息安全性带来了一定的隐患。虽然网络工作人员都在努力增强网站的安全保护性能, 但是多次网站信息泄露事件已经向我们证明了, 网站始终无法保证信息的百分之百安全。在本研究中, 笔者以较为经典的网站安全密钥为例, 列出如下几种常见的信息泄露问题:

(1) 过于简单密钥被直接穷举;

(2) 用户密钥被网络木马恶意盗取, 比如网吧内网络, 就存在着较大的风险;

(3) 网络代理恶意获取用户密钥;

(4) 钓鱼网站直接诱骗盗取用户安全密钥;

(5) 黑客进行有目的性的破坏网站服务器后台存储明文密钥或者服务器管理员监守自盗。

网站用户密钥被上述任何方式获取, 都会导致用户信息泄露, 而且部分用户密钥相同, 也会产生移动的连锁损失。虽然网络安全工作人员对网络加密算法进行不断升级, 比如现在部分网上银行推出的动态密保卡、Open ID和oauht等加密机制, 但从用户体验的主观方面来考虑, 过于复杂的密钥保护机制, 导致用户使用不便, 网站方面带给用户的体验不佳。再加上当前云计算的出现于应用、移动网络普及与部分开放平台的迅速发展, 更是增加了用户安全问题的严重性。

1 QR技术和二维码

二维码生成算法是根据既定的平面图形, 按照一定的规则在二维平面上组成黑白相间的平面图形, 有序的记录一定的信息, 其突出优点就是单位面积内可存储信息量大、信息安全系数高, 而且信息读取方式简便 (扫描读取) 。因此, 二维码技术已经被社会各界广泛应用, 包括交通运输、医疗领域、商业、通讯软件, 甚至公共安全与国防。

本研究所探讨的QR码技术属于二维码范畴, QR码继承了二维码的所有优点, 而且在数据存储密度上有所提升, 使得以更小的空间存储更多的数据信息。同时QR码还添加了特定的读取机制, 提高可数据读取的速度。一副QR图像能够存储1817个汉字、7089个数字和4200个字符。

2 非对称加密算法与RSA

非对称加密算法需要私有密钥与公开密钥两种, 而且两者需要成对出现, 假设加密密钥时使用的是公开密钥加密算法, 那么解密就必须使用相应的私有密钥;若加密密钥时使用的是私有密钥加密算法, 那么解密时就必须使用相应的公开密钥。非对称加密密钥的优势在于其强度较大的算法、安全性主要取决于密钥及其对应的算法。因此, 加强密钥的安全性就可以增强算法的强度, 另外非对称密钥中的公开密钥, 还可以省略对称密钥中的对方接受步骤, 降低了传输中密钥泄露的可能性。

RSA算法则是非对称加密算中较为常见的一种, 其突出优势在于同时实现数字签名与密钥保护机制, 使用方面操作简单等。RSA算法的对于密钥的保护机制在于数据分解的难以程度, 但是否完全取决于大数分解或因子分解中的NPC问题, 尚未得到科学上的证实。不过在实际加密使用中, 其安全系数逐渐增强, 可破解性也在不断下降, 例如长度为2048位的密钥破解时长最低位2000年。

3 非对称加密算法密钥认证机制的实现

3.1 认证的理论依据

目前使用的网络登录机制, 多是用户将登录名与密钥传输至网站服务器。本研究所提到的密钥认证方式将规避这一途径, 而是针对用户生成特殊的RSA公钥私钥认证对, 当用户在网站注册时把公钥传输至服务器留存。在用户以网络终端浏览器验证登陆网站时, 相应的服务器就会反馈一个存有私有密钥的二维码, 用户通过手机扫描功能对二维码进行解读, 获得既定账号, 然后经过该账号对应的私钥把信息返回至服务器, 服务器将接收到了私钥与已经存储的公钥进行匹配, 确认访问用户的ID会话, 若匹配会话成功, 则将成功登陆信息反馈至登陆终端完成登陆。

3.2 登录的具体操作步骤

本研究中的非对称密钥机制, 可以用以实现PC机浏览器、带有用户账户管理功能的手机与服务器的登录。具体登录步骤为:

(1) 用户打开具有登录功能的应用, 获取登录请求页面, 服务器针对性的显示会话ID;

(2) 服务器针对获取的ID进行计算与公钥调取并将得到的二维码结果通过登陆应用界面返回, 所返回的二维码中包含信息为:会话ID、服务器IP机器独有的标记、服务器既存公钥、公钥密钥对匹配算法以及验证提交的URL途径。同时客户端应用将服务器返回的二维码以一种规定的方式显示出来, 并进行连续匹配计算, 检测用户登录信息直至登录完成。

(3) 用户根据网络终端提示, 使用账户登录应用扫描二维码, 得到服务器返回信息。

(4) 的服务器IP以及特定的公钥。同时搜索账户管理应用中是否存在匹配特定公钥的私有密钥, 并将匹配账号反馈给用户。

(5) 用户根据提示选择匹配得到的账号, 则登陆应用就会将账号和认证密钥同时提交至对应的URL路径, 用户所提交的信息包括匹配得到的用户账号、公钥、会话ID以及应用中已经存储的对应密钥与会话ID。

(6) 用户操作完成之后, 服务器就会立即得到用户手机通过无线网络传输的账号匹配字符串, 并对相应的信息进行解读, 获取会话ID, 接着进入服务器数据库进行比对, 将找出的账号对应的公钥和接受到字符串中的密钥进行匹配, 若匹配成功则服务器会打开手机终端的操作权限与访问范围, 并提示用户登录成功或跳转到操作首页、用户中心。完成整个密钥验证操作。

4 总结

上面的6个登录步骤, 摒弃了传统的口令验证登陆方式, 而且RSA密钥本身具有很高的安全性, 避免了穷举法对登陆密钥的盗取;既存公钥与验证密钥无法匹配则降低了黑客或后台管理人员非法利用验证密钥的可能性;整个验证过程只存在于手机与服务器之上, 消除立刻浏览器木马程序盗取密钥的途径;服务器与登陆应用端的私钥均不通过网络途径, 防止了登陆代理盗取密钥的方式;登陆过程中没有出现用户账号的传输, 钓鱼网站无从下手。

参考文献

[1]单利安.QR二维码水印加密及解密算法研究[J].无线互联科技, 2013 (10) :122-123.

[2]靳丽君.非对称加密体制中RSA算法的研究[J].电子设计工程, 2011, 19 (11) :29-30.

二维条码识别算法研究

二维条码识别算法研究(精选10篇)二维条码识别算法研究 第1篇1 二维图像的概述二维图像指的是在同一个平面中用点和线拼画出的一幅图像,...
点击下载文档文档内容为doc格式

声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。如若本站内容侵犯了原著者的合法权益,可联系本站删除。

确认删除?
回到顶部