期刊大全 杂志订阅 SCI期刊 投稿指导 期刊服务 文秘服务 出版社 登录/注册 购物车(0)

首页 > 精品范文 > 计算机视觉的前景

计算机视觉的前景精品(七篇)

时间:2024-01-01 15:43:49

序论:写作是一种深度的自我表达。它要求我们深入探索自己的思想和情感,挖掘那些隐藏在内心深处的真相,好投稿为您带来了七篇计算机视觉的前景范文,愿它们成为您写作过程中的灵感催化剂,助力您的创作。

计算机视觉的前景

篇(1)

关键词:OpenCV;计算机视觉技术;三维模拟技术

中图分类号:TP391 文献标识码:A 文章编号:1009-3044(2015)30-0137-02

21世纪是国际计算机技术高度发展的时代,人们生活中的每个角落都可以看到计算机技术的身影,尤其是现代计算机视觉技术和图像处理功能发展更加迅猛,各技术分支也逐渐趋于成熟。计算机视觉技术主要指的就是利用智能计算机系统来代替人类的眼睛对现实三维世界进行辨识和理解,整个过程均是计算机自我学习的过程,而随着这项技术研究的不断深入,其不再仅仅包含计算机技术科学,同时还涉猎了包括生理学、神经学、物理学、应用数学等多门学科,为人类科技的进步提供了有效的动力。

1 计算机对视频中运动物体检测的原理概述

在现代计算机技术基础下,对视频当中的运动物体检测原理主要包括两种,分别是从微观和宏观的角度出发。其中宏观检测技术指的是当计算机截取了视频中的某一个图像,其以整幅图像为对象进行检测;微观检测技术是指在截取图像后,根据实际需求对某一区域内的图像内容进行检测。在计算机视觉技术实际应用时,其第一步就是对图像的采集,第二步是对已经采集的图像进行预分析处理,如果采用宏观检测技术则对图像整体进行分析;如果采用微观检测技术则首先将图像进行分割,然后对分割后各图像内容中出现的运动物体影像进行分析。在图像数据获取过程中应用的是背景差分法,这一技术主要是将背景和运动物体进行分离提取,以获取没有背景图像的运动物体影像数据。还可以利用帧间差分法,这种方法主要是对一个视频图像的逐帧画面进行差别比较,从而获得各帧图像上的差值,而将这些差值帧图结合起来就是一个物体在计算机视觉下的运动轨迹。现代研究者更倾向于将背景和帧间差分法进行结合运用,这样可以获得无背景下的运动物体轨迹,进而提升计算机视觉系统捕捉数据的准确性。

2 OpenCV的应用概述

OpenCV是现代计算机视觉技术当中具有开源性的视觉库,其最早是由俄罗斯Intel分公司所研发,不仅高效,而且具有兼容的优势。同时与传统IPL图像处理系统相比,OpenCV所处理的图像数据等级更高,例如在对运动物体进行特征跟踪、目标分割、运动轨迹分析以及三维模型重建等方面都有着巨大的优势。

OpenCV本身编辑的源代码是开放式的,编写过程简洁且方便,并且程序中大多数函数已经通过了汇编的最优化,使其能够更加高效地被应用。在使用OpenCV的摄像机标定模块已经为用户设计了实用性较强的接口,并且能够支持Windows界面的操作平台,使得这一技术的操作更加简便。这一技术本身操作简便,对于编程人员和检验人员个人技能素质要求并不高,视觉技术系统研发人员可以利用简便的操作来检验其设想是否能够实现,这就使得现代计算机视觉技术开发团队能够形成更好的协作研发关系,进一步提升技术研究效率。目前已知OpenCV编程系统在航空航天定位、卫星地图绘制、工厂大规模生产视觉检测等方面得到了广泛的应用,同时对于无人飞行器的视觉捕捉技术也有极大的帮助。最为重要的是OpenCV编程语言的兼容性较强,编程人员可以根据自己的意愿对源代码进行披露,并且国内也已经形成了规模较大的交流社区,给更多同行业者提供答疑解惑的场所,进一步扩大了OpenCV的应用范围。

3 基于OpenCV的计算机视觉技术

3.1 基于OpenCV下的运动物体检测技术

在常规运动物体检测技术下,均是直接通过图像背景和运动物体的区分来实现运动物体的捕捉。而基于OpenCV下的运动物体检测技术则不仅能够针对于图像背景的分离实现运动物体的观察,还可通过物体本身特定的信息来进行检测,主要包括形状、轮廓以及颜色等。这样就能够实现在复杂的背景当中将特定的运动物体完整抽离出来。其基本流程包括:首先,对影像数据当中某一时间点的图像进行捕捉,然后对这一视频图像的格式进行转化;其次,对转化格式后的视频图像进行早期处理,并将运动物体和复杂的背景区分开,降低周围各环境因素对运动物体主体图像的影响;第三,根据完成提取后的运动物体图像进行辨识,然后再从视频当中捕捉拥有相同特征的物体,并对该物体进行跟踪识别。而这一过程的实质则在于先利用图像捕捉技术对画面进行截取,然后同时利用背景差分法和帧间差分法对图像进行分割,逐帧地将运动物体完成提取出来,以供计算机进行视觉跟踪处理。

3.2 基于OpenCV的图像预处理技术

一般情况下,计算机视觉处理技术应用的环境情况较为复杂,大多数应用环境当中均有光照的变化,并且部分计算机视觉处理设备还需要在露天环境下进行工作,此时周围环境中的风、温度、光照、气候以及运动物体数量等对视频图像的采集均有着极大的影响。环境因素会使图像采集的质量大幅度降低,同时图像当中的噪点问题也难以避免,而噪点是视觉捕捉和图像处理当中最大的影响因素。因此,在基于OpenCV下的计算机视觉技术在捕捉视频图像之后先对其进行预处理,然后再由系统对运动物体进行分离、检测和跟踪。一般的预处理过程主要包括平滑度滤波、图像填充、背景实时更新等。

1)图像的平滑度滤波预处理技术

由于在实际计算机视觉捕捉过程中图像噪点是难以避免的问题,以此在对图像中运动物体进行检测前,应该相对这些噪点进行预处理,降低环境噪声对图像的影响。图像的平滑度滤波处理共分为两种方式,分别为线性和非线性。其中线性处理方式就是通过计算机处理设备的简单运算,对图像当中的噪点进行直接清除,但这一技术使用后会造成截获图像模糊不清的情况,因此仅对噪点较少的图像采用该处理方式;非线性滤波处理则是利用复杂的图像处理运算,将截获图像当中的噪点无限缩小,使其不对图像整体造成影响,并且可以有效保证图像的局部调整,但这种处理方式在运算时速度没有线性滤波处理快,因此需应用在噪点较多,图像信息较复杂的处理当中。

2)图像的填充预处理技术

这一处理技术在使用过程中运算速度较慢,主要是由于其需要对逐帧的图像均进行处理,也包括两种处理方式,分别为边缘填充和腐蚀膨胀处理。其中边缘填充处理主要指的是在确定运动物体之后,利用计算机系统自身的边缘检测处理技术,对物体的轮廓进行辨识,并利用形态学上的漫水填充方式对运动物体周围的噪点进行颜色填充,减小其对画面整体元素的影响。而腐蚀膨胀处理与边缘填充处理原理相类似,但这种处理技术主要是针对于噪点进行腐蚀和膨胀,使其在画面当中所占比例扩大,但对运动物体本身不造成影响,这使运动物体和噪点之间的差异就会更加明显,就可以将噪点的影响降到最低,但这种处理方法的效果和摄像机本身的性能、质量等有着密切的关联。

3)背景的实时更新预处理技术

在进行运动物体和背景分离过程中,计算机系统需要对图像上的背景元素进行辨识,并对其开展初始化处理,这样就能够为后期实时背景图像的差异进行凸显,以增加前景图像的效果,降低噪点对图像的影响。在运用这一技术时,首先要先对第一帧的图像进行确定,并将第一帧图像当中的背景图像元素进行辨识,然后在后期图像更新和运动物体检测过程中对背景进行实时更新处理。在更新的过程中其流程主要包括:首先,系统要对所读取的画面进行有效的判断,了解该图像是否为第一帧;其次,将Opencv处理的图像转变为单通道灰度值;第三,对转变后的图像进行高斯平滑度滤波处理,将图像当中的噪点进行去除;第四,采用形态学噪点填充技术对图像当中的噪点进行二次处理,以获得所需要更新的背景图像。

3.3 前景运动物体的提取技术

在计算机视觉技术进行运动物体的检测时,只有有效保障检测流程的准确度,才能够有效保障对前景运动物体的跟踪效果。其主要分为两大步骤,其一是对二值化后的图像数据进行分割处理;其二是在图像分析前对其进行充分的填充处理,保证前景图数据的完整性。同时,在前景图像提取的过程中也分为多个步骤,其包括:首先,对所提出的前景图像和背景图像进行差分处理;其次,将差分处理后的图像二值化处理;第三,对背景当中前景物体的轮廓或边缘进行辨识,根据前景图像的轮廓对其进行填充。由于在实际操作过程中,摄像头所处环境的变化较大,并且会在不同场所内的不同角度捕捉画面,因此就需要在前景图像提取时有效提高背景图像实时更新的效果。

利用阀值二值化的分割方式能够有效将前景图像和背景图像分离开,从而使目标运动物体能够呈现独立化,并且阀值分割方式开展前要相对每个像素点进行确定,判断其是否位于灰度值的范围内。而将该图像的像素灰度和阀值进行对比后会出现两种结果,分别是灰度值低于或高于阀值。在实际应用过程中,有效确定图像的分割阀值T,就能够降低环境当中光照因素对图像质量的影响。

4 计算机视觉技术当中的三维重建技术

1)三维重建的视觉系统

计算机视觉技术在对图像进行捕捉时可以视为是对大量的图像信息进行处理,从摄像机的视觉角度出发,其所输入的图像一般为二维属性,但输出的信息确是三维数据,而这种三维空间数据能够提升对运动物体所处空间位置、距离等描述的准确性。在三维重建视觉系统工作过程中,其相对基本的图像数据框架进行确定,然后利用一个坐标点建立2.5D图像数据,即以此点为视角能够观察到的图像数据,再将2.5D图像数据进行整合从而建立三维图像。

2)双目视觉系统

当人体利用双眼在不同角度、同一时间内观察同一个物体时,就可以利用算法来测量该物体和人体之间的距离,而这种方法也被称为双目立体感,其应用的原理主要是人体视觉差所带来的影响。同时利用两台摄像机对同一图像从不同角度进行观察,就能够获得人体双目观察后的效果,因此这一三维重建技术也被称为“双目视觉系统”。两台不同的摄像机即可代表人体双眼,其对图像进行逐帧捕获,但由于角度不同和环境影响因素的差异,因此造成了图像差异,必须对其捕捉的图像进行预处理。

3)三维重构算法

在计算机视觉技术中对于视频流的采集主要依靠的是彩色摄像机、红外摄像机、红外接收摄像头等设备。还可以利用微软所提供的Kinect设备,在进行运动物体检测前能够对NUI进行初始化处理,将系统内函数的参数设定为用户信息深度图、彩图、骨骼追踪图等数据。在使用Kinect设备对视频流进行打开时,其可以遵循三个步骤,其一是彩色和深度数据的处理;其二是根据数据的索引添加颜色信息,并将其引入到深度图数据当中;其三是骨骼追踪数据。

5 结束语

计算机视觉捕捉技术是现代计算机应用当中较为先进的内容,其应用范围较广,对于运动物体的捕捉准确度较高,能够有效推进现代计算机模拟技术的发展。

参考文献:

[1] 张海科.基于Opencv的人手识别与跟踪定位技术研究与实现[D].昆明: 云南大学,2013.

篇(2)

关键词:计算机;视觉检测技术;原理;应用

中图分类号:TP391.41

受到CIMS的推动和影响,诸多企业的发展趋势逐步趋向于个性化以及自动化,这种大的发展趋势间接的对我国的计算机辅助技术提出了更高的要求,计算机相关技术的发展面临着更加严峻的挑战。就现阶段分析来看,计算机辅助检测技术在现代诸多企业中得到了广泛的应用。随着柔性制造系统的不断进步与发展,驱动图像处理软件、现场总线技术的日趋成熟,检测系统的灵敏性、智能化特点愈发受到人们的关注,在这种大的发展趋势之下,计算机视觉检测技术得到了较快的发展。基于计算机视觉系统现已经广泛应用于现场监控、工况监视等诸多环境之中。

1 关于对视觉技术的相关研究

1.1 基于计算机的视觉检测技术的原理分析和探究

图像技术主要指的就是通过各种途径所实现的对图像的获取以及进一步的深入加工和处理技术。根据视觉检测技术的抽象程度以及对图像处理方式的不同,可以大致将图像的处理和加工技术划分为三个最主要的层次,这三个层次分别是图像的加工处理、图像的分析以及对于图像的理解。将这三个层次进行进一步的结合,便是图像工程。计算机视觉检测技术是一门新兴的计算机检测技术,该技术建立在对计算机视觉研究的基础之上,吸收和借鉴相关的研究成果,借助于传感器来实施三维测量,进而有效获得被测物体的空间具置信息,故而可以很好的满足当代制造业的发展需求。区别于一般的图像处理系统,计算机视觉检测技术所获取的相关数据信息更为精准和迅速,其环境适应性更强。

基于计算机的视觉检测技术注重计算理论的辅导作用,以应用为目标进行视觉技术分析。自上世纪七十年代以来,我国关于对计算机视觉检测技术的研究又取得了显著的进步,并且逐步迈入更为实质性的研究阶段,在该阶段中,逐步开始从通过从多个角度(诸如光学角度、生理学角度以及投影射影角度等等)对其成像问题加以分析。以Marr为代表的专家更是建立了一些一般性的视觉性处理模型来辅助该技术的研究。

1.2 视觉检测技术中传感器的作用

在计算机的控制下配有相关的视觉检测系统,在该视觉检测系统中,主要有三个主要方面的主要作用:第一,对于视觉传感器模型的分析以及确定;第二,进行图像数据分散与整理的相关工作;第三,CAD模型的建立。传感器的主要作用就是对测量棒材的多个截面进行分析,将所收集得到的数据经由图像采集卡采集后,传到相关的图像处理系统中,进而进一步辅助准确的模型的建立。

2 基于计算机的视觉检测技术的应用研究分析

2.1 基于计算机的视觉检测技术的发展状况研究

在研究的初步阶段,相关技术人员借助于数字化的图像处理技术,主要就是为了进一步提高所获得的数字照片的清晰度和质量要求,进而更为精准、科学、规范的对照片所提供的信息加以辨别,为航空卫星图片的读取、识别和分类做准备。在这一系列的视觉工作中,其中最为主要和常见的工作主要是包括分类、识别判读以及三维结构的构建。

基于计算机的视觉检测技术借助于对计算机视觉技术,将所获得的被观察物品的相关信息加以信号转换,并传递给图像处理系统,图像处理系统通过甄别和判断不同照片像素的分布和亮度等讯息,将其进一步转换成为数字化信号,接下来由计算机的图像系统抽出符合目标特征的信号加以运算,对下一步的设备动作加以决定和执行。

就现阶段而言,我国的计算机视觉检测技术系统在诸多领域均有所应用,最为典型的领域诸如医学的辅助诊断、机器人的感应系统、智能化的人机接口等均是建立在该技术的基础之上。借助于计算机视觉技术这一手段,可以有效提高对产品检测的效率,提高精准度,这种新型的视觉检测技术相比较于传统的人眼在流水线上的跟进,其具有显著的优越性,其获取测量结构迅速、检测结果可以直接被观察、可以进行自动识别以及定位准确和实时性的特点,这就很好的避免了由于人的一些主观性因素所导致的误差出现。

二十世纪以来,基于生物特性的计算机视觉检测技术得到了空前的发展,具体表现在人脸识别、生硬识别、指纹识别以及虹膜的识别中,形式日趋灵活和复杂多变。借助于计算机的视觉检测技术,可以有效对用户的身份进行鉴定和识别、判定用户的特殊信息等。除此之外,还可以将基于计算机的视觉识别技术逐步推广到其他领域,如海关的安全检查以及出口、入口的安全控制等领域。

2.2 基于计算机的视觉检测技术的相关应用分析

2.2.1 数码相机中所采用的图像采集技术

视觉检测技术的一个显著特点就是有效提高了生产的柔性和自动化程度,本世纪以来,数码相机凭借其高分辨率,快速成像、显像,功能丰富多变以及性价比较高的特定风靡全球,逐步取代了传统的照相机,传统的照相机主要采用的是CCD 摄像头,其主要的核心及时采集卡,显然这种采集系统已经逐步落后于时展的脚步,现已逐步被淘汰。

2.2.2 微文字识别系统的相关研发和设计

随着科学技术的不断进步与发展,大规模集成电路得到了较快的进步,基于计算机的视觉检测系统的成本得到了极大的降低,基于计算机视觉检测技术的微文字识别系统的研发也被提到了日程中来。微文字识别系统的处理芯片大多是借助于数字信号处理芯片来实现图像的识别,进而借助先进的语音合成技术将朗读变为可能。此外,为了便于使用,该系统的体积被尽可能的缩小,并且可根据美观度和实用性等设计为各种形状。

2.2.3 特殊用纸水印在线检测系统

基于计算机的视觉检测技术可以在某一特定领域代替人的主观判断,诸如水印质量的自动检测方面。区别于普通的工作人员,计算机可以实现长时间工作,对于误差范围的控制可以通过设置等实现,而且在计算机执行任务期间,所受到的客观和主观因素相对较少,这就极大程度上避免了由于人的因素所导致的失误性操作,进而有效提高了工作效率以及检测的精准度。这一优点,在水印质量标准的认定中具有十分重要的意义和作用,通过研发一定的程序和软件,可以制定出一套操作性强、权威性较高的水印清晰度量化标准。

3 基于计算机的视觉检测技术的发展展望

综合分析来看,计算机视觉检测技术现已有大约四十年的历史,作为一种新兴的检测技术,该技术的显著优越性不言而喻,该检测技术以其高精度、反应灵敏迅速、智能化、自动化等特点被广泛应用于诸多领域和行业之中,并取得了显著的成,可以说,该技术具有十分广阔的发展前景。但是,不可否认,基于计算机的视觉检测技术并不是十分的成熟,在其设计和研发过程中仍然存在着诸多不足,而且视觉检测技术是一项设计到心理、生理等多方面知识的复杂性技术,涉及领域众多,更强大功能的实现需要人类知识的不断拓展和延伸,因此,必须意识到该检测技术发展道路上的困难和挑战。

4 结束语

随着科学技术的不断进步与发展,经济的发展对于新技术的研发提出了更高的挑战,再者由于广大人民群众生活质量的不断提高,对于生活水平也有了进一步的认识和了解。基于计算机的视觉检测技术的研发和进步,无疑更好推动了高速发展的经济,不断满足了人民群众日益提高生活需求。由此来看,深入对视觉检测技术的研究和探究无疑具有十分重要的作用,笔者衷心希望,以上关于对我国基于计算机的视觉检测技术的相关探究能够被相关负责人合理的吸收和采纳,进而更好的推动科学技术的创新和进步,推动经济的不断进步与发展。

参考文献:

[1]李旭港.计算机视觉及其发展与应用[J].中国科技纵横,2010(06):42.

[2]张江明,张娟.浅谈制造业中计算机视觉检测技术的应用与发展[J].科技创新导报,2011(24):1.

篇(3)

关键词:计算机视觉;智能交通;监控系统

中图分类号:TP277

近些年来,随着我国人民生活水平提高,使私家车辆的数目急剧增长,并且车辆的增长速度远远超出市政建设的力度。这样的事实导致城市交通拥堵、违规通车、车祸增加,所以迫切的要求加快市政建设,实施高效率的交通监控措施,基于计算机视觉的智能交通监控系统也由此得到了相应的广泛的发展和应用。那么,计算机视觉技术下的智能交通监管系统究竟应该如何设计与实现呢?

1 计算机视觉下的智能交通监控系统

1.1 计算机视觉技术

计算机视觉技术即利用各种图像摄录设备将通过对视觉目标进行识别、跟踪、测量并将由此获取的视觉信息传输至计算机并进而利用图像技术进行视觉信息处理以达到进一步进行智能化处理的视觉处理技术。

1.2 智能交通系统(ITS)

智能交通系统(ITS)是指通过现代化的网络信息技术、自动控制技术等有效综合手段在一定范围内建立的全方位发挥作用的交通运输综合管理和控制系统。作为交通运输管理体系的一场新的革命,近年来,由此技术进一步开发形成的监控系统已经在各个道路的关键路口、路段和其他交通繁忙地域普遍建立,为交通运输管理提供了自动化、智能化的信息收集和处理等多方面的服务。但是,随着城市建设的迅猛发展和人流、车流量的猛增,更加智能化的交通管理系统的开发和利用显然也成为了当务之急。

2 计算机视觉下的智能交通监管系统的建立

正是基于新的发展需要,我们有必要把计算机视觉和智能交通监控系统进一步结合起来,首先通过计算机视觉分别对各个道路的关键路口、路段和其他交通繁忙地域等相应位置实时进行交通信息采集,然后,通过信息传输系统、或者进行处理后存入服务器并将处理过的实时交通信息及时传输到监控指挥系统,以实现对于各个道路的关键路口、路段和其他交通繁忙地域的实时监控和管理。由此,显然就需要设计以下各个子系统并共同构建为一个完整的体系。

计算机视觉下的智能交通监管系统

实时交通信息收集系统

监控指挥系统

高质量信息存储传输系统

图1 计算机视觉下的智能交通监管系统工作程序示意图

3 智能交通监控系统的实现

计算机视觉下的智能交通监管系统实现的第一步是通过实时交通信息收集系统实时进行交通信息采集,即通过对于运动物体的分割,在图像找出有意义的部分,抽出运动目标的特征,进而通过连续画面间的变化判断目标的运动状况。在这一系统运行中,首先可以“摄像头读入”的初始视频,使用相应的算法提取“背景”,然后通过原图与背景运算形成相应的“前景”,由此即可进一步通过矩形框的使用来达到“运动目标检测”与信息采录的目的。

图2 视觉监控系统原理图

3.1 系统功能实现

对运动物体的检测主要有光流法以及差分法两种方法,由于光流法比较复杂和耗时,实时检测很难实现,因而,现有实时交通信息收集系统一般通过差分法的应用来进行开发和实现。

3.1.1 帧间差分法

帧间差分法对运动目标进行分割处理过程中使用较多也最为简单实用的一种方法,其基本原理就是通过在连续的图像序列中两个或三个相邻帧间采用基于像素的帧间差分并且阈值化来提取图像的运动区域,进而通过逐象素比较获取前后两帧图像之间的差别来判断运动物体的移动状况。在实际操作中,一般可以假设用于获取序列图像的视频设备为静止物体,设视频中连续两帧的图像为It(x,y)和It+1(x,y),然后通过对连续两帧的图像相应的像素进行比较,利用Dt(x,y)=It+1 (x,y)-It(x,y)这一方程求出相应的阈值来检测出运动物体的移动状况:

Mt(x,y)=

当然,必须注意的是,由于帧间差分法所得到的差分图像在现实中并非由理想封闭的轮廓区域组成的,因而,运动目标的轮廓自然也就往往是局部的、不连续的,且其误差往往随着运动物体速度的增大而增大,因而,这一方法并不适于对于高速运动目标的有效检测。

3.1.2 背景差分法

与帧间差分法不同,背景差分法则是利用当前图像与背景图像的差分来检测物体运动状况一种方法。其基本原理是在可控制环境下,通过对于运动背景的固定假设,设待检测运动物体的图像为I(x,y),背景图像为B(x,y),通过输入图像与背景模型进行比较,利用D(x,y)=I(x,y)-B(x,y)这一方程求得到图像中的各像素的变化信息,进而检测运动物体的移动状况:

Mt(x,y)=

当然,在实际运用中,背景差分法的关键,是要建立一个背景模型,并更新模型。

3.2 程序功能的实现

本程序功能实现所主要使用的是OpenCV函数。OpenCV能够实现对图像数据的操作,包括分配、释放、复制、设置和转换数据,以及对摄像头的定标、对运动的分析等。在函数实现上,用到了Cv图像处理的连接部件函数,运动分析与对象跟踪中的背景统计量的累积相关函数等相关的函数。本系统就是运用图3介绍使用到的函数名及其功能和使用格式等来实现对视频流的运动车辆的轮廓检测的。

图3 寻找轮廓程序主要算法流程

实验证明,本系统能够较好地实现对视频流的运动目标的轮廓检测和对象跟踪,并能实时更新背景,车辆跟踪正确率在95%以上,虽然存在着轮廓检测正确率稍差的缺点,但其主要原因是由于摄像头所处的角度和运动目标靠近程度的影响,从根本上并不影响对于运动目标的实际检测。

4 结束语

加快城镇化进程是我国发展的大趋势,在这一趋势下,城市病的治理当然可以离不开现代化的科学技术。但是,必须注意的是,无论多么先进的管理系统,最终都只有通过人的行为才能够发挥有效的作用,在这个意义上,设计与使用先进的交通监控系统固然是解决交通问题的技术条件,但是,交通问题的解决,最终还必须依赖于人的素质的全面提高。

参考文献:

[1]戴俊乔.城市道路交通视频监控系统架构和性能的研究[J].科技与创新,2014(06).

[2]张伟龙,李刚,王雨翔.基于计算机视觉的智能交通监控系统[J].小型微型计算机系统,2014(07).

[3]庞其富.浅谈城市轨道交通视频监控系统设计方案[J].通讯世界,2014(01).

篇(4)

提起数字媒体,人们通常会想到传媒行业,其实数字媒体的应用绝不局限于传媒。随着宽带网络的普及,人们在日常业务处理过程中,正面对越来越丰富的网上媒体和内容,包括各种视频、音频、文本、图像等。下面,就让我们跟着诸位数字媒体方面的专家一起来分享这个缤纷的世界。

三维几何建模与形状表示

北京大学视觉与听觉信息处理国家重点实验室主任教育部长江学者奖励计划特聘教授 查红彬

精彩问答

在背景比较复杂、有干扰的情况下模型检索的效果怎么样?

在模型检索的时候并没有考虑背景,因为这是做模型检索比较容易的部分。模型检索一般是没有背景的,但也可以做,但是要推广到背景比较复杂的物体上识别可能有很大的问题,因为这时候匹配不仅仅是局部匹配,而是两个子集和子集的匹配问题,到目前为止,我们只是做没有背景的模型检索。

为什么要重新谈论三维形状表示问题?在多媒体信息处理领域里面,有两个比较重要的方向,这也是计算机科学技术领域里两个重要的方向,一个是计算机视觉,一个是计算机图形学。计算机视觉是从图像中通过识别或重建处理,得到一个对对象物的描述。反过来说图形学,是对一个对象和场景的描述,通过绘制和动画生成图像和视频。它们从处理过程来说是逆过程,这两个领域之间有密切的关联。

我们现在考虑计算机三维建模或模型的描述,考虑的不仅仅是计算机视觉或计算机图形学所包含的内容。这里面简单列举一下,比如基于模型的三维物体识别和场景识别,这两个应该是典型的计算机视觉里面考虑的应用。除了这以外还可以用模型干别的事情,比如绘制,还包括基于这样模型的设计、变形、动画等等。除了两个单独研究的应用之外,还要想怎么把两者结合起来,把虚拟和真实的东西无缝连接到一起,这些都牵涉到三维模型。

我们考虑的三维模型跟以前相比,应用领域大了很多,要达到这个要求,对模型的表达、形状的表达也都有了更高的要求。

怎样找到一些更新更有效地表达形式来符合这些要求呢?这里有四个方面,现在能不能建立一个形状空间,把考虑的对象完整地在形状空间里面表达出来。第二点就是针对形状的特性,表达要具有柔性,对象物的表面不都是连续的,也有一些非连续性和不规律性,这些特性怎样能够进行柔性处理。第三个是需要一些描述是局部性的,另外一些要求描述是整体性的,这两者之间如何有一个很好的结合方法。第四是在大量的计算当中,包括变形和动画中有很多编辑的工具,所以我们要求对现在的形状表达有一些比较高的要求。

在计算机视觉里面有一个老大难就是识别,已有模型,但是眼前看到的是一部分三维数据,怎么用这部分数据和模型数据匹配来识别它呢?这就牵涉到局部匹配,我们要解决局部匹配需要什么描述?我们要有一个模型,从大量的数据中建立一个模型库,并从中抽取很多特征,把这些特征进行组织。这里面牵涉三个比较大的问题,第一个是形状空间怎么构造,没有很好的特征表达或整理的形式,后面的匹配以及其他的工作就很难做。第二个是怎么定义基于这种特征的相似度。第三个是怎样在形状空间当中搜索到最优的匹配。

针对这些问题我们最近一两年做了一些工作,最近提出一个广义形状分布(Generalized Shape Distributions)描述方式,主要目的有两点,能不能在三维形状表示过程当中,找到一些最关键的描述指令,并从中找到相互关系,把整体和局部结合起来。如果把之间的关系描述出来,就能把局部结构性的信息用整体观点加进去,这两件工作就是我们做这件事情的主要目的。

在形状描述问题上,我们还有很多工作要做,除了局部、整体描述之外,我们要想办法把他们结合到一起。今后几年要用更多的模式识别的办法,来解决面临的图形学或虚拟现实和计算机视觉当中的很多问题。

生活中的计算机视觉

香港中文大学信息工程系终身教授

微软亚洲研究院视觉计算组负责人 汤晓欧

精彩问答

微软亚洲研究院视觉计算组在原创思想这一块,引领下一个方向有没有什么考虑,您谈到很多对人们日常生活影响很大的应用,但是在背后的更深层的考虑,更新的创意在哪里呢?

我们的研究者都很年轻,我本人也才工作七年的时间,很多的算法已经发展这么多年了,所以在开始的时候比较容易想出来的方法,现在已经很难有那么多的原创内容。我们的工作是去找一些非常原创的内容,有的是理论上的,有的是新的发明,这可以有很大的影响。

图像通过闪光灯的分割,前景和背景深度差会不会影响分割效果,距离会不会影响分割效果呢?

我们这个通过闪光灯对图像进行分割的技术,会一定程度上受到光的强度和距离的影响。

我们主要的研究领域包括计算机视觉、模式识别、图像处理和视频处理。下面就为大家介绍几个比较典型的应用。

如何将图片的前景和后景分离?我们现在照两张图片,一张打闪光灯,一张没有打闪光灯,这样拍出来的照片背景没有变化,但前景变化很厉害。在开闪光灯的情况下拍的照片,前景和后景可以利用一些技术很容易地分开来。

把一个图片的前景切割出来放入另一张图后,那剩下的图片缺一块的怎么办呢?如何修复剩下的图片呢?在例举的图片上,大家可以看到不同的区域,我们可以由一个算法,从其他的地方借过来,再贴上去,经过这样的处理后,图像基本上和原来没有太大的区别。

如此的修修补补又有什么用呢?比如说,你对这张图像不是很满意,你可以把图片上不喜欢的部分划出来,然后利用一些技术将划出来的空白部分填上。更有用的地方在于,你照了不想被别人看到的照片后,除了删除,你多了一个选择。你可以把不想让别人看到的照片部分去掉,并利用一些算法把空白的地方填补上,而且让别人看不出来。

现在大家的电脑上都会有很多照片,怎么快速地浏览这些照片呢?我们可以把这些图像都放在一个屏幕上,可屏幕毕竟有限,怎么才能把照片放得更多一些呢?我们现在做的是可以随机把照片放到桌面上,但是电脑会对每张照片上的重要信息进行筛选,在放尽可能多的照片的同时,让每张照片上最重要的信息不被遮掩,而且均匀地分布在桌面上。这样大家看起来就更清楚了。这个算法就是怎么让所有图像均匀分布,同时把所有背景都要盖上。我们可以对图像进行各种处理,同时我们也可以利用一些技术知道别人有没有处理图像,对图像有没有做过手脚。

现在我们来说说视频方面。比如说抖动很厉害的图像,怎么把物体移到中间?一个办法是把除移动图像外的公共部分切出来,但是移动越大,公共部分就会越来越小,更好的办法是用一些技术把空处填上。

现在MSN的功能已经越来越丰富。比如说一段电影,你看到一件比较中意的衣服,只要你把鼠标移动衣服的覆盖范围,你就能很清楚地知道这件衣服的品牌及价格。如果你把鼠标在那件衣服上轻点,电脑就会直接跳转到这个衣服的相关网站。

你在视频聊天的时候如果不想让对方看到你所处的环境,你就可以很轻松地把背景模糊掉。如果大家对自己的长相不是那么有信心,我们可以帮你改变一下你的长相。为自己添一幅酷酷的墨镜,换上一个性感的大嘴巴,这些都能轻而易举地完成。

多媒体传感器网络

北京邮电大学教授、博士生导师

智能通信软件与多媒体北京市重点实验室主任 马华东

传感器研究是IT非常热门的话题, 首先我为大家介绍一下多媒体传感器网络的基本概念。从早期的巨型机到今天的小型机,生物芯片尺寸越来越小,但是效率越来越高;网络设备联网和数据交换的需求越来越大,设备之间的传输量也越来越大;从信息处理的角度来看,内容逐渐占据了主导地位,由数据为中心转到以内容处理为中心。这三方面的演化是今天讨论多媒体传感器的背景。

传感器网络是一组传感器节点,由组织方式协作地感知采集和处理感知对象的信息,它的基本特点是造价低、能量敏感、通信能力有限、计算能力弱、动态变化。现在的需求是要求通信能力越来越强,计算能力应付节点的处理的要求。

右图是目前主流的传感器节点的配置,从配置来讲还是比较低的,现在信息处理侧重压力、温度、光、震动等简单的数据或者是标量数据。人类获取信息80%是视觉信息,10%左右是听觉信息,也就是说90%左右的信息是多媒体信息。传感器网络就是对音频、视频信息获取后提供给使用者,使其对环境信息有一个全方位的了解,对传感器网络的应用是非常广泛的。

从网络的结构来讲,基本结构和原来传感器网络差别不是很大,这里面强调增加音频、视频获取处理,网络传输整个过程的各个环节,同时这里面最好可以交互。有了这个概念以后,深入分析一下主要特点,首先是网络能力的增强,这样一个传感器网络应该集信息的采集、处理传输、转发、能量供应等方面,除了传统的标量数据,音频、视频的图像数据,都可以进行采集处理。

现在多媒体传感器网络目前有哪些问题呢?从需求来看,现在网络是异构的信息,媒体信息的格式,种类很多,并且差异非常大,数据量比较大,特别是音频、视频信息,格式比较复杂。这些信息传输过程中需要高速实时地传输,对网络传输速率也提出了比较高的要求。媒体信息的安全问题,也是网络需要考虑的,还有服务质量的问题。针对这些需求,我们可以看到,通信资源和计算资源这两者之间存在非常大的矛盾,或者非常大的鸿沟,如何解决这两者之间的差距就是我们研究的问题所在。

最后谈一下多媒体传感器网络研究的挑战,首先是节点的芯片设计,这是基础,这里面需要采用多种技术,包括软硬件协同设计的技术,各种技术结合,降低成本、能耗、体积、提高运算速度和可靠性。第二是三维场景的覆盖问题,方向性传感模型是一个简单的二维图形,实际上是三维图形监测,这是一个三维场景方向的问题,研究这个就复杂多了。还有一个问题是服务质量保证问题,在新的网络当中服务质量体系是什么样,也是研究的方向。再一个是信息处理,为了使网络传输数据量比较快,能不能在节点做信息处理的计算。当然信息的安全也比较重要,用这些节点获取多媒体信息怎么保证安全的质量,使应该看到的人看到这些信息,不应该看到的人看不到这些信息。

在多媒体传感器网络中,我们还是做了一些工作,和一些同行学者也有一些交流,这里面也有一些质疑,说多媒体传感网络和原来传感器网络设计初衷是不是吻合的,原来没有想让它处理这么多信息,原来体积比较小,加上这些信息以后,无疑使它的体积增大,这里面和初衷之间是不是有矛盾,传感器网络研究有没有必要性,如果有必要性可行不可行,这都是我们目前研究的问题。

篇(5)

1视觉跟踪算法

1.1KCF算法

KCF(KernelCorrelationFilter)核相关滤波算法通过目标样本去训练判别分类器,训练判别分类器分析当前跟踪的目标是被跟踪目标周围的背景信息还是被跟踪目标,如图1所示。KCF通过岭回归分类器的学习来完成对目标的跟踪,通过快速傅里叶变化实现算法的加速运算。KCF跟踪算法在训练阶段,利用循环矩阵理论,对视频目标区域进行稠密采样,获取正负样本,提取方向梯度直方图(HOG)特征,通过岭回归分类器分析所以样本进行训练。在检测阶段,以视频前一帧目标位置为中心进行稠密采样,将得到的所有样本输入到岭回归分类器,经过岭回归分类器的分类,得到目标的位置。

1.2TLD算法

TLD(Tracking-Learning-Detection)目标跟踪算法由跟踪模块(Tracking)、检测模块(Detection)、学习模块(Learning)三部分组成,如图2所示。该算法首先由跟踪模块的作用是将被跟踪目标的运动轨道处理成轨道碎片提供给学习模块进行学习,学习模块根据跟踪模块的处理结果进行学习并对检测模块的错误进行分析,通过学习处理后生成训练样本,检测模块在接收到训练样本后对相关参数和目标模型进行跟新并对跟踪模块重新初始化,其中跟踪模块为中值流跟踪器,学习模块为P-N目标模型学习。

1.3视觉跟踪算法改进

KCF跟踪算法的运行速度方面和在目标环境变化不大的情况下跟踪速度表现优异,但其在被跟踪目标出现遮挡、形变、跟丢后无法找回目标,反观TLD解决了被跟踪目标被遮挡、目标跟丢无法重新找回的情况,因此将两个算法互相融合,取长补短能提高算法的运算速度和追踪效果。融合方法:利用KCF克服TLD的中值流跟踪器的缺点,将KCF替换TLD的中值流跟踪器,能够加快TLD的目标跟踪速度。当被跟踪目标在当前图像帧中消失后,KCF会把盲目地在背景中寻找被跟踪目标,当被跟踪重新出现时,KCF算法依然在背景中寻找被跟踪目标,导致跟踪失败,为了避免这个错误的方法,KCF与TLD融合的算法包含了原TLD学习模块,当判断目标丢失时不再盲目地在背景内寻找目标,当目标重新出现时重新跟踪目标,进一步提高算法的跟踪性能。虽然这两个算法的融合方法很简单,但融合后的算法确实解决了KCF不能跟踪被遮挡的物体以及目标跟踪后不能找回的缺点,而且算法速度上高于原TLD算法,提高了算法的性能和适用性。

2机器人控制系统设计

机器人系统总体框架如图4所示,USB摄像头拍摄到的图像信以视频帧的形式传入到程序中。首先先进行KCF的滤波和特征跟踪,再经由TLD算法的处理运算出目标状态,再通过整合模块把得到被跟踪目标的位置信息转换为云台舵机转动命令发送,通过CH340模块将指令由USB转为TTL电平,机器人下位机通过STM32单片机直接或间接地控制各个模块实现机器人的各个功能。STM32单片机在接收到PS2手柄模块和CH340模块的控制信号后,根据程序存储器对应的指令执行行动,如前进、水弹枪射击等。STM32单片机实时接收各模块的信息,例如编码电机的电机转速,陀螺仪的欧拉角等,根据各模块的信息及时调整机器人的运动状态实现机器人运动底盘的灵活移动。摄像头所拍摄的图像信息并不会直接交给STM32单片机除了,而是先经由上位机NUC通过视觉追踪算法运算过后所得的控制指令发送给单片机接收,单片机接收到通过CH340转换的控制指令后控制舵机云台转动追踪目标。

3机器人目标跟踪算法软件设计

目标跟踪算法软件实现流程图如图5所示。由于该目标跟踪算法的运算结果只返回一个跟踪框,并没有实际的跟踪结果,所以需要获取被跟踪目标所在图像中的坐标,获取包围被跟踪目标的矩形重心后,才能方便实现目标跟踪算法。计算出被跟踪目标的矩形包围框的重心后,先对图像帧区域进行划分,使用渐近式接近目标区域为核心思想,将每一帧的图像划分为许多相同的矩形区域。随后根据KCF+TLD目标跟踪算法运算得出的结果框的重心与图像正中心对比,计算出被跟踪目标与图像正中心坐标的偏移量,再通过舵机控制算法计算出舵机云台的转动量,逐帧接近目标所在位置,达到跟踪效果。

4系统视觉跟踪算法测试

篇(6)

(长安大学信息工程学院,陕西西安710064)

摘要:目前计算机视觉在智能交通领域有着广泛的应用,基于三维逆投影图的车速检测利用计算机视觉,使用线性系统模型进行摄像机标定,得到透视投影矩阵,确立三维世界坐标与二维图像序列的映射关系。通过设定检测区域并得到该区域的对应逆投影图,利用车尾阴影特征检测跟踪车辆,得到车辆目标的位移(s)、时间(t)的关系,进行速度检测,该算法具有较好的稳定性。

关键词 :智能交通;计算机视觉;透视投影矩阵;车速检测

中图分类号:TN911.73?34 文献标识码:A 文章编号:1004?373X(2015)16?0070?03

收稿日期:2015?03?09

基金项目:教育部博士点基金(20120205110001)

0 引言

车速检测在交通领域中占有重要地位,其检测方法包括虚拟线圈、雷达测速等传统方法,以及利用计算机进行视频分析处理的智能交通检测方法。而在基于视频进行车速检测的方法中,大部分通过直接分析二维图像得到车辆速度。由于摄像机的透视关系,二维图像与真实物体存在很大差距,存在尺度变换和几何形变,增加了车速检测的难度。本文设计了一种基于三维逆投影的车速检测方法,通过对二维图像序列进行标定,进行图像三维重建,得到逆投影图像序列,该图像序列中的车辆目标具有几何不变性,其位置、大小与真实车辆位置、大小一一对应。经过检测逆投影图像序列中车辆目标的车尾阴影特征后,跟踪连续帧目标,计算获取目标速度。

1 三维标定

摄像机标定是通过确定摄像机的位置、内外参数和建立成像模型,来确定世界坐标系中的物体和它在图像平面上的成像之间的对应关系。空间物体上某点的三维几何位置与它在图像中对应点的相互关系是由摄像机成像的几何模型确定的。在传统摄像机标定中采用针孔模型,摄像机坐标系与世界坐标系之间的关系可以用旋转矩阵R 与平移向量μ 来表示,因此空间中一点P 在世界坐标系和摄像机坐标系下的齐次坐标[xW ] ,yW ,zW ,1 T 和[xC ] ,yC,z C,1 T 之间存在如下关系:

式中:R 为3×3 正交单位矩阵;μ 为三维平移向量,0T = [0,0,0]。

利用针孔模型中的透视映射关系,可以将上述关系简化为式(2):

式中:(u,v) 为一点的图像坐标;(xW ) ,yW ,zW 为该点的世界坐标;mij 为投影矩阵M 的第i 行第j 列元素。

已知n 个点的图像坐标和世界坐标,可以通过式(2)得到一线性方程组:

利用至少已知的6 个点对应的世界坐标和图像坐标,通过最小二乘法可以求解线性方程式(3)的解m,得到投影矩阵M,实现了三维标定[1]。

2 车辆特征提取

车辆特征提取步骤如下:

(1)设定检测框[2]。在路面上设立一虚拟检测框,该检测框与实际路面贴合,长15 m,宽4 m,投影到图像坐标形成图1(b)所示的ABCD。

(2)恢复逆投影图。根据式(2)可知,三维中的每一个点通过透视投影矩阵M 变换后,都可以得到图像坐标中与之对应的像素点。根据M 矩阵恢复该检测框中的数据,得到大小为240×600的逆投影图,该图中的检测目标不存在几何形变和尺度变换,如图1(c)所示。

(3)车辆目标检测。检测框设立在路面上,所有点的z 坐标均为0,由此恢复得到的逆投影图中xy 平面的信息是与实际对应的真实信息。在恢复后的逆投影图中,车尾阴影部分这一明显特征可以表征车辆目标[3]。通过大量实验研究表明利用车尾阴影作为车辆特征,进行车辆目标检测可以很好地避免干扰,减小误差。

(4)车辆目标提取。在获得的逆投影图像中提取目标,本文通过检测图像中车辆目标的车尾阴影作为车辆特征,进行连续图像序列帧中的目标跟踪。图1(d)中MN为车尾阴影位置所在像素行,该像素行与三维实际坐标一一对应,通过三维坐标距离与逆投影图大小的对应关系可以得到车尾所在像素行对应的三维坐标。

3 车速计算

在已知的图像序列中,假设连续帧中的目标车辆做匀速直线运动[4?5]。通过匀速直线运动方程s = vt + s0 计算目标车辆瞬时速度,利用最小二乘法原理可以很大程度上减小随机误差。当有多组(s,t)数据时,可以组成方程组,如式(4)所示:

式中:v 为车辆瞬时速度;ti 为连续n 帧对应的时间(即n/帧频);si 为车辆所在的实际位置。

转换为矩阵形式为:

式(5)是一个(n × 2) × (2 × 1) = (n × 1) 的矩阵等式,记为AX = b 。

由式(6)可以求出X,得到车辆瞬时速度v。

4 实验结果

通过标定后,可以获得原图像序列对应的逆投影图,将逆投影图二值化后求车尾阴影位置进行目标车辆的检测与跟踪。图2为同一目标车辆的连续帧处理过程。在该序列图中检测并跟踪目标车辆。将检测到的车尾位置在原逆投影图中标注,如图3所示。车尾在逆投影图中的像素行转化为实际三维距离后可得si ,帧间时间间隔ti 为40 ms(帧频为25 Hz),可以得到如表1所示的对应关系。由式(6)可以解出车辆瞬时速度为50.55 km/h。

5 结语

在交通领域中利用计算机视觉,通过图像处理技术进行交通信息的检测。建立基于摄像机的透视投影关系,可以标定出三维世界坐标与二维图像坐标的对应关系,从而获得三维逆投影图,进行车辆目标的跟踪,计算得到车辆速度信息。通过大量实验研究表明,该方法可以准确计算得到车辆速度,具有较好的稳定性和可靠性,在当今智能交通领域具有一定的应用前景。

参考文献

[1] 马颂德,张正友.计算机视觉:计算理论与算法基础[M].北京:科学出版社,1998.

[2] HE Xiaochen,YUNG N H C. A novel algorithm for estimating vehicle speed from two consecutive images [C]// IEEE Work?shop on Applications of Computer Vision. [S.l.]:IEEE,2007:111?120.

[3] 宋俊芳.基于视频的车流量检测统计技术研究[D].西安:长安大学,2010.

[4] 马慧明.车速检测技术述评[J].中北大学学报:自然科学版,2007(z1):139?144.

[5] 童剑军,邹明福.基于监控视频图像的车辆测速[J].中国图象图形学报:A辑,2005,10(2):192?196.

篇(7)

关键词:运动目标识别;背景差分法;瞬时差分法;OpenCV

中图分类号:TP273

0 引 言

运动目标的识别就是对包含运动信息的视频序列运用适当的技术进行处理,把与背景存在相对运动的前景区分开的过程。它是计算机视觉信息提取中的一个重要问题,也是更高层次视频分析,如基于对象的视频编码、目标跟踪、运动分析基础。目前,运动目标识别主要有三种方法:背景差分法、瞬时差分法和光流法。背景差分法可以得到比较完整的运动目标信息,但是背景模型的获取和更新比较困难。瞬时差分法容易在目标内部产生空洞,不能得到完整的目标信息。光流法计算比较复杂,且抗噪性能差,如果没有特定的硬件支持,一般很难用于运动目标识别的实时性操作。

在此介绍一种将背景差分法和瞬时差分法相结合的运动目标识别算法,并给出基于OpenCV实现算法的过程和实验结果。

1 算法思想

背景差分法是利用当前图像与背景图像的差分来识别出运动目标的方法。背景模型的获取和更新是该方法中的关键技术。一种简单的获取背景图像的方法是当场景中无任何目标出现时捕获背景图像,这种人工的非自适应方法获取的背景图像仅适用于短时间内的视频监控。目前大多数算法已经放弃这种非自适应的背景图像估计方法。当场景环境不是很复杂时,可以使用统计滤波完成场景中背景图像的估计,大多数情况下都可以得到正确的背景估计图像,但是当场景中有个别部分做无规则运动时,会引起场景中像素值不断变化,从而引起估计误差。基于高斯统计模型的背景估计方法在有部分区域不断变化的场景中也能比较准确地估计出背景模型,但是它的计算比较复杂,加上识别过程中其他操作也可能无法满足实时性需求。

瞬时差分法是在视频序列中两个相邻帧间采用基于像素的时间差分,并且阈值化来提取出运动目标的方法。即将相邻的两帧图像做逐像素相减运算,并设定阈值,若相减的值大于阈值,则将其看作前景图像(运动目标);否则看作是背景图像。瞬时差分法对于动态环境的适应性较强,不需要获取背景图像。当相邻两帧图像的纹理、灰度等信息比较接近时,这种方法通常不能完整地检测到目标的具体内容,在物体内部产生空洞。但是它可以较准确地得到运动物体的轮廓。

在此将使用一种背景差分法和瞬时差分法相结合的方法。首先根据一定数量的视频序列,采用基于高斯统计模型的方法获得背景图像。在后续处理中,对于每一帧的视频图像,首先用瞬时差分法识别出运动目标的轮廓,然后用这帧图像运动目标轮廓以外的区域对背景模型进行基于统计滤波的更新。这样就可以减少场景中运动目标对更新背景模型的影响,同时保证了系统运行时间的实时性,也可以得到较完整的目标识别信息。

2 算法实现

根据前文的算法思想,可以得到系统的流程图如┩1所示。

开放源代码的计算机视觉类库OpenCV(Open Source Computer Vision Library)是由英特尔公司位于俄罗斯的研究实验室所开发的一套可免费获得,并由┮恍┆C函数和C++类所组成的库,用来实现一些常用的图像处理及计算机视觉算法[7[CD*2]10]。下面给出利用OpenCV实现算法的具体过程和关键部分的代码:

(1) 捕获视频帧

定义捕捉源:

(2) 基于高斯统计估计背景模型

定义高斯背景模型:

将高斯背景模型的背景图像复制到事先定义的背景图像pBkImg 中:

(3) 使用瞬时差分法获得不包含运动区域的当前帧,并更新背景。当前帧pFrame和前一帧pFrame0做差分,结果放在差分图像diff中,并二值化:

接下来要做的操作是,找到差分图像中的轮廓,得到他们的外接矩形。将面积小的矩形视为噪音抛弃,剩下的则视为运动目标。同时设置当前帧pFrame和背景pBkImg的ROI为运动目标的外接矩形。先将当前帧的ROI置0,再对当前帧与背景的ROI进行逻辑(or)运算。这样,对于运动目标所在区域,当前帧和背景的图像信息是一样的,也就达到了消除运动目标对背景更新的影响目的。

这段代码如下所示:

用上述过程得到不包含运动目标信息的当前帧更新背景模型:

(4) 进行背景差分,得到当前帧运动目标识别结果的二值图像pFrImg:

3 实验结果

根据上述算法思想和实现过程,使用VC++6.0和OpenCV 1.0实现运动目标的识别。经过计算,该算法处理每一帧图像的时间大约是16 ms,可以满足实时性系统的要求。使用该算法对一段交通监控图像进行运动目标的识别,结果如图2所示。其中,图2(a)是当前帧图像,图2(b)是不包含运动信息的当前帧图像,用矩形框标注出了由帧间差分检测到运动目标的位置,┩2(c)是当前的背景模型,图2(d)是背景差分的结果。オ

4 结 语

由上述实验结果可以看出,本文介绍的算法可以较准确地得到背景图像,并且实现运动目标的识别。

系统尚需改进的地方有对运动目标边缘的检测不够清楚;如果可以加入阴影的检测和去除,应该会取得[LL]更好的识别效果。这些将是进一步研究的工作。

参 考 文 献

[1]刘雪.基于图像序列的运动目标检测与跟踪算法研究[D].山东:山东大学,2007.

[2]许志良,周智恒,曹英烈,等.关于运动目标检测的发展现状研究[J].移动通信,2008(6):35[CD*2]38.

[3]丁忠校.视频监控图像的运动目标检测方法综述[J].电视技术,2008,32(5):72[CD*2]76.

[4]尹彦,耿兆丰.基于背景模型的运动目标检测与跟踪[J].微计算机信息,2008,24(11):298[CD*2]300.

[5]赵占杰,林小竹,张金燕.基于背景重建的运动目标检测算法[J].北京石油化工学院学报,2008,16(2):27[CD*2]30.

[6]肖丽军,于哲舟,周栩,等.基于对称差分算法的视频运动目标分割[J].吉林大学学报:理学版,2008,46(4):691[CD*2]696.

[7]贾小军,喻擎苍.基于开源计算机视觉处理库OpenCV的图像处理[J].计算机应用与软件,2008,25(4):276[CD*2]278.

[8]马桂珍,朱玲赞,段丽.基于OpenCV的视频应用程序的开发方法[J].现代电子技术,2007,30(4):78[CD*2]80.

[9]李振伟,陈,赵有.基于OpenCV的运动目标跟踪及其实现[J].现代电子技术,2008,31(20):128[CD*2]131.

[10]刘瑞祯,于仕琪.OpenCV教程基础篇[M].北京:北京航空航天大学出版社,2007.