基于DM642的人脸识别系统毕业设计论文.doc

上传人:豆**** 文档编号:29950990 上传时间:2022-08-02 格式:DOC 页数:47 大小:955.50KB
返回 下载 相关 举报
基于DM642的人脸识别系统毕业设计论文.doc_第1页
第1页 / 共47页
基于DM642的人脸识别系统毕业设计论文.doc_第2页
第2页 / 共47页
点击查看更多>>
资源描述

《基于DM642的人脸识别系统毕业设计论文.doc》由会员分享,可在线阅读,更多相关《基于DM642的人脸识别系统毕业设计论文.doc(47页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、毕业设计设计题目 基于DM642的人脸识别系统 学生姓名 * 学 号 * 专业班级 计算机科学与技术*班 指导教师 * 学 院 计算机与信息学院 2012 年 6 月 12日基于DM642的人脸识别系统摘 要 随着计算机处理速度的飞速提高和图像处理算法的革命性改进,作为生物特征识别技术的一个重要的研究方向-人脸识别技术在各种生物特征识别技术中脱颖而出,以其独特的主动性,非侵犯性和用户友好等众多优势受到世人瞩目。本毕业设计是基于TI公司生产的DM642开放板设计的,在DM642这个硬件平台上实现了一个经典的基于PCA算法的简单的人脸识别系统,实现了简单的人脸识别。主要编程实现了以下几个功能:视频

2、采集功能,人脸的检测和跟踪,图像去噪声,PCA算法的实现,以及人脸的识别分类。本系统的设计思想:整个视频处理的过程是围绕一个视频采集框和一个人脸跟踪框设计的。只有当人脸跟踪框位于视频采集框内部的时候,才采集一帧图像到内存中。人脸识别过程主要分为两个阶段:训练阶段和识别阶段。 训练阶段,系统会采集大量的人脸图像进行训练,得到特征脸空间。然后将“人脸”投影到特征脸空间中。识别阶段,系统会将采集到的待识别的人脸,也投影到特征空间中,得到该“人脸”在特征脸空间中的坐标值。然后对比各个坐标值的欧式距离,来达到识别的目的。关键字:DM642,人脸识别, PCA,视频采集框,人脸跟踪框A face reco

3、gnition system based on DM642ABSTRACTThe prodigious development of computer speed and the revolutionary improvement of digital image processing is very developed. So the face recognition technology distinguish itself from other biometrical identification technologies for its active ,non-aggressive a

4、nd user-friendly characteristics .This Graduation Design finishes a simple face recognition system based on PCA using the DM642 development board of TI .Mainly program to achieve the following functions: Video Capture ,Face Detection and Tracking , Image Denoising , the realization of PCA algorithm

5、and Face Recognition.Now let me introduce the systems design ideas: The video processing is based on a video capture box and a face tracking box. Only when the video capture box is inside the face tracking box , system collects a piece of image into memory . The face recognition system include two s

6、ections : the training stage and the recognition stage .In the training stage , system will collection a lot of images into memory , and train this pictures to form a feature space . Then make the faces projected onto the feature space .In the recognition stage , system will make the images which ar

7、e going to be recognized projected onto the feature space .Get the faces coordinate values in the feature space . Then we can recognize the face based on the Euclidean distance .Keywords: DM642 , Face Recognition Technology , PCA, Video Capture Box, Face Tracking Box目 录摘 要IABSTRACTII目 录III图表清单IV第一章

8、引言11.1人脸识别的目的和意义11.2 国内外发展现状21.2.1 国外的发展概况21.2.2 国内的发展概况21.3论文结构安排3第二章 系统的需求分析与方案选择42.1 应用程序的功能需求分析42.2 开发环境需求分析4第三章 图像基础知识63.1数字图像63.2色彩空间63.3视频图像63.4模拟视频73.5数字视频9第四章 系统的概要设计114.1系统流程图124.2模块功能介绍15第五章 系统的详细设计165.1视频显示165.2人脸检测165.3视频采集框175.4中值滤波处理175. 5 雅克比方法185.5.1旋转变换195.5.2雅可比方法205.6 PCA算法235.6.

9、1 PCA算法简介235.6.2训练阶段235.6.3识别阶段25第六章 心得体会27致 谢28参 考 文 献29附录:关键源程序代码30图表清单图2-1 ccs界面 5图2-2 设备截图 5图4-1 系统设计 9图4-2 系统流程图 10图 4-3 训练阶段流程图 11图4-4 识别阶段的流程 12图5-1 肤色的色差分布 14图5-2 中值滤波 16图5-3 识别结果 119图5-4 识别结果 2 19IV第一章 引言随着社会的不断进步以及各方面对于快速有效的自动身份验证的迫切要求,生物特征识别技术在近几十年中飞速发展。作为人的一种内在属性,并且具有很强的自身稳定性及个体差异性,生物特征成

10、为了自动身份验证的最理想依据。当前的生物特征识别技术主要包括有:指纹识别,视网膜识别,虹膜识别,步态识别,静脉识别,人脸识别等。与其他识别方法相比,人脸识别由于具有直接,友好,方便的特点,使用者易于为用户所接受,从而得到了广泛的研究与应用。除此之外,我们还能够对人脸识别的结果作进一步的分析,得到有关人的性别,表情,年龄等诸多额外的丰富信息,扩展了人脸识别的应用前景。虽然人类可以毫不困难地根据人脸来辨别一个人 ,但利用计算机进行完全自动的人脸识别仍存在许多困难,这主要表现在:人脸存在表情变化,人脸随岁月增长而变化,发型 、眼镜等装饰对人脸造成遮挡,人脸所成图像受光照 、成像角度 、成像距离等影响

11、 ,此外人脸识别技术研究与相关学科的发展及人脑的认识程度紧密相关,当这些因素叠加到一起的时候,情况就变得更加复杂,也使人脸识别研究成为一项极富挑战性的课题。1.1人脸识别的目的和意义传统的人身辨别方法主要是通过人身标识物品和人身标识知识两种方式来实现的。常见的人身标示物品有钥匙、证件等各种标识,人身标示知识有用户名、密码等。众周知,像钥匙、证件标识等人身标识物品很容易丢失或被伪造,而标识知识容易遗忘或记错,更为严重的是传统身份识别系统往往无法区分标识物品真正的拥有者和取得标识物品的冒充者,一旦他人获得标识物品,也可以拥有相同的权力。即便是将两种方式结合起来使用,此类问题仍然会出现,比如自动取款

12、机虽然用到银行卡和用户密码,但还是有卡里的钱被盗的现象,所以传统的人身辨别方法已不能满足社会的需要。而生物特征识别技术为人身辨别提供了一个很重要的保障。它包括身体特征和行为特征两个部分。其中身体特征包括面部特征、指纹、手形、基因,身体气味等,而人脸就是主要的面部特征,与用其他身体特征鉴别身份相比,人脸不容易被遗忘、丢失和盗取,而且人脸图像采集具有非接触性、非侵犯性、非强制性特点,容易被人们所接受。人脸识别系统具有广泛的应用,可以归纳为以下四个方面:安全领域:公安刑侦破案,门禁系统,摄像监视系统是其典型应用。经济领域:辅助信用卡网络支付,以防止非信用卡的拥有者使用信用卡。证件验证:由机器完成验证

13、识别工作,从而实现自动化智能化管理。娱乐领域:能够识别主人身份的智能玩具、机器人,虚拟游戏玩家等。1.2 国内外发展现状现在人脸识别技术已经应用在许多领域中,并起到了举足轻重的作用,人脸识别研究开始于1966年PRI的Bledsoe的工作,经过三十多年的发展,人脸识别技术取得了长足的进步, 现在就目前国内外的发展情况来进行展述。1.2.1 国外的发展概况见诸文献的机器自动人脸识别研究开始于1966年PRI的Bledsoe的工作,1990年日本研制的人像识别机,可在1秒钟内中从3500人中识别到你要找的人。1993年,美国国防部高级研究项目署 (Advanced Research Project

14、s Agency)和美国陆军研究实验室(Army Research Laboratory)成立了Feret(Face Recognition Technology) 项目组,建立了feret 人脸数据库,用于评价人脸识别算法的性能10。美国陆军实验室也是利用vc+开发,通过软件实现的,并且FAR为49%。在美国的进行的公开测试中,FAR,为53%。美国国防部高级研究项目署,利用半自动和全自动算法。这种算法需要人工或自动指出图像中人的两眼的中心坐标,然后进行识别。在机场开展的测试中,系统发出的错误警报太多,国外的一些高校(卡内基梅隆大学(Carnegie Mellon University)为首

15、,麻省理工大学(Massachusetts Institute of Technology )等,英国的雷丁大学(University of Reading)和公司(Visionics 公司Facelt 人脸识别系统、Viiage 的FaceFINDER 身份验证系统、Lau Tech 公司Hunter系统、德国的BioID 系统等)的工程研究工作也主要放在公安、刑事方面,在考试验证系统的实现方面深入研究并不多。1.2.2 国内的发展概况人脸识别系统现在在大多数领域中起到举足轻重的作用,尤其是用在机关单位的安全和考勤、网络安全、银行、海关边检、物业管理、军队安全、智能身份证、智能门禁、司机驾照

16、验证、计算机登录系统。我国在这方面也取得了较好的成就,国家863项目“面像检测与识别核心技术”通过成果鉴定并初步应用,就标志着我国在人脸识别这一当今热点科研领域掌握了一定的核心技术。北京科瑞奇技术开发股份有限公司在2002年开发了一种人脸鉴别系统,对人脸图像进行处理,消除了照相机的影响,再对图像进行特征提取和识别。这对于人脸鉴别特别有价值,因为人脸鉴别通常使用正面照,要鉴别的人脸图像是不同时期拍摄的,使用的照相机不一样。系统可以接受时间间隔较长的照片,并能达到较高的识别率,在计算机中库藏2300人的正面照片,每人一张照片,使用相距1-7年、差别比较大的照片去查询,首选率可以达到50%,前20张

17、输出照片中包含有与输入照片为同一人的照片的概率可达70% 。2005年1月18日,由清华大学电子系人脸识别课题组负责人苏光大教授主持承担的国家十五攻关项目人脸识别系统通过了由公安部主持的专家鉴定。鉴定委员会认为,该项技术处于国内领先水平和国际先进水平9。 1.3论文结构安排本论文主要对该人脸识别系统进行模块划分,并介绍各模块的功能,重点介绍图像处理模块,对其内的子模块的功能和算法进行详细讲述。第一章介绍人脸识别的背景和意义以及国内外现状。第二章介绍应用程序的功能需求分析,以及开发环境介绍。第三章介绍基于DM642的图像处理的基础知识,包括数字图像,色彩空间等知识的介绍第四章介绍系统的概要设计,

18、从整体上分析各个模块的功能以及系统的整体的流程。第五章介绍系统的详细设计,着重介绍系统的视频处理模块,包括模块功能和具体的算法实现。第六章介绍自己在毕业设计的过程中的一些心得体会。然后是感谢和参考文献以及附录。第二章 系统的需求分析与方案选择2.1 应用程序的功能需求分析 这个应用程序需要在运行在TI公司生产的TMS320DM642 DSP开发板上,这是和传统的基于vc+和matlab的人脸识别应用程序是不同的,这个应用程序没有调用任何有关图形处理的矩阵运算函数,需要完全从底层内存进行编程实现,包括人脸图像检测,预处理,特征提取,等算法的编写。在本设计中没有运用调用其他现成的矩阵处理函数,所有

19、的矩阵处理函数都是由我自己编写的。本设计要完成的各个功能模块如下:(1)视频采集功能 完成视屏的实时监控,当有人脸出现时,会自动检测。并把人脸区域传送到指定的内存空间存储,等待识别。(2)人脸检测功能 对区域中的人脸进行检测,利用的原理是:基于肤色的人脸识别。(3)图像去噪声对采集的一帧图像进行去噪处理,这里用的是中值滤波处理。(4) PCA算法的实现这里通过对采集的图像进行一些列的矩阵运算,提取出图像的主要特征,并构建出特征脸空间,以便于后期的识别功能的实现。(5)识别功能将视频框中的人脸经过一定的矩阵运算后,得到差值脸,并将差值脸投影到特征空间,并利用欧氏距离,进行分类,识别。2.2 开发

20、环境需求分析本设计主要是基于DSP的人脸识别设计,用的开发环境主要是TI公司生产的DM642开发板(如图2)。电脑通过JTAG借口与之连接,并通过专用的软件Code Composer Stdio 3.3(如图1)进行仿真,编程,调试。Code Composer Studio 包含一整套用于开发和调试嵌入式应用的工具。它包含适用于每个 TI 器件系列的编译器、源码编辑器、项目构建环境、调试器、描述器、仿真器以及多种其它功能。CCS IDE 提供了单个用户界面,可帮助您完成应用开发流程的每个步骤。借助于精密的高效工具,用户能够利用熟悉的工具和界面快速上手并将功能添加至他们的应用。 版本 4 之前的

21、 CCS 均基于 Eclipse 开放源码软件框架。Eclipse 软件框架可用于多种不同的应用,但是它最初被开发为开放框架以用于创建开发工具。我们之所以选择让 CCS 基于 Eclipse ,是因为它为构建软件开发环境提供了出色的软件框架,并且正成为众多嵌入式软件供应商采用的标准框架。CCS 将 Eclipse 软件框架的优点和德州仪器 (TI) 先进的嵌入式调试功能相结合,为嵌入式开发人员提供了一个引人注目、功能丰富的开发环境。图2-1 ccs界面 图2-2 设备截图 第三章 图像基础知识由于本课程设计是基于DM642开发板的,DSP的视频采集和存储方式是和常用的电脑中的图像不同的,并且在

22、实现人脸识别的过程中运用到了大量的数字图像处理算法,因此在这里非常有必要对一些图像的基础知识进行一些简单的介绍。DSP的摄像头采集的是PAL格式的视频,视频的每一帧大小是576(行)*720(列)。在内存中存储的方式是:前288行表示的是奇数行,后288行表示偶数行。每一个像素点由三个信号组成,亮度(Y),红色色差(Cr),蓝色色差(Cb)。 下面对几个重要的概念进行介绍,重点介绍YUV格式数字视频的图像构成。3.1数字图像经过数字化转换并可以用数字表示、处理的图像。由象素点组成,其中横向的点数称为水平分辨率,纵向的为垂直分辨率,一幅完整的图分为若干行,称为一帧图像。每个象素根据量化精度不同其

23、取值也不同,例如取三个色彩分量均为 8 位二进制数的RGB 表示方法,用连续的三个 8 位二进制数表示一个彩色点,(200,100,64)描述的点的红色分量为 200,绿色分量 100,蓝色分量 64,其中每个分量的取值均为 0255 表示从最暗到最亮 256 个等级。许多静态的图像可以经连续播放产生动态效果,25 帧/秒或 30 帧/秒的帧速可产生较平滑的动态显示效果。3.2色彩空间 常用的色彩空间有RGB和YCbCr色彩空间,下面逐一介绍这两个色彩空间。RGB 色彩空间:图像采集和显示设备采用,例如 CCD、CMOS 摄像头,CRT 监视器等。因其色彩分量之间有较大的相关性,不适于做图像处

24、理。 YCbCr 色彩空间:Y 表示亮度,Cb 和 Cr 表示色差。各色彩分量之间相关性小,适于进行处理操作。色差信号常做 2:1 抽样处理以节省带宽。3.3视频图像 视频简单地说就是活动图像。电影也是活动图像,电影把大量静止图像记录在胶片上,一张一张地连续显示出来,就成了我们看到的电影。对于电视视频,每秒钟包含几十帧静止图像,每一帧静止图像由几百个行组成,每一行又由几百个像素点组成。1 秒钟包含的图像帧数为帧频,1 秒钟包含的总行数为行频,1 秒钟包含的总像素数实际上就是相当于视频带宽。3.4模拟视频遥想起来,在当年有限的条件下,用电子管做出电视机的前辈们实在是令人佩服的,但是,用现在的眼光

25、来看,当年的电视技术又实在是很简陋的。我国的黑白视频信号帧频为 25 Hz,就是说每秒显示 25 幅图像,之所以规定为 25 Hz,而不是其它的某个值,主要是因为两个原因。一个与人的视觉生理特点有关,当图像的刷新速度达到 5 帧/秒的时候,人开始感觉图像是活动的,而达到 24 帧/秒的时候,人感觉图像是完全连续和流畅的(电影所使用的帧频就是 24 Hz),所以视频信号帧频应大于等于 24 Hz。理论上来说帧频越高越好,但是帧频越高,对电路的要求也越高,技术越复杂,成本也越高(现在有的电脑彩显帧频已达到 200Hz),在当时的条件下,只能选择一个大于 24 的尽量小的值。另一个原因是因为我国的电

26、网频率是 50Hz,当采用 25 Hz 帧频时,隔行扫描时的场频为 50Hz,正好与电网同频,这样,电源对图像的干扰是固定的,人眼不容易感觉出来,或者换个角度说:电源就可以不必做得那么精密(那个时候开关电源还很少使用,整流电源缺乏稳压措施,纹波很大)。所以选择了 25 Hz 帧频。说到这里,又要说说“场频”。电视在显示图像的时候,把一帧分成了两场来显示,一个场由帧中的奇数行组成,叫做奇场,另一个场由帧中的偶数行组成,叫做偶场。之所以要这样做,主要是因为在 CRT 显象管上一秒钟显示 25 帧图像时,人眼感觉到连续性还是不太好,而且还有明显的闪烁,一帧分成两场后,场频为50 Hz,图像更加连续一

27、些。当然还有一些别的原因,与电路设计方面有关。在视频信号传输中采用的是 YUV合成的方法。 Y 代表亮度信息, U(Cb)代表蓝色色差(就是蓝色信号与亮度信号之间的差值),V(Cr)代表红色色差。彩色视频信号:当科学家们开始研究彩色电视的时候,黑白电视已经大量使用了,所以最好彩色电视信号能够与黑白电视信号保持兼容,以便彩色电视信号在黑白电视机上能播放出黑白的图像。这个问题是很困难的,因为色度信号也要占用较大的带宽,而在电视射频频带上,一个频道挨着一个频道,亮度信号(实际上还有调频的伴音信号)已经把频带给塞满了,幸运的是,后来终于运用压缩亮度信号带宽、大面积着色等技术解决了这个问题。从频域的角度

28、来看,色度信号(UV 色差信号)是插在亮度信号的频谱的间隙之中的,具体的位置是插在 4.43MHz 的地方,带宽 1.3MHz。在接收机中,简单地说,把收到的信号中的4.43MHz 处的带宽 1.3MHz 的信号取出来就成了色度信号,而把收到的信号中的 4.43MHz 处的这个信号滤掉剩下的就是亮度信号。很多硬件工程师可能不容易理解这是什么意思,不过没关系。下面我们从时域的角度来看看它们的一行的波形,如图所示,黑白视频的亮度信号采用了调幅制,一行的周期是 64s,其中显示在屏幕上的信号占 52s,其余部分为行消14 隐、行同步头。对于彩色信号,还在行同步头上叠加了一小段4.43MHz 的副载波

29、信号,用接收机中的 4.43MHz 信号的频率和相位基准。 上面说的是彩色视频信号怎么加到原来的黑白视频信号中。那么彩色图像是怎么还原和显示出来的呢?我们知道,黑白图像的像素只能用亮度(灰度)来描述。而彩色图像的像素的描述要复杂一些,有很多不同的方法,比如在印刷行业中用的是 CMYK(青、品红、黄、黑)四色合成的方法,而在计算机或电视机的 CRT 显象管中都是用的 RGB(红、绿、蓝)三基色合成的方法,我也不明白为什么要选这三种颜色,而没选别的颜色,我猜想可能是因为人眼包含 RGB 三种色感细胞,所以用这三种基色能合成比较多的人眼能识别的彩色出来,或者因为这三种基色的荧光粉比较容易制造。通过

30、RGB 三基色来合成某种彩色,或者某种彩色怎样分解为三基色,这个是大家都熟悉的。用 RGB 三基色来表示彩色的确很直观,但是如果把这种方法用作图像传输则绝不是一个好的方法。 (1) 与黑白图像不兼容,把 RGB 三基色转换为灰度的方法是:灰度=R*0.3+G*0.59+B*0.11,这个转换过程显然是比较复杂的。对于电视机而言,就意味着必须解码出 RGB 信号才有可能得到黑白图像,而黑白电视机没有解码功能,所以不能实现兼容。 (2) 占用太多带宽,用 RGB 三基色表示图像,每个分量的带宽是均等的,都约等于亮度信号的带宽,所以对于每个分量,都要用较大的带宽来描述。 (3) 抗干扰能力差。由于

31、G 分量占有亮度值的 59%,所以当 G 受到干扰的时候,像素的亮度值会受到很大的影响,而人眼对亮度值的变化是十分敏感的,所以图像主观质量会明显下降。 基于这些原因,在视频信号传输中采用的是 YUV合成的方法。 (1) 与黑白图像兼容。假定一个像素是用 YUV 表示的,我们只要忽略 UV 分量,取出Y 分量,就可以得到像素的亮度值,从而把彩色图像转换为黑白图像。这样很容易实现彩色电视信号与黑白电视信号的兼容。 (2) 节省带宽。说这个问题的时候要先说说大面积着色原理。实验发现,人眼对亮度信息是敏感的,主要通过亮度差别来分辨物体形状的细节,而对彩色信息是不敏感的,人眼区分不出物体颜色上的细小的变

32、化,或者说人眼不容易觉察出来图像的色彩的细节部分的变化。因此,可以对亮度信号用较高的采样频率采样,而对色度信号用较低的采样频率采样(或者用较低的量化深度),比如几个相邻的像素的亮度值不同,但是却可以使用一个相同的色度值。这就是大面积着色原理。基于这个原理,在电视信号传输中,U 或 V 信号的带宽远小于 V 信号的带宽,这样就节约了带宽。换个方式来说,比如在计算机中,用 RGB 方式描述一个像素需要 R、G、B 共 3 个字节。而用 YUV 方式描述,则对于每 2 个像素,Y 用2 个字节,U 取相同的值,用一个字节,V 取相同的值,用一个字节,平均每个像素 2 个字节。或者每个像素 Y 用一个

33、字节,U 用半个字节,V 用半个字节,共 2 个字节。 (3) 抗干扰能力强。由于亮度信号是单独表示的,所以如果色差信号受到干扰,不会影响到亮度,主观感觉噪声不会明显增加。 在电视机中,彩色视频信号首先分解为亮度信号Y 和色度信号,色度信号再分解为U色差信号和V 色差信号,最后由YUV 三个分量经过矩阵运算变换为RGB 信号,以便在显像管上显示。 视频信号的缺点: (1) 帧频低。视频信号的帧频只有25Hz,必然导致图像闪烁。 (2) 分辨率低。在一帧中有效的行只有576 行。由于采用了隔行扫描,一帧图像要由连续的两场来拼合而成,而实际上很难保证两场中的行准确地错开(对准间隙),这进一步导 1

34、5致垂直方向的分辨能力损失。 (3) 亮色串扰。亮度信号和色度信号混合在一起,解码的时候不能很好地分开,导致亮度信号和色度信号互相干扰。 (4) 缺乏改进余地。除非重新制定新的标准,否则前面提到的三个问题在现有基础上都很难改进。视频信号格式有这么多缺点,是因为受当年制定这个标准时的技术条件制约造成的,而近年来通过在电视中加入一些数字处理的手段,比如倍频扫描(100 Hz 场频)、使用数字梳状滤波器等方法,电视的图像质量也得到一些提高。而现在正在研究的数字电视,是重新制定的全新的标准,用以获得胶片质量的图像,可能会彻底淘汰现在的视频标准和电视设备3.5数字视频视频信号起初是以模拟信号的形式保存在

35、录像磁带上的,而现在随着数字技术的发展,可以变成数字信号保存在光盘或计算机硬盘中,当然这些离不开功能强大的计算机,实际上,在嵌入式领域,数字视频也是可以应用的,比如用单片机或DSP 来处理数字视频数据。 模拟视频信号解码并量化成连续的数字视频流后所包含的一些信号元素:模拟视频信号每秒25 帧,每帧周期40ms,而每帧又分为2 场,每场20ms,先输出的是奇场,然后是偶场,奇场的行号为第1 至312.5 行,偶场的行号为第312.5 至625 行,其中,奇场的第23.5至310 行包含有效的视频信号,偶场的第336 至622.5 行包含有效的视频信号。把模拟视频信号解码为YUV 分量后,分别进行

36、A/D 量化采样,转换为数字视频流,时间上也应该是按上面的顺序依次输出。有几个相关的国际标准对此作了一些约定。比如1994 年国际无线电咨询委员会出台了CCIR601 标准,这个标准主要是针对演播室的要求制定的,其中规定亮度信号的采样频率是13.5 MHz,色度信号的采样频率是6.75 MHz,采用8 位PCM 编码。这样,每行的Y 采样数为864 个,其中有效的Y 采样数为720 个。而每行的U 或V 采样数为432 个,有效的U 或V 采样数为360 个。平均描述每个像素的YUV 的位数分别为8bit、4bit、4bit,又叫做YUV422 编码方案(当然还有很多别的方案,如YUV411

37、等)。国际无线电咨询委员会还出台了CCIR656 建议,其中规定视频数据的量化值中的0 和255 保留不用,而量化数据串行输出的顺序是:U0、Y0、V0、Y1,U2,Y2,V2,Y3,U4,Y5,V4,Y6,如此循环。通过上面的讨论,我们可以看出,数字视频流应包含的元素有:奇偶场指示信号FI(有的称为ODD)、场同步信号、行同步信号、像素时钟、YUV 数据输出。在此我们顺便计算一下数字视频流的数据量,每秒的数据量=(720 像素*576 行*25 帧)*2 字节=20736000 字节,数据率约165Mbps。第四章 系统的概要设计 本章介绍整个系统设计的整体流程,以及各模块的功能和使用的原理

38、和算法。 在这里有必要首先介绍一下,该系统的设计思想,整个视频处理的过程是基于一个视频采集框的。只有当视频采集框中含有人脸时,才采集一帧图像到内存中。人脸识别过程主要分为两个阶段:训练阶段和识别阶段。在训练阶段,系统会采集大量的人脸图像进行运算,得到特征脸空间。然后将所有的“人脸”投影到特征脸空间中,得到一组坐标值。在识别阶段,系统会将采集到的待识别的人脸,也投影到特征空间中,得到该“人脸”在特征脸空间中的坐标值。然后比对各个坐标值的欧式距离,来达到识别的目的。这里不详述,第五章将会具体讲解。 图4-1 系统设计 4.1系统流程图系统主要分为训练阶段和识别阶段,系统的流程图如下: 训练阶段 识

39、别阶段图4-2 系统流程图 采集视频帧并显示(1)训练阶段的程序运行过程图解:视频采集循环 视频采集框中是否含有人脸训练阶段 否 是图 4-3 训练阶段流程图 在训练阶段,程序会不断的检测,摄像头是否拍到了人脸,如果摄像头拍到了人脸并且,人脸框在视频采集框的内部,则将采集一张人脸到内存中。如此反复,直到采集到规定数量的人脸时,系统才进行计算,得到特征空间。然后进入“识别阶段”。视频采集框中是否含有人脸(2)识别阶段的程序运行过程图解:视频采集循环采集并显示视频 识别阶段 否 是图4-4 识别阶段的流程 在识别阶段,系统不断的采集视频,同时检测摄像头是否拍摄到了人脸,如果,拍到了人脸,并且人脸框

40、在视频采集框的内部,则采集一帧人脸图像到内存中,然后马上对它进行处理,并输出识别结果。具体的过程这里不再详述。4.2模块功能介绍由上面的介绍可知整个人脸识别系统主要由以下几个功能模块组成,每一个功能模块的功能介绍如下(1)视频采集循环:实时的监控,并将采集视频到输出缓存区,并显示于屏幕上。(2)人脸检测:通过不断视频采集循环不断的监控外界,如果有人脸,用一个框将它框出,称此框为人脸框。(3)采集图像:将视频采集框中的人脸图像,输送到特定的存储空间。等待处理。(4)图像处理: 首先对图像进行去除噪声的处理,这里用的是中值滤波处理。训练阶段的视频处理主要是对图像进行主成分分析算法(PCA)的处理,

41、得到特征脸空间。 识别阶段的视频图像处理主要是将图像投影到特征脸空间,并计算,它与每一个人脸的欧式距离,便于分析识别。(5)图像识别: 对待检测的图像与人脸库中的人脸进行比对,以对人脸进行识别。(6)识别结果: 如果视频采集框中的人脸是人脸库中的一个则显示一个菱形“并且在左上角显示出人脸库中的相应人脸。如果视频采集框中的人脸不是人脸库中一个则显示一个叉“x”。 第五章 系统的详细设计5.1视频显示视频显示实际上是两个过程:采集过程和显示过程。采集过程主要由摄像头完成,摄像头从外界摄入一帧图像并把它传送到图像处理缓存区里面,然后在图像处理缓存区里经过一系列的算法处理。然后便是显示过程,显示过程主

42、要是将经过处理的图像从图像处理缓存区发送到视频显示缓存区里面,然后通过视频显示器显示处理好的图像。第四章的训练阶段和识别阶段所用到的算法,比如PCA算法,欧式距离的求解等,都是在视频显示循环中完成的。5.2人脸检测 人体的皮肤颜色是人体的一个重要特征,肤色检测被广泛的应用于人脸跟踪、人脸检测、手语识别、敏感图像过滤等领域中,具有重要的理论研究意义和实际应用价值。 经过统计证明,不同人种,不同环境下的肤色区别主要受亮度影响,受色度影响较小,CrCb空间下肤色的统计分布如下图所示: 图5-1 肤色的色差分布 本文采用通用阈值方法对肤色区域进行判断,对于图象中每一个象素 M(i ,j) 如果77Cb

43、(i,j)177且133Cr(i,j)173,则将M的亮度设置为0xff,否则设置为0x00。这样将图象转变成一个二值图象,白色的区域就是肤色区域。也就是说根据CrCb的阈值分布将符合条件的像素点的Y 值赋0x255 (最亮),不符合CrCb的阈值分布条件的像素点的Y 值为0。 在视频显示任务的循环中,程序首先将视频数据从输入缓冲区读入自己开设的临时图像处理缓冲区,再在临时图像处理缓冲区上进行处理,处理后的数据再输出到输出缓冲区。 本程序对肤色范围进行了判断计算,并将肤色区域用方框标出,得到“人脸框”。以便于和视频采集框结合进行采集人脸5.3视频采集框视频采集框是固定的,它位于屏幕的中央,坐标

44、为(260,50)。专门用于采集图像到缓存区。当人脸检测框位于视频采集框内部时则可以采集一帧图像到内存中。下面是部分源代码供参考:for(i=260;i560;i+)/视频采集框*(Uint8 *)(tempYbuffer + 50*720+i)=0xff;*(Uint8 *)(tempYbuffer + 50*720+0x32a00+i)=0xff;*(Uint8 *)(tempYbuffer + 200*720+i)=0xff;*(Uint8 *)(tempYbuffer + 200*720+0x32a00+i)=0xff;for(j=50;j200;j+)*(Uint8 *)(tempYbuffer + j*720+260)=0xff;*(Uint8 *)(tempYbuffer + j*720+560)=0xff;5.4中值滤波处理中值滤波是一种非线性的信号处理方法。中值滤波器在1971 年由J.w.Jukey 首先提出并应用在一维信号处理技

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 小学资料

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁