《2023年模式识别实验报告.pdf》由会员分享,可在线阅读,更多相关《2023年模式识别实验报告.pdf(25页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、实 验 报 告实验课程名称:模式辨认姓名:王宇 班级:名2 3 0 8 1 3 学号:注:1、每个实验中各项成绩按照5分制评估,实验成绩为各项总和实验名称规范限度原理叙述实验过程实验结果实验成绩图像的贝叶斯分类K均值聚类算法神经网络模式辨认平均成绩折合成绩2、平均成绩取各项实验平均成绩3、折合成绩按照教学大纲规定的比例进行折合2 0 2 3 年 6 月实验一、图像的贝叶斯分类一、实验目的将模式辨认方法与图像解决技术相结合,掌握运用最小错分概率贝叶斯分类器进行图像分类的基本方法,通过实验加深对基本概念的理解。二、实验仪器设备及软件H P 1)538、MAT LAB三、实验原理概念:阈值化分割算法
2、是计算机视觉中的常用算法,对灰度图象的阈值分割就是先拟定一个处在图像灰度取值范围内的灰度阈值,然后将图像中每个像素的灰度值与这个阈值相比较。并根据比较的结果将相应的像素划分为两类,灰度值大于阈值的像素划分为一类,小于阈值的划分为另一类,等于阈值的可任意划分到两类中的任何一类。最常用的模型可描述如下:假设图像由具有单峰灰度分布的目的和背景组成,处在目的和背景内部相邻像素间的灰度值是高度相关的,但处在目的和背景交界处两边的像素灰度值有较大差别,此时,图像的灰度直方图基本上可看作是由分别相应于目的和背景的两个单峰直方图混合构成。并且这两个分布应大小接近,且均值足够远,方差足够小,这种情况下直方图呈现
3、较明显的双峰。类似地,假如图像中包含多个单峰灰度目的,则直方图也许呈现较明显的多峰。上述图像模型只是抱负情况,有时图像中目的和背景的灰度值有部分交错。这时如用全局阈值进行分割必然会产生一定的误差。分割误差涉及将目的分为背景和将背景分为目的两大类。实际应用中应尽量减小错误分割的概率,常用的一种方法为选取最优阈值。这里所谓的最优阈值,就是指能使误分割概率最小的分割阈值。图像的直方图可以当作是对灰度值概率分布密度函数的一种近似。如一幅图像中只包含目的和背景两类灰度区域,那么直方图所代表的灰度值概率密度函数可以表达为目的和背景两类灰度值概率密度函数的加权和。假如概率密度函数形式已知,就有也许计算出使目
4、的和背景两类误分割概率最小的最优阈值。假设目的与背景两类像素值均服从正态分布且混有加性高斯噪声,上述分类问题可以使用模式辨认中的最小错分概率贝叶斯分类器来解决。以 与 分 别 表 达 目 的 与 背 景 的 灰 度 分 布概率密度函数,打与鸟分别表达两类的先验概率,则图像的混合概率密度函数可用下式表达为p(x)=PI(X)+EP2(X)式中Pl和P2分别为Pl(X)1(X-必尸/、1P2(x)=k e72兀,(工-2)22a24+2=1巧、”是针对背景和目的两类区域灰度均值从与出的标准差。若假定目的的灰度较亮,其 灰 度 均 值 为 背 景 的 灰 度 较 暗,其灰度均值为 从,因此有从 2现
5、若规定一门限值T对图像进行分割,势必会产生将目的划分为背景和将背景划分为目的这两类错误。通过适当选择阈值T,可令这两类错误概率为最小,则该阈值7即为最佳阈值。把目的错分为背景的概率可表达为 T)=2(幻公把背景错分为目的的概率可表达为f+00七2(/)=月(九)办总的误差概率为4 T)=旦 耳(7)+2(7)为求得使误差概率最小的阈值T,可将E(T)对T求导并令导数为零,可得6PO)=6P2(T)代换后,可得ln%-2=(T-胸6 bl 2 b1 2 2 d 2此时,若设%=q =b,则有2 /n、T,b 1AT-d-I n 2 M-2 14)若尚有片=8的条件,则1 二 M+2一 2这时的最
6、优阈值就是两类区域灰度均值从与2的平均值。上面的推导是针对图像灰度值服从正态分布时的情况,假如灰度值服从其它分布,依理也可求出最优阈值来。一般情况下,在不清楚灰度值分布时,通常可假定灰度值服从正态分布。在实际使用最优阈值进行分割的过程中,需要运用迭代算法来求得最优阈值。设有一幅数字图像/(X,y),混有加性高斯噪声,可表达为g(x,y)=f(x,y)+n(x,y)此处假设图像上各点的噪声互相独立,且具有零均值,假如通过阈值分割将图像分为目的与背景两部分,则每一部分仍然有噪声点随机作用于其上,于是,目的g|(x,y)和g2(x,y)可表达为gi(x,y)=fi(x,y)+n(x,y)g2x,y)
7、=f2x,y)+nx,y)迭代过程中,会多次地对g/x,y)和g2(x,)求均值,则E g1(x,y)=E力(x,y)+n(x,y)=E (x,y)E g2(x,y)=Ef2(x,y)+n(x,y)=Ef2(x,y)可见,随着迭代次数的增长,目的和背景的平均灰度都趋向于真实值。因此,用迭代算法求得的最佳阈值不受噪声干扰的影响。四、实验环节及程序1、实验环节(1)拟定一个初始阈值7;,心可取为2式中,S mh,和5,陋为图像灰度的最小值和最大值。(2 )运用第k次迭代得到的阈值将图像分为目的和背景A?两大区域,其中凡=*,刈/,)2 R2=f(x,y)0 f(x,y)=T K)iF oregro
8、 u n d=i F o r e gr o u n d+1;F o r eg r ou n d S um=F ore g r ound S um+doubl e(tmp);elsei B ackground=i B ackg r ound+1 ;B a c k g r ound S um=B ackgro u ndS um+double(tmp);en den de n dZ O=F o r egr o u n d S u m/i F o r e g r o und;Z B=B a ckgroundS um/i B ackgro u nd;T K T mp=doub 1 e(Z O+ZB)/2
9、);i f(T K T mp=T K)b C a 1 =0;elseT K=T K T mp;e nde n ddi s p(s t rc a t(*p uz u0 6pA aDdp *,n u m 2 s t r(T K);new工=i m 2 bw(工,d ou b 1 e(T K)/2 5 5);s u bplot(1 2 1),imshow(I)t i t l e (/O-i In)s u b p lo t(12 2),i mshow(n ewl)t i t l e 1 -04i6pA tIn,)五、实验结果与分析1、实验结果直方图、1.1200-I1000 800-600-400-|
10、卜0 100 200原图像”“a|0稔:图1原图像以及其灰度直方图原图像分割后的图像图 2 原图像以及分割后图像2、实验结果分析迭代后的阈值:9 4.8 064实验中将大于阈值的部分设立为目的,小于阈值的部分设立为背景,分割结果大体上满足规定。实际过程中在运用迭代法求得最优阈值后,仍需进行一些人工调整才干将此阈值用于实验图像的分割,虽然这种方法运用了图像中所有像素点的信息,但当光照不均匀时,图像中部分区域的灰度值也许差距较大,导致计算出的最优阈值分割效果不抱负。具体的改善措施分为以下两方面:一方面,在选取图片时,该图片的两个独立的峰值不够明显,因此在分割后产生误差,应改善选择的图片的背景和物体
11、的对比度,使得分割的效果更好;另一方面,实验程序中未涉及计算最优阈值时的迭代次数,无法直观的检测,应在实验程序中加入此项,便于分析。实验二、K均值聚类算法一、实验目的将模式辨认方法与图像解决技术相结合,掌握运用K均值聚类算法进行图像分类的基本方法,通过实验加深对基本概念的理解。二、实验仪器设备及软件H P D 5 3 8、M A T L A B、W I T三、实验原理K均值聚类法分为三个环节:初始化聚类中心1、根据具体问题,凭经验从样本集中选出C 个比较合适的样本作为初始聚类中心。2、用前C 个样本作为初始聚类中心。3、将所有样本随机地提成C 类,计算每类的样本均值,将样本均值作为初始聚类中心
12、。初始聚类1、按就近原则将样本归入各聚类中心所代表的类中。2、取同样本,将其归入与其最近的聚类中心的那一类中,重新计算样本均值,更新聚类中心。然后取下同样本,反复操作,直至所有样本归入相应类中。判断聚类是否合理1、采用误差平方和准则函数判断聚类是否合理,不合理则修改分类。循环进行判断、修改直至达成算法终止条件。2、聚类准则函数误差平方和准则函数(最小平方差划分)人=讣-叫i=l xwR3、单样本改善:每调整一个样本的类别就重新计算一次聚类的中心%=%一 加何=呼 如一 心旷|i=l,2,.c只调整一个样本四、实验环节及程序1、实验环节理解K均值算法基本原理,编写程序实现对自选图像的分类,并将所
13、得结果与W I T解决结果进行对比。K均值算法环节:1、给定类别数C和允许误差E m a x,I2、初始化聚类中心肛(A),i =l,2,.,c3、修正%-伸W -吗(砌2=m i n 卜,一网(球0 其他4、i=l,2,修正聚类中心区,c;j=l,2,.N2j=l5、计算误差e=+1)-m,(k f假如e Y Em a x则结束,否则转(3)/=12、实验源程序c l e a rt i cR G B=i m r e a d (*W a t e r 1 i l i e s.j p g );%S A E e i r li m g=r g b 2 g r a y (R G B );m,n =s i
14、 z e (i m g);s u b p 1 o t (2,2,1),i m s h o w (i m g);t i t l e (*1 0 6-I M I n 1)s u b p l o t (2,2,2),i m h i s t (i m g );t i t 1 e (*O-i i f l p A b T E d )hold o f f;i m g=d o u b l e (i m g );f o r i=l:200c l (1)=2 5;c 2(1)=12 5;c 3(1)=200;j O n E y t d3d E U A a O D D Ar =a b s(i m g-c l(i);
15、g=a b s (i m g-c 2(i);b =a b s (i m g-c 3(i);%E a,4-i n E 0 d E 6e O A a d D D A p A a A er _ g=r -g;g _b=g-b;r b=r-b;n _ r =f i n d(r _ g=0&r _ b 0&g _ b 0&r _ b 0);%N O x i zo p A O Aa O DDAi=i +1;c 1(i )=s u m (i m g (n _ r)/l e n g t h (n _r );%Eu O Dp I O IEC6 IE j a IAO ,d p i O EO DDAc 2(i)=s
16、 u m (i m g (n _ g)/1 e n g t h (n _g );%Eu O Dp I d 5EQ 6 IE i a IAO .b O D a O S EO DDAc 3(i)=s u m (i m g (n _ b)/l e n g t h (n _b );%H Eu 6Dp t O 5EQ 6 IE;5I u -.x ia IAO ,o 5 U d S EO DDAd l (i)=a b s (c 1(i )-c l (i-1);d 2(i)=a b s (c 2(i)-c 2(i-1);d 3(i)=a b s (c 3(i)-c 3(i-1);i f d l (i)=0.
17、001&d 2(i)=0.00 1&d 3(i )=0.0 0 1R=c 1 (i);G=c 2(i);B=c 3(i);k=i;b r e a k;e n de n dRGBi m g=u i n t 8(i m g);i m g (f i n d (i m g R&i m g G)=255;t o es u b p 1 o t (2,2,3),i m s h o w (i m g);t i t l e (I Ey 0Aa 06p AI In *)s u b p l o t (2,2,4),i m h i s t (i m g);t i t l e (IM EA U Aao6p Ai i f
18、 i b *)五、实验结果与分析1.WIT结果Meansfloat32 30:18.87091:93.31222:190.678 a慎式识别图 3 W IT 聚类分析系统分析界面float32 30:18.87091:93.31222:190.6783B1TU3图4 WIT聚类分析系统分析结果聚类类别数3聚类中心 R=1 8.8709 G=9 3.3122 B=190.678迭代次数 256运营时间 6 0.159ms2、K均值聚类结果图一原图像图二原图像的灰度直方图聚 类 类 别 数 3聚类中心 R =1 9.948 3 G =94.41 8 4 B=192.3320迭代次数 8运营时间 2
19、.2 7 8493 seconds小结:K 均值聚类方法和WIT系统操作后相应的聚类中心误差较小,分别是19.9483 94.4184192.3 3 20 和1 8.870 9 9 3.3 1 2 2 1 9 0.6 78。说明K 均值聚类分析方法误差较小,但是相较于W IT系统分析的时间,K 均值聚类时间较长,迭代次数较多。实验三、神经网络模式辨认一、实验目的掌握运用感知器和B P网进行模式辨认的基本方法,通过实验加深对基本概念的理解。二、实验仪器设备及软件HP D53 8、MATLAB三、实验原理设计线性可分实验线性分类器原理:已知同样本集,假如有一个线性分类器能把每个样本对的分类,则称这
20、组样本集为线性可分的,否则称为线性不可分的。假如样本集是线性可分的,则必然存在一个线性分类器能把每个样本对的分类。贝叶斯分类器是在错误率或风险下为最优的分类器。线性分类器针对错误率或者风险是“次优”的,但对于所采用的准则函数是最优的。线性分类器的设计环节:1、有一已知类别的样本集H oT=1 1 1 1 0 1 0 0 0 0 1 0 ;f i g ure,p l o t p v(P,T);%a e。田 夕OA台 食 夕%f p&f%n e t=n e w p (m i n m a x (P)zl);%B Oa5:H-Ef i-l 0 A Ql i n e h a n d l e=p l o
21、tp c (n e t.IW 1 ,n e t.b 1 );E=1;n=0;%Np A -iDOa 4-En-l 0 A Qw h i 1 e (s s e (E)net,yz E =a d a p t(n e t,P,T);n=n+l;p e rf (n)=s s e (E);l i n e h a n d l e=p l o tp c (n e t.IW 1 ,n e t.b l ,l i n e h a n d l e );d ra w n o w;e n dto ef i g ure,p l 0 t(p e r f );%a e O5:l 62i a-Qul f i(3)B P 网络c
22、 l o s e a l l;c l e a r;c l c;ti c;%P f a总 合 百 爸 邑,P=-5 -7 -4-10-54 2-4 -2 1 4 4 3 1 -2;0 -5 4 2-4 1 4 1-1-3-17-2-35-5;%T iaAie E,A iT=l 0 1 0 0 1 1 0 1 0 0 1 0 0 1 0 ;f i g ure,p 1 o t P v(P,T);y OA a Ey Y p a tMn e t=n e w f f (m i n m a x(P),5,5,1 ,ta n s i g ,p ure l i n*,l o g s i g ),tra i n
23、Im );%iQoEate2 aEOiiaE)Oii n p ut We i g h ts=n e t.IW 1 z 1 ;i n p u t b i a s =n e t.b 1 ;%p C l 0 A Q2a E-Op i a )d p1 a y e rW e i g h t s =n e t.L W 2,1 ;l a y e rb i a s=n e t.b 2 ;%EeOASpA-2IEynet.t r ainParam .show=300;net.trainParam.lr=0.05;net.trainPar a m.mc=O.9;net.t r a inParam.epo c hs
24、=10 0 0;net.t r ai n Param.goa 1 =le-4;ti c%JJ+6ATRA I NGDMEa-NpA BPl0A5net,t r=t ra i n(ne t,P,T );to cA=s i m(net,P);E=T-A;MSE=mse(E);五、实验结果与分析1、感知器结果Vectors to be Classified7 6 5-4 3 2 1 ,1 1.2 1.4 1.6 1.8 2 2.2 2.4 2.6 2.8 3迭代次数 3次训练时间 3,0 93490 secon d s2、奇异点结果Vectors to be Classified2.2 2.4 2.
25、6 2.8迭 代 次 数 3 次训练时间 0.2 70 5 04 se c onds3、B P网络结果1.1I-CMQrVectors to be Classified-51 0 r:-:01 23456789 10 1111 Epochs6T-rainestoalTrBG(8SE)-0t山paienbsuet us迭 代 次 数 1 1 次训 练 时 间 1 sec o n d s小结:1 .感知器网络通过网络训练得到的结果矢量与目的矢量做差,得到的误差平方和与0 比较,若不为0,则继续通过感知器网络直到它可以将输入的样本分开并且结果和目的矢量一致,即误差平方和为0,实验中通过了 3 次迭代最终得到结果。2.奇异点对于实验训练数据产生较大影响,影响了正常的训练速度,增长了迭代次数,应通过learn p n 函数去除奇异点。2.当输入训练数据线性不可分的前提下,实验数据在B P 网络法下进行I I 次目的训练之后,达成了目的规定,训练的结果和目的的误差收敛于程序中定义的误差,所以通过训练的BP网络可以对线性不可分网络进行分类。每次运营的BP网络可以得到不同的结果。