《医学专题一模糊神经网络资料.ppt》由会员分享,可在线阅读,更多相关《医学专题一模糊神经网络资料.ppt(45页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、第十一讲混合(hnh)智能控制第一页,共四十五页。模糊(m hu)神经网络ANN(Artificial Neural Network)和 FLS(Fuzzy Logical Network)的比较(bjio):相同之处 1)都是非数值型的非线性函数的逼近器、估计器、和动态系统;2)不需要数学模型进行描述,但都可用 数学工具(gngj)进行处理;3)都适合于VLSI、光电器件等硬件实现。不同之处:工作机制方面:ANN大量、高度连接,按样本进行学习 FLS 按语言变量、通过隐含、推理和去 模糊获得结果。第二页,共四十五页。应用上:ANN偏重于模式识别(m sh sh bi),分类 FLN 偏重于控
2、制神经模糊网络把ANN的学习机制和FLN的人类思维和推理结合(jih)起来。信息处理基本单元(dnyun)方面:ANN数值点样本,xi yi FLN模糊集合(Ai,Bi)运行模式方面:ANN学习过程透明,不对结构知识编码 FLN不透明,对结构知识进行编码,推理过程外界 可知第三页,共四十五页。结合方式有3种:1)神经模糊系统用神经元网络来实现模糊隶属函数、模糊推理,基本上(本质上)还是(hi shi)FLN。2)模糊神经系统神经网络模糊化,本质上还是ANN。3)模糊-神经混合系统二者有机结合。基于(jy)神经网络的模糊逻辑运算用神经网络实现(shxin)隶属函数神经网络驱动模糊推理神经网络的模
3、糊建模用神经网络实现隶属函数第四页,共四十五页。wc 和 wg 分别确定Sigmoid函数的中心(zhngxn)和宽度,S(x),M(x),L(x)组成大、中、小三个论域的隶属函数。逻辑(lu j)“与”可以用Softmin 来实现:第五页,共四十五页。神经网络驱动(q dn)模糊推理(NDF)解决模糊推理中二个问题:缺乏确定的方法选择隶属函数(hnsh);缺乏学习功能校正推理规则。用神经网络实现TS模型(mxng),称为神经网络驱动模糊推理(NDF).网络由二部分组成:r为规则数,As是前提的模糊集合.NNs是模型的函数结构,由BP网络实现.第六页,共四十五页。学习的网络(wnglu)和训练
4、的步骤8第七页,共四十五页。2)将数据(shj)聚类.分成r 类.即有r 条规则.TRD的数据有N t 个.3)训练规则的前提部分(b fen)网络NNm.。4)训练(xnlin)对应于规则R s的后件部分(Then部分)NN s66第八页,共四十五页。5)简化(jinhu)后件部分在NN S的输入(shr)端,任意消去x p,比较误差:6)最终(zu zhn)输出6第九页,共四十五页。神经网络的模糊(m hu)建模有三种(sn zhn)模型:后件(hu jin)为恒值:后件为一阶线性方程第十页,共四十五页。第十一页,共四十五页。第十二页,共四十五页。后件(hu jin)为模糊变量第十三页,共
5、四十五页。第十四页,共四十五页。第十五页,共四十五页。应用(yngyng)假定要辨识(bin sh)的系统为数据(shj)40 对,见表6.1评判指标:第十六页,共四十五页。常 数 模 型第十七页,共四十五页。常 数 模 型 隶属函数(hnsh)的变化第十八页,共四十五页。非 线 性 模 型第十九页,共四十五页。非线性模型隶属函数(hnsh)的变化第二十页,共四十五页。语 言 输 出 模 型第二十一页,共四十五页。语 言 输 出 模 型隶属(lsh)函数的变化第二十二页,共四十五页。神经网络模糊化模糊(m hu)感知器 精确划分的问题:每个分量都有同样的“重要性”,用在分类时,当分类有重叠(c
6、hngdi)时(如图),得不到很好的结果。模糊感知器的基本思想:给隶属函数以一定的修正量,对隶属度接近0.5的样本(yngbn),在确定权值向量时,给予较小的影响:第二十三页,共四十五页。模糊感知器算法的问题:1)如何选择 m?2)如何给向量赋与模糊隶属函数(hnsh)?3)算法的终止判据.回答:1)m 1;如隶属函数接近0.5.m 1;如隶属函数大于0.5.2)给向量(xingling)赋与模糊隶属函数的规则:第二十四页,共四十五页。其中(qzhng):第二十五页,共四十五页。3)算法(sun f)停止的判据:产生(chnshng)良好的结果.模糊(m hu)联想存储器(FAM)双向联想存贮
7、器的模糊化。把双向联想存贮器的权矩阵变换成模糊集合的关系(关联)矩阵。(当分类错误,不确定向量不再产生另一迭代)第二十六页,共四十五页。模糊关联矩阵M确定(qudng)有二种方法:1)相关最小编码m i j=Min(a i,b j)假定(jidng)A=(0.2 0.5 0.9 1.0),B=(0.9 0.5 0.6),则:2)相关乘积(chngj)编码现在看,如果有A能否“回忆”起B?AM=B;BMT=0.2 0.5 0.9 0.9=A A.第二十七页,共四十五页。现在(xinzi)看,如果有A能否“回忆”起B?如果(rgu)AT=(0 0 0 1),则ATM=B;如果AT=(1 0 0 0
8、)则ATM=(0.18 0.1 0.12)只回忆起B的20%。由m个FAM组成(z chn)的FAM系统。把m个关联(A k,B k)分别存到存贮库中,把m 个记忆向量叠加起来。即:所记忆的隶属向量,等于各记忆向量的加权和:如在输出论域Y=(y1,y2,y p)需要一个单独的输出,则要去模糊:第二十八页,共四十五页。A并行(bngxng)地加于各联想存贮器上。第二十九页,共四十五页。神经模糊(m hu)网络神经模糊控制器第三十页,共四十五页。对任一节点对任一节点i 输入输入(shr)与输出的关系:与输出的关系:输入(shr):输出(shch):模糊自适应学习控制网络模糊自适应学习控制网络(FA
9、LCON)(FALCON)第三十一页,共四十五页。29第三十二页,共四十五页。第5层:第三十三页,共四十五页。第三十四页,共四十五页。学习(xux)(训练)目的(md):1)决定第2层和第4层中的隶属函数中心mij和宽度ij 2)决定第3层和第4层中的规则自组织(zzh)学习a)输入变量输入变量x x1 1空间的划分空间的划分T(x1)T(x2)T(x n)=T(x)T(y i)b)b)第第4 4层处在自上至下的模式层处在自上至下的模式第三十五页,共四十五页。第三十六页,共四十五页。第三十七页,共四十五页。d)确定连接和模糊(m hu)规则e)规则合并(hbng),减少规则1)有完全相同的结果
10、2)前提一样的规则3)其它(qt)前提的并,组成了某些输入变量的整个术语的集合第三十八页,共四十五页。监督(jind)学习阶段第三十九页,共四十五页。第四十页,共四十五页。神经(shnjng)-模糊网络(控制器)的参数学习(ANFIS)相应(xingyng)的ANFIS网络如图示。隶属函数为钟形:第四十一页,共四十五页。第四十二页,共四十五页。要调节(tioji)的参数:对后件参数,可以(ky)用Kalman滤波方法进行计算,此时,把后件参数排列成向量:一组线性方程(xin xn fn chn)求解。第四十三页,共四十五页。第四十四页,共四十五页。内容(nirng)总结第十一讲。组成大、中、小三个论域的隶属函数。用神经网络实现TS模型,称为神经网络驱动(q dn)模糊推理(NDF).。学习的网络和训练的步骤。回答:1)m 1。由m个FAM组成的FAM系统。如在输出论域Y=(y1,y2,。目的:1)决定第2层和第4层中的隶属函数中心mij和宽度ij。2)决定第3层和第4层中的规则。T(y i)。e)规则合并,减少规则。一组线性方程求解第四十五页,共四十五页。