《第六章神经网络控制.ppt》由会员分享,可在线阅读,更多相关《第六章神经网络控制.ppt(158页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、第六章第六章 神经网络控制神经网络控制 对象神经网络(神经网络(neural networks,NN)生生物物神神经经网网络络(naturalneuralnetwork,NNN):由由中中枢枢神神经经系系统统(脑脑和和脊脊髓髓)及及周周围围神神经经系系统统(感感觉觉神神经经、运运动动神神经经等等)所所构成的错综复杂的神经网络,其中最重要的是构成的错综复杂的神经网络,其中最重要的是脑神经系统脑神经系统。人人工工神神经经网网络络(artificialneuralnetworks,ANN):模模拟拟人人脑脑神神经经系系统统的的结结构构和和功功能能,运运用用大大量量简简单单处处理理单单元元经经广广泛泛
2、连连接接而而组成的人工网络系统。组成的人工网络系统。神经网络方法:神经网络方法:隐式隐式的的知识表示方法知识表示方法w人工神经网络:由许多处理单元,又称神经元,按照一定人工神经网络:由许多处理单元,又称神经元,按照一定的拓扑结构相互连接而成的一种具有并行计算能力的网络的拓扑结构相互连接而成的一种具有并行计算能力的网络系统。系统。特点:特点:w神经网络系统以大规模模拟并行处理为主,而不以串行离神经网络系统以大规模模拟并行处理为主,而不以串行离散数学符号处理为基础;散数学符号处理为基础;w神经网络系统具有较强的鲁棒性和容错性,能够进行联想、神经网络系统具有较强的鲁棒性和容错性,能够进行联想、概括、
3、类比和推广,任何局部的损伤不会影响整体结果;概括、类比和推广,任何局部的损伤不会影响整体结果;w神经网络系统具有较强的自学习能力,系统可以通过不断神经网络系统具有较强的自学习能力,系统可以通过不断的学习,不断地补充和完善自己的知识,这是传统的人工的学习,不断地补充和完善自己的知识,这是传统的人工智能专家系统所没有的能力。智能专家系统所没有的能力。人工神经网络的定义人工神经网络的定义神经网络的基本特征与功能神经网络的基本特征与功能结构特征:结构特征:并行式处理并行式处理分布式存储分布式存储容错性容错性能力特征:能力特征:自学习自学习自组织自组织自适应性自适应性 神经网络的基本特征与功能神经网络的
4、基本特征与功能联联想想记记忆忆功功能能非线性映射功能非线性映射功能 神经网络的基本特征与功能神经网络的基本特征与功能分类与识别功能分类与识别功能 神经网络的基本特征与功能神经网络的基本特征与功能优化计算功能优化计算功能 神经网络的基本特征与功能神经网络的基本特征与功能知识处理功能知识处理功能 神经网络的基本特征与功能神经网络的基本特征与功能发展历史发展历史q 探索时期探索时期(开始于(开始于20世纪世纪40年代)年代):1943年年,麦麦克克劳劳(W.S.McCullocn)和和匹匹茨茨(W.A.Pitts)首次提出一个神经网络模型首次提出一个神经网络模型MP模型。模型。1949年年,赫赫布布
5、(D.O.Hebb)提提出出改改变变神神经经元元连连接接强强度的度的 Hebb学习规则。学习规则。发展历史发展历史1958年年,罗罗森森布布拉拉特特(F.Rosenblatt)提提出出感感知知器器模模型(型(perceptron)。)。1959年年,威威德德罗罗(B.Widrow)等等提提出出自自适适应应线线性性元元件件(adaline)网网络络,通通过过训训练练后后可可用用于于抵抵消消通通信信中中的的回回波波和和噪噪声声。1960年年,他他和和M.Hoff提提出出LMS(LeastMeanSquare最小方差)算法的学习规则。最小方差)算法的学习规则。q第一次热潮时期:第一次热潮时期:20世
6、纪世纪50年代末年代末20世纪世纪60年代年代初初 发展历史发展历史1969年年,明明斯斯基基(M.Minsky)等等在在Perceptron中对感知器功能得出悲观结论。中对感知器功能得出悲观结论。1972年年,T.Kohonen和和J.Anderson分分别别提提出出能能完完成成记忆的新型神经网络。记忆的新型神经网络。1976年年,S.Grossberg在在自自组组织织神神经经网网络络方方面面的的研研究究十分活跃。十分活跃。q低潮时期:低潮时期:20世纪世纪60年代末年代末20世纪世纪70年代年代发展历史发展历史q第二次第二次热潮时期:热潮时期:20世纪世纪80年代至今年代至今 1982年年
7、1986年年,霍霍普普菲菲尔尔德德(J.J.Hopfield)陆陆续续提提出出离离散散的的和和连连续续的的全全互互连连神神经经网网络络模模型型,并并成成功功求求解旅行商问题(解旅行商问题(TSP)。)。1986年年,鲁鲁 姆姆 尔尔 哈哈 特特(Rumelhart)和和 麦麦 克克 劳劳(McCellan)等等在在ParallelDistributedProcessing中提出反向传播学习算法(中提出反向传播学习算法(BP算法)算法)。1987年年6月月,首首届届国国际际神神经经网网络络学学术术会会议议在在美美国国圣圣地地亚哥召开,成立了国际神经网络学会(亚哥召开,成立了国际神经网络学会(IN
8、NS)。)。q神经网络控制的研究领域神经网络控制的研究领域 基于神经网络的系统辨识基于神经网络的系统辨识 神经网络控制器神经网络控制器 神神经经网网络络与与其其他他算算法法(模模糊糊逻逻辑辑、专专家家系系统统、遗遗传传算算法等)相结合法等)相结合 优化计算优化计算 人人类类大大脑脑大大约约包包含含有有1.4 1011个个神神经经元元,每每个个神神经经元元与与大大约约10103 310105 5个个其其它它神神经经元元相相连连接接,构构成成一一个个极极为为庞庞大大而而复复杂的网络,即生物神经网络。杂的网络,即生物神经网络。生物神经元及其信息处理神经生理学和神经解剖学的研究神经生理学和神经解剖学的
9、研究结果表明结果表明,神经元,神经元(Neuron)(Neuron)是脑组织是脑组织的基本单元,是人脑信息处理系统的的基本单元,是人脑信息处理系统的最小单元。最小单元。生物神经元及其信息处理 生物神经元在结构上由生物神经元在结构上由 细胞体细胞体(Cell body)树突树突(Dendrite)轴突轴突(Axon)突触突触(Synapse)四部分组成。用来完成神经元间信息的接收、四部分组成。用来完成神经元间信息的接收、传递和处理。传递和处理。生物神经元及其信息处理信息转换发生在突触上信息转换发生在突触上(输入输入)(输出输出)神经冲动神经冲动生物神经元及其信息处理生物神经元的信息处理机理生物神
10、经元的信息处理机理信息的产生信息的产生神神经经元元间间信信息息的的产产生生、传传递递和和处处理理是是一一种电化学活动。种电化学活动。神经元状态:神经元状态:静息静息兴奋兴奋抑制抑制 膜电位:膜电位:极极化化去极化去极化超极化超极化生物神经元的信息处理机理生物神经元的信息处理机理生物神经元的信息处理机理生物神经元的信息处理机理信息的整合信息的整合空间整合:空间整合:同一时刻产生的刺激所引起的膜电同一时刻产生的刺激所引起的膜电位变化,大致等于各单独刺激引起的膜电位变位变化,大致等于各单独刺激引起的膜电位变化的代数和。化的代数和。时间整合:时间整合:各各输入脉冲输入脉冲抵达神经元的时间先后抵达神经元
11、的时间先后不一样。不一样。总的突触后膜电位为一段时间内的累总的突触后膜电位为一段时间内的累积。积。生物神经网络生物神经网络由多个生物神经元以确定方式和拓扑结构由多个生物神经元以确定方式和拓扑结构相互连接即形成生物神经网络。相互连接即形成生物神经网络。生物神经网络的功能不是单个神经元信息生物神经网络的功能不是单个神经元信息处理功能的简单叠加。处理功能的简单叠加。神经元之间的突触连接方式和连接强度不神经元之间的突触连接方式和连接强度不同并且具有可塑性,这使神经网络在宏观同并且具有可塑性,这使神经网络在宏观呈现出千变万化的复杂的信息处理能力。呈现出千变万化的复杂的信息处理能力。人工神经元是生物神经元
12、的数学抽象人工神经元是生物神经元的数学抽象人工神经元人工神经元神经元通过信息传递进行工作,它们产生或接收由输出神经元通过信息传递进行工作,它们产生或接收由输出所组成的信息。所组成的信息。McCulloch-Pitts模型(模型(1943年)年)输输入入输出输出w2w1w3wnwn-1.x1x2x3xn-1xny人工神经元人工神经元McCulloch-Pitts神经元的非线性概念神经元的非线性概念:y是神经元的输出,是神经元的输出,x是输入矢量,是输入矢量,w是突触的权重是突触的权重矢量。如:矢量。如:sigmoid神经元神经元Gaussian神经元神经元人工神经网络人工神经网络输输入入输出输出
13、人工神经网络包含有许多个人工神经元,这些人工神人工神经网络包含有许多个人工神经元,这些人工神经元连接在一起构成一种特殊的网络结构。神经网络经元连接在一起构成一种特殊的网络结构。神经网络的目标是将输入转化为有意义的输出。的目标是将输入转化为有意义的输出。MPMP模型模型 MP神经元模型神经元模型其他形式的作用函数其他形式的作用函数 (a)=1=1(b)=2=22阶跃函数阶跃函数 神经网络的数理模型神经网络的数理模型基本运算可归结为四种:基本运算可归结为四种:1.积与和积与和2.权值学习权值学习3.阈值处理阈值处理4.非线性函数处理非线性函数处理神经网络的工作方式神经网络的工作方式两个阶段组成:两
14、个阶段组成:1.学习期:神经元间的联接权值,可由学习规则进行学习期:神经元间的联接权值,可由学习规则进行调整,以使目标(准则)函数达最小。调整,以使目标(准则)函数达最小。2.工作期:联接权值不变,由网络的输入,得到相应工作期:联接权值不变,由网络的输入,得到相应的输出。的输出。知识表达知识表达w神神经经网网络络是是一一个个储储存存经经验验知知识识并并能能够够有有效效运运用用的的系统;系统;w神神经经网网络络的的主主要要任任务务是是对对世世界界(或或环环境境)中中所所内内含的某种模式进行学习;含的某种模式进行学习;w知知识识包包含含两两种种信信息息:一一种种是是已已知知状状态态,代代表表我我们
15、们已已经经知知道道的的事事实实,被被称称之之为为先先验验知知识识;另另一一种种是是观观测测(或或测测量量),即即通通过过某某种种感感知知手手段段所所探探知知的的环环境境信信息息,这这些些观观测测知知识识通通常常是是包包含含着着噪噪声声或或干干扰的。扰的。神经网络的设计过程神经网络的设计过程w首首先先,要要根根据据先先验验知知识识来来选选择择一一个个适适当当的的神神经经网网络络结结构构,然然后后用用部部分分实实例例通通过过某某种种算算法法来来训训练网络。这个过程被称为练网络。这个过程被称为学习过程学习过程。w其其次次,没没有有用用过过的的实实例例被被用用来来对对已已经经训训练练好好的的网网络络的
16、的进进行行测测试试,试试验验其其性性能能。这这个个过过程程称称之之为为测试(或泛化)过程测试(或泛化)过程。学习过程学习过程w前前页页提提到到的的学学习习过过程程很很重重要要,它它说说明明学学习习要要包包含以下顺序事件:含以下顺序事件:1.神经网络被环境所激励;神经网络被环境所激励;2.环境激励的结果是使神经网络发生变化;环境激励的结果是使神经网络发生变化;3.由由于于变变化化对对于于其其内内在在的的结结构构的的作作用用,使使得得神神经网络以一种新的方式对环境进行响应。经网络以一种新的方式对环境进行响应。神经网络的不同分类神经网络的不同分类1.按性能:连续型与离散型按性能:连续型与离散型 确定
17、型与随机型确定型与随机型 静态与动态网络静态与动态网络2.按联接方式:前馈(前向)型与反馈型按联接方式:前馈(前向)型与反馈型3.3.按逼近特性:全局逼近型与局部逼近型按逼近特性:全局逼近型与局部逼近型4.按学习方式:有导师的学习(监督学习)按学习方式:有导师的学习(监督学习)无导师的学习(无监督学习)无导师的学习(无监督学习)再励学习(强化学习)再励学习(强化学习)它们都是模拟人适应环境的学习过程的一种机器学习模型,它们都是模拟人适应环境的学习过程的一种机器学习模型,因此,具有学习能力的系统,称:因此,具有学习能力的系统,称:学习系统(学习机)学习系统(学习机)5.按工作方式:同步与异步按工
18、作方式:同步与异步前馈型(前馈型(前向型)前向型)反馈型反馈型 (Hopfield神经网络)神经网络)n同步同步(并行)并行)方式:方式:任一时刻神经网络中所有神经任一时刻神经网络中所有神经元同时调整状态元同时调整状态。n异步异步(串行)串行)方式:方式:任一时刻只有一个神经元调整任一时刻只有一个神经元调整状态,而其它神经元的状态保持不变。状态,而其它神经元的状态保持不变。有导师的学习(监督学习)有导师的学习(监督学习)在学习过程中,网在学习过程中,网络根据实际输出与期望络根据实际输出与期望输出的比较,进行联接输出的比较,进行联接权系的调整,将期望输权系的调整,将期望输出称为出称为导师信号。导
19、师信号。导师信号导师信号是评价学习的是评价学习的标准(见图)。标准(见图)。期望输出期望输出实际输出实际输出学习机学习机输入输入NN比较比较有导师的学习(监督学习)有导师的学习(监督学习)有导师学习的特点:有导师学习的特点:1、有外部教师;、有外部教师;2、有错误纠正机制。、有错误纠正机制。常用的方法有:常用的方法有:1、最小二乘法(、最小二乘法(LMS););2、反向传播算法(、反向传播算法(BP)。)。运行方式:运行方式:1、离线;、离线;2、在线。、在线。无导师的学习无导师的学习(无监督、或称自组织)(无监督、或称自组织)无导师信号无导师信号提供给网提供给网络,网络能根据其特有的络,网络
20、能根据其特有的结构和学习规则,进行联结构和学习规则,进行联接权系的调整,此时,网接权系的调整,此时,网络的学习评价标准隐含络的学习评价标准隐含 于其内部(见图)。于其内部(见图)。实际输出实际输出学习机学习机输入输入NN自自 我我 比比较较无导师的学习无导师的学习(无监督、或称自组织)(无监督、或称自组织)无导师学习的特点:无导师学习的特点:1、没有外部教师或监督机制;、没有外部教师或监督机制;2、使用竞争学习方式;、使用竞争学习方式;3、数据内部所具有的特性(苹果和梨子)。、数据内部所具有的特性(苹果和梨子)。再励学习(强化学习)再励学习(强化学习)把学习看为试探评价把学习看为试探评价过程,
21、学习机选择一动作过程,学习机选择一动作作用于环境,环境的状态作用于环境,环境的状态改变,并产生改变,并产生再励信号再励信号反反馈至学习机,学习机依据馈至学习机,学习机依据再励信号与环境当前的状再励信号与环境当前的状态,再选择下一动作作用态,再选择下一动作作用于环境,选择的原则是使于环境,选择的原则是使受到奖励的可能性增大受到奖励的可能性增大(见图)。(见图)。状态状态输入输入 NN1 NN2 学习机学习机输出输出-动作动作re学习学习修改权重修改权重w对对于于神神经经网网络络来来说说,学学习习的的过过程程就就是是修修改改其其连连接突触的权重接突触的权重w wkjkj的过程。的过程。w令令w w
22、kjkj为为n n时时刻刻的的突突触触权权重重,则则n n时时刻刻权权重重的的调调整整值值 w wkjkj是突触权重是突触权重w wkjkj(n(n)与一个修正值之和:与一个修正值之和:w通常,通常,w wkjkj(0)(0)可以随机设置。可以随机设置。误差调整学习误差调整学习w神经元神经元k k在在n n时刻的输出误差为:时刻的输出误差为:w误差之和为:误差之和为:w瞬时值:瞬时值:实际实际实际实际响应响应响应响应期望期望期望期望响应响应响应响应统计期望统计期望统计期望统计期望w调整调整 学习率,学习率,0 0w这个学习过程就类似于一个闭环反馈过程。这个学习过程就类似于一个闭环反馈过程。w学
23、习过程的稳定性取决于学习率学习过程的稳定性取决于学习率 的选择:的选择:小的学习率可以使得系统收敛于一个稳定的解;小的学习率可以使得系统收敛于一个稳定的解;大的学习率可以加速学习的过程。大的学习率可以加速学习的过程。误差调整学习误差调整学习HebbianHebbian学习学习w这是所有学习规则中最有名的一个,是神经心理这是所有学习规则中最有名的一个,是神经心理学家学家Heb(1949)提出的:提出的:w这个强调的是输入输出信号之间的联系。这个强调的是输入输出信号之间的联系。w它对神经元的修改强调输入激励下大的输出信号。它对神经元的修改强调输入激励下大的输出信号。竞争学习竞争学习w对神经元对神经
24、元k来说,输入样本来说,输入样本x的网络输出必须是的网络输出必须是最大,才能成为赢家。最大,才能成为赢家。w获胜神经元得到全部的输出值,也被称为获胜神经元得到全部的输出值,也被称为“winner-takes-all”规则。规则。Boltzmann学习学习w应用随机学习算法(应用随机学习算法(Boltzmann分布),分布),Hinton and Sejnowski,1986提出提出“模拟退火算法模拟退火算法”。w神经元组成一个回归结构,以二进位方法进行运神经元组成一个回归结构,以二进位方法进行运作。作。w这个机制由一个能量函数来描述这个机制由一个能量函数来描述 这里,这里,si 是神经元是神经
25、元i的状态。的状态。i j 表示该机制不允许神经元自反馈。表示该机制不允许神经元自反馈。w该机制运作如下:该机制运作如下:在学习过程中的某步,随机选择一个神经元,比如神在学习过程中的某步,随机选择一个神经元,比如神经元经元 j;计算在温度计算在温度T的前提下,神经元的前提下,神经元 j 从状态从状态 sj 转到转到-sj 的的概率概率 这里,这里,Ei 是能量变换;是能量变换;T是伪温度,不是物理学意义是伪温度,不是物理学意义上的温度。上的温度。Boltzmann学习学习感知器感知器单层感知器单层感知器n单层感知器单层感知器感知器的功能感知器的功能w1jx1+w2jx2-Tj=0 学习算法步骤
26、学习算法步骤 学习算法步骤学习算法步骤 根据某样本训练时,均方差随训练次数的收敛情况根据某样本训练时,均方差随训练次数的收敛情况例子例子:例子:与非门逻辑例子:与非门逻辑 w与非门属于线性可分问题。与非门属于线性可分问题。w以下方程可以将超平面分为两个决定域:以下方程可以将超平面分为两个决定域:x1 x1 y 0 0 1 0 1 1 1 0 1 1 1 0 x x1 1x x2 2y y =-3/2=-3/2w w1 1=-1=-1w w2 2=-1=-1-x x2 2x x1 1Classe 1Classe 2单层感知器特点单层感知器特点 用于两类模式分类时,相当于在高维样本空间中,用于两类
27、模式分类时,相当于在高维样本空间中,用一个超平面将两类样本分开。用一个超平面将两类样本分开。已证明:若输入的两类模式是线性可分集合(指存已证明:若输入的两类模式是线性可分集合(指存在一个超平面能将其分开),则算法一定收敛。在一个超平面能将其分开),则算法一定收敛。局限性:若输入模式为线性不可分集合,网络的学局限性:若输入模式为线性不可分集合,网络的学习算法不收敛,不能进行正确分类。习算法不收敛,不能进行正确分类。【例例】线性可分集合线性可分集合(a)分类器结构 2w 1w q-=0w y 10=u 21uu 1u 2u (b)平面上两类模式分界线 平面上两类模式分类 (2)三维空间上的两类模式
28、,见表。三维空间上的两类模式,见表。2u 1u q-=0w 10=u y 1w 3w 2w 321uuu 三维空间上的两类模式分类三维空间上的两类模式分类 (3)可引伸到可引伸到n3维空间上的线性可分集合,一定可找到维空间上的线性可分集合,一定可找到一超平面,将输入模式分为两类。由一超平面,将输入模式分为两类。由n输入输入/单输出的单层感知单输出的单层感知器实现。器实现。【例例】线性不可分集合。线性不可分集合。二维平面上的两类模式二维平面上的两类模式异或(异或(XOR)问题,见表。问题,见表。二维平面中不存在一条直线,将输入模式分为两类,此输入模式二维平面中不存在一条直线,将输入模式分为两类,
29、此输入模式称线性不可分集合,见图。称线性不可分集合,见图。可见:单层感知器不能解决异或问题。可见:单层感知器不能解决异或问题。u u12 y 0 0 0 0 1 1 1 0 1 1 1 0异或问题异或问题 2u 1u 多层感知器多层感知器 W2 W1 y 2z 21uu 1z 三层感知器结构三层感知器结构 三层感知器解决异或(三层感知器解决异或(XOR)问题问题 W2 W1 y 2z 21uu 1z 三层感知器结构三层感知器结构 模 式 空 间 分 两 类 1u 2u 三层感知器可识别任一凸多边形或无界的凸区域。三层感知器可识别任一凸多边形或无界的凸区域。更多层感知器网络,可识别更为复杂的图形
30、。更多层感知器网络,可识别更为复杂的图形。多层前馈网络与多层前馈网络与BP学习算法学习算法 多层前馈网络的反向传播多层前馈网络的反向传播(BP)学习算法,简称学习算法,简称BP算法,算法,是有导师的学习是有导师的学习,它是,它是梯度下降法梯度下降法在多层前馈网中的应用。在多层前馈网中的应用。w网络结构网络结构见图,见图,u、y是网络的输入、输出向量,神经元用节点表示,是网络的输入、输出向量,神经元用节点表示,网络由输入层、隐层和输出层节点组成,隐层可一层,也可多层网络由输入层、隐层和输出层节点组成,隐层可一层,也可多层(图中是单隐层),前层至后层节点通过权联接。由于用(图中是单隐层),前层至后
31、层节点通过权联接。由于用BP学学习算法,所以常称习算法,所以常称BP神经网络。神经网络。BP学习算法学习算法w已知网络的输入已知网络的输入/输出样本,即输出样本,即导师信号。导师信号。wBP学习算法由正向传播和反向学习算法由正向传播和反向传播组成:传播组成:w正向传播是输入信号从输入层经正向传播是输入信号从输入层经隐层,传向输出层,若输出层得隐层,传向输出层,若输出层得到了期望的输出,则学习算法结到了期望的输出,则学习算法结束;否则,转至反向传播。束;否则,转至反向传播。w反向传播是将误差反向传播是将误差(样本输出与样本输出与网络输出之差)按原联接通路反网络输出之差)按原联接通路反向计算,由梯
32、度下降法调整各层向计算,由梯度下降法调整各层节点的权值和阈值,使误差减小。节点的权值和阈值,使误差减小。正向传播正向传播反向传播反向传播BP神经网络神经网络正向传播计算正向传播计算w正向计算输出(正向计算输出(SigmoidSigmoid函数)函数)S S型函数型函数这里,输出的函数形式为:这里,输出的函数形式为:容易求得,容易求得,多层感知器的权值学习多层感知器的权值学习w给定一个网络,设定隐层单元数和连接的结构;给定一个网络,设定隐层单元数和连接的结构;w用梯度下降法最小化网络输出值与目标值的平用梯度下降法最小化网络输出值与目标值的平方误差。方误差。误差准则误差准则w将网络误差将网络误差E
33、定义为所有网络单元输出误差的定义为所有网络单元输出误差的总和:总和:这里,这里,d 是训练样本,是训练样本,k 为输出单元。为输出单元。反向传播计算反向传播计算w每个训练样本对都是每个训练样本对都是 形式,这里形式,这里x 是网络是网络输入矢量,输入矢量,t 是网络的期望输出矢量。是网络的期望输出矢量。w网络其它参数如下:网络其它参数如下:是学习率;是学习率;nin 是输入层单元数;是输入层单元数;nhidden 是隐层单元数;是隐层单元数;nout 是输出层单元数。是输出层单元数。w网络结构如图:网络结构如图:反向传播的推导反向传播的推导w按照梯度下降法,对每个训练样本按照梯度下降法,对每个
34、训练样本d,权值,权值wji由由 wji进行修改进行修改w这里这里Ed是训练样本是训练样本d的总误差的总误差woutputs是网络输出单元集合是网络输出单元集合反向传播的推导反向传播的推导xjiwjiUnit iUnit ju对于单个神经元来说:对于单个神经元来说:反向传播的推导反向传播的推导w通过求偏导可得:通过求偏导可得:w权值调整可分以下两种情况:权值调整可分以下两种情况:由输出单元或隐层单元所确定由输出单元或隐层单元所确定第一种:输出单元权值调整第一种:输出单元权值调整第一种:输出单元权值调整第一种:输出单元权值调整第一种:输出单元权值调整第一种:输出单元权值调整这样,权值的调整量为:
35、这样,权值的调整量为:第二种:隐单元权值调整第二种:隐单元权值调整第二种:隐单元权值调整第二种:隐单元权值调整式中,式中,不能直接计算,要通过其它间接量计算,即不能直接计算,要通过其它间接量计算,即第二种:隐单元权值调整第二种:隐单元权值调整显然,显然,对于隐含层单元来说,权值调整量为对于隐含层单元来说,权值调整量为学习算法步骤:学习算法步骤:正向传播正向传播正向传播正向传播 (3)计算网络的目标函数)计算网络的目标函数J设设Ep为在第为在第p组样本输入时,网络的目标函数组样本输入时,网络的目标函数网络的总目标函数:网络的总目标函数:作为对网络学习状况的评价。作为对网络学习状况的评价。(4)若
36、)若 则算法结束;则算法结束;否则,转(否则,转(5)。)。反向传播反向传播 (5)反向传播计算)反向传播计算由输出层按梯度下降法反向计算,逐层调整权值由输出层按梯度下降法反向计算,逐层调整权值若若i为输出节点,即为输出节点,即i=k若若i不是输出节点,即不是输出节点,即BP学习算法的程序框图学习算法的程序框图p1.特点特点lBP网络:多层前向网络(输入层、隐层、输出层)。网络:多层前向网络(输入层、隐层、输出层)。l连接权值:通过连接权值:通过Delta学习算法进行修正。学习算法进行修正。l神经元传输函数:神经元传输函数:S形函数。形函数。l学习算法:正向传播、反向传播。学习算法:正向传播、
37、反向传播。l层与层的连接是单向的,信息的传播是双向的。层与层的连接是单向的,信息的传播是双向的。p2.BP网络的主要优缺点网络的主要优缺点l 很好的逼近特性。很好的逼近特性。l 具有较强的泛化能力。具有较强的泛化能力。l 具有较好的容错性。具有较好的容错性。n 优点优点l 收敛速度慢。收敛速度慢。l 局部极值。局部极值。l 难以确定隐层和隐层结点的数目。难以确定隐层和隐层结点的数目。n 缺点缺点有关的几个问题有关的几个问题 (5)改进的改进的BP算法算法梯度下降法的不足,是梯度下降法的不足,是BP算法收敛速度慢的原因,有改进的算法收敛速度慢的原因,有改进的BP算法克服其不足,如:算法克服其不足
38、,如:)()(1tJtJ 训练样本训练样本 t 测试数据测试数据 泛化能力示意图泛化能力示意图(7)泛化能力)泛化能力泛化能力(综合能力、概括能力):用较少的样本进行训练,泛化能力(综合能力、概括能力):用较少的样本进行训练,使网络能在给定的区域内达到要求的精度。没有泛化能力的网使网络能在给定的区域内达到要求的精度。没有泛化能力的网络无使用价值。络无使用价值。BP网络,泛化能力与样本、结构、初始权值等有关。为得到网络,泛化能力与样本、结构、初始权值等有关。为得到较好的泛化能力,除了要有训练样本集外,还需测试集。较好的泛化能力,除了要有训练样本集外,还需测试集。从图可见,随着训练次数的增加,训练
39、集的从图可见,随着训练次数的增加,训练集的J(t)减少,测试集减少,测试集的的J1(t)可能不减小或增大,说明泛化能力减弱。因此,测试可能不减小或增大,说明泛化能力减弱。因此,测试集集J1的极小点所对应的训练权值,是网络具有较好的泛化能力的极小点所对应的训练权值,是网络具有较好的泛化能力的权值。的权值。J 全局极小点全局极小点 局部极小点局部极小点 局部与全局极小点局部与全局极小点 BP网络训练实例网络训练实例BP神经网络在模式识别中的应用神经网络在模式识别中的应用 模式识别研究用计算机模拟生物、人的感知,对模模式识别研究用计算机模拟生物、人的感知,对模式信息,如图像、文字、语音等,进行识别和
40、分类。式信息,如图像、文字、语音等,进行识别和分类。传统人工智能的研究部分地显示了人脑的归纳、推传统人工智能的研究部分地显示了人脑的归纳、推理等智能。但是,对于人类底层的智能,如视觉、听觉、理等智能。但是,对于人类底层的智能,如视觉、听觉、触觉等方面,现代计算机系统的信息处理能力还不如一触觉等方面,现代计算机系统的信息处理能力还不如一个幼儿园的孩子。个幼儿园的孩子。神经网络模型模拟了人脑神经系统的特点:处理单神经网络模型模拟了人脑神经系统的特点:处理单元的广泛连接;并行分布式信息储存、处理;自适应学元的广泛连接;并行分布式信息储存、处理;自适应学习能力等。习能力等。神经网络模式识别方法具有较强
41、的容错能力、自适神经网络模式识别方法具有较强的容错能力、自适应学习能力、并行信息处理能力。应学习能力、并行信息处理能力。l 例例 输入输出样本:输入输出样本:l 测试数据:测试数据:例例设计一个三层设计一个三层BP网络对数字网络对数字0至至9进行分类。进行分类。每每个个数数字字用用9 7的的网网格格表表示示,灰灰色色像像素素代代表表0,黑黑色色像像素素代代表表1。将将每每个个网网格格表表示示为为0,1的的长长位位串串。位位映映射射由由左左上上角角开开始始向向下直到网格的整个一列,然后重复其他列。下直到网格的整个一列,然后重复其他列。选选择择BP网网络络结结构构为为63-6-9。97个个输输入入
42、结结点点,对对应应上上述述网网格格的映射。的映射。9个输出结点对应个输出结点对应10种分类。种分类。使使用用的的学学习习步步长长为为0.3。训训练练600个个周周期期,如如果果输输出出结结点点的的值值大大于于0.9,则则取取为为ON,如如果果输输出出结结点点的的值值小小于于0.1,则则取取为为OFF。测试结果表明:除了测试结果表明:除了8以外,所有被测的数字都能够被正以外,所有被测的数字都能够被正确地识别。确地识别。对于数字对于数字8,神经网络的第,神经网络的第6个结点的输出值为个结点的输出值为0.53,第,第8个结点的输出值为个结点的输出值为0.41,表明第,表明第8个样本是模糊的,可能是数
43、个样本是模糊的,可能是数字字6,也可能是数字,也可能是数字8,但也不完全确信是两者之一。,但也不完全确信是两者之一。当训练成功后,对当训练成功后,对如图所示测试数据如图所示测试数据进行测试。测试数进行测试。测试数据都有一个或者多据都有一个或者多个位丢失。个位丢失。神经网络控制神经网络控制一、神经网络控制的优越性一、神经网络控制的优越性神经网络具有以下特性神经网络具有以下特性冗余性、容错性、本质的非线性、冗余性、容错性、本质的非线性、自组织、自学习、自适应;自组织、自学习、自适应;神经网络应用的领域神经网络应用的领域最优化、模式识别、信号处理、图形最优化、模式识别、信号处理、图形图像处理。图像处
44、理。控制理论发展过程:经典控制理论、状态空间、动态规划、最控制理论发展过程:经典控制理论、状态空间、动态规划、最优控制、智能控制。优控制、智能控制。许多难确定的非线性系统和控制精度的要求很高,需要新的控许多难确定的非线性系统和控制精度的要求很高,需要新的控制系统具有自适应的能力、良好的鲁棒性和实时性、计算简单、制系统具有自适应的能力、良好的鲁棒性和实时性、计算简单、柔性结构和自组织并行离散分布处理等智能信息处理的能力。柔性结构和自组织并行离散分布处理等智能信息处理的能力。产生了神经网络控制系统。产生了神经网络控制系统。神经网络控制的优越性神经网络控制的优越性神经网络控制的优越性主要表现为:神经
45、网络控制的优越性主要表现为:1、神经网络可以处理那些难以用模型或者规则描述的过程或、神经网络可以处理那些难以用模型或者规则描述的过程或系统,例如人骑自行车;系统,例如人骑自行车;2、神经网络采用并行分布式信息处理方式,具有很强的容错、神经网络采用并行分布式信息处理方式,具有很强的容错性。性。3、神经网络是本质的非线性系统。、神经网络是本质的非线性系统。4、神经网络具有很强的信息综合能力。可以同时处理不同类、神经网络具有很强的信息综合能力。可以同时处理不同类型的信息,具有很好的互补性与冗余性。利用神经网络,人们型的信息,具有很好的互补性与冗余性。利用神经网络,人们可以有效进行信息的融合来达到运动
46、学、动力模型和环境模型可以有效进行信息的融合来达到运动学、动力模型和环境模型间的有机结合。间的有机结合。5、神经网络的硬件实现非常方便。大规模集成电路技术的发、神经网络的硬件实现非常方便。大规模集成电路技术的发展为神经网络硬件的实现提供了技术手段。展为神经网络硬件的实现提供了技术手段。神经网络控制器的类型神经网络控制器的类型1、神经网络监督控制器、神经网络监督控制器神经网络控制器的类型神经网络控制器的类型神神经经网网络络控控制制器器实实际际上上是是一一个个前前馈馈控控制制器器,它它建建立立的的是是被被控控对对象象的的逆逆模模型型。神神经经网网络络控控制制器器通通过过对对传传统统控控制制器器的的
47、输输出出进进行行学学习习,在在线线调调整整网网络络的的权权值值,使使反反馈馈控控制制输输入入趋趋近近于于零零,从从而而使使神神经经网网络络控控制制器器逐逐渐渐在在控控制制作作用用中中占占据据主主导导地地位位,最最终终取取消消反反馈馈控控制制器器的的作作用用。一一旦旦系系统统出出现现干干扰扰,反反馈馈控控制制器器重重新新起起作作用用。这这种种前前馈馈加加反反馈馈的的监监督督控控制制方方法法,不不仅仅可可以以确确保保控控制制系系统统的的稳稳定性和鲁棒性,而且可有效地提高系统的精度和自适应能力。定性和鲁棒性,而且可有效地提高系统的精度和自适应能力。神经网络控制器的类型神经网络控制器的类型2、神经网络
48、直接逆控制器、神经网络直接逆控制器神经网络直接逆控制就是将被控对象的神经网络逆模型直接与神经网络直接逆控制就是将被控对象的神经网络逆模型直接与被控对象串联起来,以便使期望输出与对象实际输出之间的传被控对象串联起来,以便使期望输出与对象实际输出之间的传递函数为递函数为1 1。则将此网络作为前馈控制器后,被控对象的输出为。则将此网络作为前馈控制器后,被控对象的输出为期望输出。期望输出。显显然然,神神经经网网络络直直接接逆逆控控制制的的可可用用性性在在相相当当程程度度上上取取决决于于逆逆模模型型的的准准确确精精度度。由由于于缺缺乏乏反反馈馈,简简单单连连接接的的直直接接逆逆控控制制缺缺乏乏鲁鲁棒棒性
49、性。为为此此,一一般般应应使使其其具具有有在在线线学学习习能能力力,即即作作为为逆逆模模型型的神经网络连接权能够在线调整。的神经网络连接权能够在线调整。神经网络控制器的类型神经网络控制器的类型 下图为神经网络直接逆控制的两种结构方案。在图下图为神经网络直接逆控制的两种结构方案。在图(a)中,中,NN1和和NN2为具有完全相同的网络结构,并采用相同的学习算为具有完全相同的网络结构,并采用相同的学习算法,分别实现对象的逆。在图法,分别实现对象的逆。在图(b)中,神经网络中,神经网络NN通过评价函通过评价函数进行学习,实现对象的逆控制。数进行学习,实现对象的逆控制。神经网络控制器的类型神经网络控制器
50、的类型(a)神经网络控制器的类型神经网络控制器的类型(b)神经网络控制器的类型神经网络控制器的类型3、自适应网络控制器、自适应网络控制器与传统自适应控制相同,神经网络自适应控制也分为神经网与传统自适应控制相同,神经网络自适应控制也分为神经网络自校正控制和神经网络模型参考自适应控制两种。自校正络自校正控制和神经网络模型参考自适应控制两种。自校正控制根据对系统正向或逆模型的结果调节控制器内部参数,控制根据对系统正向或逆模型的结果调节控制器内部参数,使系统满足给定的指标,而在模型参考自适应控制中,闭环使系统满足给定的指标,而在模型参考自适应控制中,闭环控制系统的期望性能由一个稳定的参考模型来描述。控