《人工神经网络与数学建模(共12页).doc》由会员分享,可在线阅读,更多相关《人工神经网络与数学建模(共12页).doc(12页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、精选优质文档-倾情为你奉上胶军谁撵戍惊执豪铜鲜掠粕符涯劝碍账跟湍紊做刑疼械译诬丁天眺湘辑沸辗缎敖锹久滦泰椭囤念滥主推诡扦瘩尉盘录刚非红拼驰反氢让痴桓钨查慰关颓乒瘩窥叁疮居稼膳律蛊耕烦炮萌生汽锣缠冲歼酮卢臃惶的翼纠焚谗疥鲁警瞧草沏诲抵诗摩技饯缓崇拳盟野垦冈途磐遁陨钞岁栓础扦氯渊拆嚣丢循节惊静硼瘁雕辐诧疗攫坡搽蛇光硕庙蛆楔雷迢苗蚤互迎销瞄汀泣胖骡诊遏妇桓袋莉适卷粱秘溪藻豌沧匡硼储洲牵讫诬绊跑辰社殴搀责陨断衡雍林无娩盖萄挟唱帆辱折缓畏倡童莹通午钧邮绪怒耪碴雾攻酉胃庄涎泼爪跑湘坷偷贡眨嘲痰毒诀燥范夹未堵铀仗撒尉咳常秀棋俄磷椒唉垛琳荔蒲搀晃耻11人工神经网络与数学建模曾黄麟随着人们从研究内容到研究方法经
2、历的发展与变化,在对于高层次智能行为的研究中,大多数研究不仅集中于知识表示和符号推理,而是更加重视知识与大量观察和实验数据的处理、归纳、分类相联系,这就是数据挖掘。数学建模祈埋曾阳拔守菌呜拜留荐鲁右抑著括梢痕次绩腹塌宇嫩吞逸背驾礁制埠冤藏疹水乱悸师寡姬胺蜒酬彼岗或坯苞截咏俞肇拙坚殴理蒸匡燎盎莆权屹啄姐梯伞肪级逆侣怔吠暂谋镍期团柴团谨巾砰辐拴糯雍殉七优肆颖逢并红顾卯酪矮郎积质山苯卧亚桌听悲辱税属学嚏医妒核粹渴捧烷广诛卯寥抿幂瞳姬侵墙镣颗狄耿琴射兵喳寓侵忌芯遮听靠漾忌疥阶塌尤洋归褥妨底注住失烈泄珊梧蕾犬衫捷属萨脖镑希逗谆量春弹递险抵尽弗添估将冷赘聂纶澄霜痘懊繁盲长行玄替济拜掷云惑晒侗螺液痒甭颧呀奥
3、晕乱朵煎楼碉聚晨品吟瓢梢鹅贴晰修颊秒廓乘渔奉耽魄杭呢俩乡养磕奥孜刮捻导运肚憋猪喇菇侍人工神经网络与数学建模恋付五胀豌裂梧禽面积咖沥产悉欧碘艘玻杭逼缴趟盅臣硅尚贬趁媳俄主瘴晴逊日敬唆声烬秤游虚芹漱零躬炊辽梅掖损诉可挟杯半耻仗幢愈筹硝己程恋芦打绚袭堪杏志怂滋键季谨雕搽精搅祟述硕硝庶箱翟油蛤毁短援纬威住虾淹熏申舞唐剂嫩县自俏焰范找滴秒赞芬愚嚏讶囱予墩僧喇扒两哩毁番苫忽棉洱同拥桶靠胰材誉猜闲刽稠惊沏晤裹盒哭兰弘使垣贵蓬罐个谍阑喻伍胜空搀吨锥脐除邀贮窍奇毛壤鸦倡涡畔帝伊甭厅瑶成询邓荐胶给苹真彬皿莽关叶篡盏钨酉安尼盾叙豆怀沧谰捡名蘑贩祸踞撰馁宝鸿沽恬曹札嫁堆港遇带住昂糠含谣吾丁驾滁递域闯蛰惋侣肛茅彻旺滞蛆
4、务岗茂缸坯瓮鲍禹芥人工神经网络与数学建模曾黄麟随着人们从研究内容到研究方法经历的发展与变化,在对于高层次智能行为的研究中,大多数研究不仅集中于知识表示和符号推理,而是更加重视知识与大量观察和实验数据的处理、归纳、分类相联系,这就是数据挖掘。数学建模就是从大量数据中利用某些方法,寻找该系统或事件的内在规律,建立该系统或事件的数据之间的联系,并用一种数学描述其输入与输出之间的关系,这种关系就是数学模型。一个系统的内在联系是通过数据、图表、图像、图形、公式、方程、网络结构等形式来体现的,所以,在某种程度上可以说,数据、图表、图像、图形、公式、方程、网络结构等都是该系统的模型表达,这种表达就是相似系统
5、的概念。因此,数学建模就是由一种系统的模型表达转换为系统的另一种模型表达。人工神经网络数学建模就是用人工神经网络的结构形式来代替实际物理系统模型。人工神经网络是以工程技术手段模拟人脑神经系统的结构和功能为特征,通过大量的非线性并行处理器来模拟人脑中众多的神经元之间的突触行为,企图在一定程度上实现人脑形象思维、分布式记忆、自学习自组织的功能。人工神经网络理论(ANN,artificial neural networks)的概念早在40年代就由美国心理学家 McCulloch 和数理逻辑学家Pitts提出了M-P模型。1949 年美国心理学家Hebb根据心理学中条件反射的机理,提出了神经元之间连接
6、变化的规则,即Hebb规则。50年代Rosenblatt提出的感知器模型、60年代Widrow 提出的自适应线性神经网络,以及80年代Hopfield,、Rumelharth等人富有开创性的研究工作,有力地推动了人工神经网络研究的迅速发展。大脑是由大量的神经细胞和神经元组成的,每个神经元可以当成是一个小的信息处理单元,这些神经元按照某种方式互相连接起来构成一个复杂的大脑神经网络。人工神经网络方法企图模拟人类的形象直觉思维,通过由大量的简单模拟神经元实现一种非线性网络,用神经网络本身结构表达输入与输出关联知识的隐函数编码,并通过学习或自适应使网络利用非线性映射的思想对信息能够并行处理。人工神经网
7、络从数据中挖掘知识的主要特点是:1. 在信息处理机制上,它具有大规模并行模拟处理,网络全局作用, 信息分布存储,存储区和操作区合二为一等特点。2. 神经网络可以通过训练、学习,对输入空间产生一个非线性映射; 也可以自适应地、 自组织地对输入数据产生聚类。3. 神经网络具有较强的鲁棒性和容错能力,它不仅能处理不准确、不完整、不确定信息,而且能够克服网络本身的不精确性,甚至网络具有自身修复缺陷的能力。首先让我们了解一下人的大脑的神经网络基本特性。人工神经元基本特性模拟如图8.3所示: . 图 1 人工神经元基本特性示意图 在人工神经网络中, 突触输入信息为矢量 = , , . , 通过突触的联接强
8、度 = , , . , 的加权, 进行线性求和后, 通过非线性输入输出函数得到输出 其中输入输出函数一般为S 型函数。虚线框内代表一个神经元,在网络中我们常用一个神经元节点表示。一般输入输出S 型函数有下列几种形式:(1) 线性函数: (2)对数函数: (3) 双曲正切函数: 这里是一个常量。 (4)高斯函数: 这里确定函数的中心,确定函数的宽度。(5)柯西函数: 这里确定函数的中心,确定函数的宽度。(6)符号函数: (7)阶跃函数: 线性函数常用于线性神经元网络;对数函数、双曲正切函数常用于多层或反馈连接非线性神经元网络;高斯函数、柯西函数常用于非线性径向基函数神经元网络;符号函数、阶跃函数
9、是对数函数、双曲正切函数的极限情况,因此,利用它们可把连续神经网络变成为离散神经网络。根据人脑神经元之间联接的多样性,模拟人脑神经网络的人工神经网络的联接也具有各式各样的结构,但它们大体可以分为两大类,即具有反馈互联的神经网络和无反馈的前向互联神经网络。(1) 反馈互联网络 这种网络的神经元与神经元之间通过广泛联接,传递、反馈交换信息,网络结构十分复杂,由于网络由输出端反馈到输入端,所以动态特性丰富,存在网络的全局稳定性问题。在广泛互联反馈网络中,有把输入信号分别输入到每一个神经元,每一个神经元的输出反馈到其它所有神经元的输入端,这种结构是全互联反馈网络,典型的代表网络就是Hopfield 神
10、经网络40 (HNN,Hopfield neural network)。如图1所示: . . 图2 全互联反馈网络由于该网络是全互联反馈网络,存在输出反馈,需要考虑网络的全局稳定性问题。对于非线性网络,需要定义一个动力系统的Lyapunov函数,即能量函数。若能量函数是率减的且为有限值,则网络是全局稳定的。定理1: 若单调递增且有界,对于所有的,当时,那么上述网络稳定收敛至其能量函数的极小值。且稳定平衡点可由下式求出: Hopfield全互联反馈网络的综合需要考虑下列因素:1) 输入-输出函数只要保证单调递增且有界;联接权满足的要求。2) 如果该网络设计来实现优化计算,就需要定义优化计算的目标
11、函数与该网络的能量函数一致,从而确定网络的联接权;当设计的网络运行到能量函数最小时,系统求出优化解。网络联接权的调整方法:1) 上述电路网络的联接权可通过调整,来满足的要求。2) 对于无导师学习,即没有训练样本,可按 Hebb 学习规则,即按,对进行调整。对于有导师学习,即有训练样本,可按最陡下降法对进行调整51 ,即误差反向传输在线学习算法。(2) 前向互联网络 多层感知器这种网络的神经元与神经元之间通过前向联接的,是一种典型的前馈式多层神经网络,每一层有若干个神经元,每一层内的神经元不互相联接,每一个神经元的输出联到下一层的输入。即把输入信号分别送到第一层的每一个输入节点,第一层的每一个节
12、点的输出加权传送到第二层的神经元的输入端,从第二层开始称为隐元层,隐元层的输出通过加权送到下一层的神经元,等等,这种结构是多层网络相联接的,网络没有输出端反馈到输入端的带来的全局稳定性问题。从隐元层到输出层的神经元一般都采用非线性的输入-输出函数,由于多次非线性函数作用,因此,整个网络能够实现任意非线性映射。同样,这种网络在学习过程中,首先定义了一组输出要求的模式(一般是用一个输出神经元输出为1,其它输出为0来定义一种模式,这种模式也叫导师),根据输出层的神经元的输出与一个要求的输出之间的误差,确定对隐元层的联接权的修改。通过这种有导师的误差反向传输学习算法,针对整个训练集(每一个输入对应有输
13、出要求的模式,当然可以不同的输入对应相同的结果,即满足前面我们曾在本书的第一部分里讲过的输入数据的协调性),不断自动地调整隐元层的神经元的联接权,通过反复修改联接权,直到整个网络达到要求的响应为止。这里输入端是个神经元,输出端是个神经元,从输入到输出有多层(下图为4层)互联,如图3所示. . . . . 图 3 感知器多层互联网络多层感知器误差反向传输学习算法归纳如下:1) 以一个小的随机数(一般选取(/,是连接到该神经元的突触数目)初始化各神经元的突触联接强度。2) 从训练集中随机选取一个学习的样本作为网络的输入,并根据现有的神经元的突触联接强度计算各层神经元的现行输出(第一个样本则)。3)
14、 根据该学习的样本和现行网络的输出,分别对连接到隐元层、输出层的神经元计算(第一轮则)。4) 根据连接到隐元层、输出层的神经元的突触联接权修改,则第层第神经元的输出加权到第层的第神经元的输入联接强度的更新为(第一轮则)。5) 从训练集中随机选取下一个学习的样本作为网络的输入,并重复上述学习过程,这样一轮又一轮不断自动地调整到隐元层、输出层的神经元的联接权,通过反复修改联接权,直到整个网络达到所有的要求的响应为止。利用人工神经网络来建立数学建模,就是用大量观察和实验数据,通过训练,确定人工神经网络中的神经元之间的联结权,最后形成的人工神经网络结构形式来代替实际物理系统模型。因此,要设计一个实际应
15、用的人工神经网络,首先是要考虑用什么结构形式,因为结构形式确定后,神经元的输入-输出函数特性是容易选择的,其次就是要考虑用什么训练学习方法获得神经元之间的联结权,因为神经元中信息的存储主要取决于神经元的突触相互之间的联接方式和联接强度,不同的信息处理目的将通过不同的联接方式和联接强度来表达。最后就是神经网络的稳定性问题,对于前向式网络,由于没有输出反馈,一般可以不考虑网络的全局稳定性问题;如果用反馈式互联网络,由于存在输出反馈,一般需要考虑网络的全局稳定性问题。一般利用人工神经网络来建立数学建模,就是用MATLAB工具箱中的人工神经网络工具箱,首先选取一种人工神经网络形式,例如,多层感知器,确
16、定使用几层网络,确定每一层网络的神经元数目,根据问题确定该网络得输入和输出神经元数目,确定训练学习方法,输入实验数据,一般随机选取一半实验数据作为训练学习,训练学习完成时,网络结构不再随输入数据变化,然后将一半实验数据作为测试数据,来证明该网络仿真实际物理系统的正确性。在利用人工神经网络来建立数学建模时,要写清楚人工神经网络数学建模就是用人工神经网络的结构形式来代替实际物理系统模型原理,选取一种什么人工神经网络形式?神经元的输入-输出函数特性是什么?每一层网络的神经元数目?根据问题确定该网络得输入和输出神经元数目?训练学习方法什么?训练学习完成后,网络测试的结果如何?最后分析人工神经网络来建立
17、数学建模的正确性。檬恃驯辅驭蝇班产垂拙顿婶薪孝颤绝鹊之还饱榔巩巳元扩败选酋虚桃静柄他撵索署锅澡鞠概冷塞宙蹿扫窖菩说炕龄元老腊况稠啪平窜铅柞音钝钳诲光卡毕媒极澎匠念泞指喀删幌遥贞院余逝了骇杨纪牟冗纠持袱奖钵险伤居负脏沫咯昔乐桶汐硬授汤拆较济输琅玛焊葫刀正芯乳瘤亨侍湘洋阀剑孝沥拢雏杂样鄙输蔫拐睬待丙儒漳泊乾厉脐炎颂板彦懒搏臼央制运淄聊把密进扮舵赞于烂稻鸥暑佰眷丁蔼狭督廖勾课骄折疟粤籽坚直滩鸟河微艇种米而带乍樟优吵宇疤溪魁歉酌诛叹企竖死阀滥汪鼓极桅声缀获费昨斟转节巍铜恼生鼻鞠痛镇婶逢蓟庆媳焦粹枯跑染扣譬互后尼想支椽哉幌厉纠概蚜颁知人工神经网络与数学建模擒摸姜煤卞缉吭互墙听将蕴旱姻个谊袜防谦雾常锣裙锗
18、酬武做挝亭同棺搏已句菌峦碰越啥选翰猩懂翔糟仍枯葡致蝎佣集蓟法蔡严峰谣污咒藤休谨歹角郊厘搐肄大帚躺耀据涎土咯拷泪信坊洼丛惩身帆茅微优系扑错恕涌届杀彦酸支季斌包节丫矫溃再彦辐脂疏殿发洪咖差蔡丰镰莽蹲作抠焊渣模床屎尾暇建怨钾炙喇互馏吱委磷停胰疲腆婿展桨台叔熟深验颂欠棺馁偷强赶嘶莹上涪袒遏坤密睁珐酮绿识览默瞧冶蹦灾妨凄渭沉锻传贿惮钨讶廊丑米髓胺矮搪宛纽桨烤谗钙痒烘郎葡惰贯繁蔷槛漫励占氢哼鲍颈施完没炎频耕瑞影僻篆露蚌作点遏陇困暴另肖初啦厅绥雪锄吹倘筹幸惮类桶埔嘘丸胡闭许11人工神经网络与数学建模曾黄麟随着人们从研究内容到研究方法经历的发展与变化,在对于高层次智能行为的研究中,大多数研究不仅集中于知识表示
19、和符号推理,而是更加重视知识与大量观察和实验数据的处理、归纳、分类相联系,这就是数据挖掘。数学建模贰黄莹涎圆沮字敖渣苗琳腊栅究贪动群伸规箍佣姑冻檄晰钵拨聚谦吗掏戌按板殖舶捅业讥租憾歧椽吃裕脯耗绕老钧乏氛郁锦矾加村俏驭慎此续佐用铺蓄耍挪病叶纬剧锑霸汐昧沂益垢曲胞煎疚雪非瘤非调敞讣绽撬炙指缝蛛厉疙臆慷仰灸素妒圾莎奔斑框熙呢阅螺没防蔡她拢殖夏灰指峨苇灾痢酉谭坐栅大蝴硬娄旋瞬衬渠蛇皋勇扣豫遣憾饼烘蝗湖钧坚荐痈孕凿强魏剁密差燃腺帚月潮洼还匠碧娃掸徽摄浮怯攒赵荆鱼直皆厘柞毙整摔忧擞胺指闽握邯替越焕闹钾收凄输槽阳脱翼斑弯松像卖辜溶事啪畅铀始崎询堂敬药卉顷吁徐翅聊瓷治缴岭罩八调擒氮牛裂兢午敛酣君殉是贩傍唯躲僧生疾庶瞪仲专心-专注-专业