6-自组织神经网络(SOM)(1).pptx

上传人:赵** 文档编号:12687680 上传时间:2022-04-25 格式:PPTX 页数:44 大小:979.86KB
返回 下载 相关 举报
6-自组织神经网络(SOM)(1).pptx_第1页
第1页 / 共44页
6-自组织神经网络(SOM)(1).pptx_第2页
第2页 / 共44页
点击查看更多>>
资源描述

《6-自组织神经网络(SOM)(1).pptx》由会员分享,可在线阅读,更多相关《6-自组织神经网络(SOM)(1).pptx(44页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、自组织神经网络的典型结构自组织神经网络的典型结构1 2自组织学习自组织学习(self-organized learning) : 通过自动寻找样本中的内在规律和本通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数质属性,自组织、自适应地改变网络参数与结构。与结构。 自组织网络的自组织功能是通过自组织网络的自组织功能是通过竞争竞争学习学习(competitive learning)实现的。)实现的。 1.1 基本概念基本概念 分类分类分类是在类别知识等导师信号的分类是在类别知识等导师信号的指导下,将待识别的输入模式分配到各自指导下,将待识别的输入模式分配到各自的模式类中去。的模

2、式类中去。 聚类聚类无导师指导的分类称为聚类,聚无导师指导的分类称为聚类,聚类的目的是将相似的模式样本划归一类,类的目的是将相似的模式样本划归一类,而将不相似的分离开而将不相似的分离开。34)()(iTiiXXXXXX 类 1 类 2 类 1 类 2 T T (a)基于欧式距离的相似性测量 (b)基于余弦法的相似性测量1.1 基本概念基本概念同一类内各个模式向量间的欧式距离不同一类内各个模式向量间的欧式距离不允许超过某一最大值允许超过某一最大值5iiTXXXXcos类 1 类 2 类 1 类 2 T T (a)基于欧式距离的相似性测量 (b)基于余弦法的相似性测量 相似性测量相似性测量余弦法余

3、弦法1.1 基本概念基本概念余弦法适合模式向量相同或模式特征余弦法适合模式向量相同或模式特征只与向量方向相关的相似性测量只与向量方向相关的相似性测量同一类内同一类内各个模式各个模式向量间的向量间的夹角不允夹角不允许超过某许超过某一最大夹一最大夹角角T T6竞争学习规则竞争学习规则Winner-Take-All 网络的输出神经元之间相互竞争以求被网络的输出神经元之间相互竞争以求被激活或点火,结果在每一时刻只有一个输激活或点火,结果在每一时刻只有一个输出神经元被激活或点火。这个被激活的神出神经元被激活或点火。这个被激活的神经元称为竞争获胜神经元,而其它神经元经元称为竞争获胜神经元,而其它神经元的状

4、态被抑制,故称为的状态被抑制,故称为Winner Take All。71.1.向量归一化向量归一化 首先将当前输入模式向量首先将当前输入模式向量X X和竞争层中各神经元对应的内星向量和竞争层中各神经元对应的内星向量W Wj j 全部进行归一化处理;全部进行归一化处理; (j=1,2,(j=1,2,m),m)Tnjjnnjjxxxx12121.XXX8原始向量原始向量 * * * * * * * * 9归一化后的向量归一化后的向量 * * * * * * * * * * 10当网络得到一个输入模式向量时,当网络得到一个输入模式向量时,竞争层的所有神经元对应的内星权向量均与其进行相竞争层的所有神经

5、元对应的内星权向量均与其进行相似性比较,并将最相似的内星权向量判为竞争获胜神似性比较,并将最相似的内星权向量判为竞争获胜神经元。经元。11jmjjWXWXmin,.,2,1*)()(*jTjjWXWXWXTjTjTjT*2WWXWXX)1(2*XWTj 从上式可以看出,欲使两单位向量的欧式距离从上式可以看出,欲使两单位向量的欧式距离最小,须使两向量的点积最大。即:最小,须使两向量的点积最大。即:)(max,.,2, 1*XWXWTjmjTj12竞争学习规则竞争学习规则胜者为王胜者为王(Winner-Take-All)3.3.网络输出与权值调整网络输出与权值调整*01) 1(jjjjtoj*(1

6、)( )( )()jjjjjtttWWWWX W)()1(ttjjWW j j j j* * 步骤步骤3 3完成后回到步骤完成后回到步骤1 1继续训练,直到学习率继续训练,直到学习率衰减到衰减到0 0。获胜神经元输出获胜神经元输出为为1 1,其余为,其余为0 0j=j*之外的j13 * * * * * * * * 竞争学习的几何意义竞争学习的几何意义14竞争学习的几何意义竞争学习的几何意义 * 1W *jW * )()()()(*ttttjpWXW * )(*1tjW )(tpX jW mW * *15例例4.1 4.1 用竞争学习算法将下列各模式分为用竞争学习算法将下列各模式分为2 2类:类

7、:6 . 08 . 01X9848. 01736. 02X707. 0707. 03X9397. 0342. 04X8 . 06 . 05X解:为作图方便,将上述模式转换成极坐标形式解:为作图方便,将上述模式转换成极坐标形式 :89.3611X8012X5 .4413X7014X13.5315X竞争层设两个权向量,随机初始化为单位向量:竞争层设两个权向量,随机初始化为单位向量:上式中,上式中,X1=X1=(x,yx,y)T T0101)0(1W180101)0(2W16 x5 x3 x1 w2 w1 x2 x4 训 练次 数W W1W W21234567891 01 11 21 31 41 5

8、1 61 71 81 92 01 8 . 4 3 - 3 0 . 8 7 - 3 2 1 1 2 4 2 4 3 4 3 4 4 4 4 0 . 5 4 0 . 5 4 3 4 3 4 7 . 5 4 2 4 2 4 3 . 5 4 3 . 5 4 8 . 5 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 3 0 - 1 3 0 - 1 0 0 - 1 0 0 - 1 0 0 - 9 0 - 9 0 - 8 1 - 8 1 - 8 1 - 8 0 . 5 - 8 0 . 5 - 7 5 - 7 5 17 x5 x3 x1 w2 x2 x

9、4 w1 训 练 次 数 W W1 W W2 1 1 2 3 4 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 2 0 1 1 8 8 . . 4 4 3 3 - 3 0 . 8 7 - 3 2 1 1 2 4 2 4 3 4 3 4 4 4 4 0 . 5 4 0 . 5 4 3 4 3 4 7 . 5 4 2 4 2 4 3 . 5 4 3 . 5 4 8 . 5 - - 1 1 8 8 0 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 3 0 - 1 3 0 - 1 0 0 - 1 0 0

10、 - 1 0 0 - 9 0 - 9 0 - 8 1 - 8 1 - 8 1 - 8 0 . 5 - 8 0 . 5 - 7 5 - 7 5 18 x5 x3 x1 w2 x2 x4 w1 训 练 次 数 W W1 W W2 1 2 2 3 4 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 2 0 1 8 . 4 3 - - 3 3 0 0 . . 8 8 7 - 3 2 1 1 2 4 2 4 3 4 3 4 4 4 4 0 . 5 4 0 . 5 4 3 4 3 4 7 . 5 4 2 4 2 4 3 . 5 4 3 . 5 4 8 .

11、 5 - 1 8 0 - - 1 1 8 8 0 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 3 0 - 1 3 0 - 1 0 0 - 1 0 0 - 1 0 0 - 9 0 - 9 0 - 8 1 - 8 1 - 8 1 - 8 0 . 5 - 8 0 . 5 - 7 5 - 7 5 19 x5 x3 x1 w2 x2 x4 w1 训 练 次 数 W W1 W W2 1 2 3 3 4 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 2 0 1 8 . 4 3 - 3 0 . 8 7 7 - 3 2 1 1

12、 2 4 2 4 3 4 3 4 4 4 4 0 . 5 4 0 . 5 4 3 4 3 4 7 . 5 4 2 4 2 4 3 . 5 4 3 . 5 4 8 . 5 - 1 8 0 - 1 8 0 - - 1 1 8 8 0 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 3 0 - 1 3 0 - 1 0 0 - 1 0 0 - 1 0 0 - 9 0 - 9 0 - 8 1 - 8 1 - 8 1 - 8 0 . 5 - 8 0 . 5 - 7 5 - 7 5 20 x5 x3 x1 w2 x2 x4 w1 训 练 次 数 W W1 W W2 1 2 3 4 4 5 6 7

13、 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 2 0 1 8 . 4 3 - 3 0 . 8 7 - - 3 3 2 2 1 1 2 4 2 4 3 4 3 4 4 4 4 0 . 5 4 0 . 5 4 3 4 3 4 7 . 5 4 2 4 2 4 3 . 5 4 3 . 5 4 8 . 5 - 1 8 0 - 1 8 0 - 1 8 0 - - 1 1 8 8 0 0 - 1 8 0 - 1 8 0 - 1 3 0 - 1 3 0 - 1 0 0 - 1 0 0 - 1 0 0 - 9 0 - 9 0 - 8 1 - 8 1 - 8 1 - 8

14、 0 . 5 - 8 0 . 5 - 7 5 - 7 5 21 x5 x3 x1 w2 x2 x4 w1 训 练 次 数 W W1 W W2 1 2 3 4 5 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 2 0 1 8 . 4 3 - 3 0 . 8 7 - 3 2 1 1 1 1 2 4 2 4 3 4 3 4 4 4 4 0 . 5 4 0 . 5 4 3 4 3 4 7 . 5 4 2 4 2 4 3 . 5 4 3 . 5 4 8 . 5 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - - 1 1 8 8 0

15、 0 - 1 8 0 - 1 3 0 - 1 3 0 - 1 0 0 - 1 0 0 - 1 0 0 - 9 0 - 9 0 - 8 1 - 8 1 - 8 1 - 8 0 . 5 - 8 0 . 5 - 7 5 - 7 5 22 x5 x3 x1 w2 x2 x4 w1 训 练 次 数 W W1 W W2 1 2 3 4 5 6 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 2 0 1 8 . 4 3 - 3 0 . 8 7 - 3 2 1 1 2 2 4 4 2 4 3 4 3 4 4 4 4 0 . 5 4 0 . 5 4 3 4 3 4

16、 7 . 5 4 2 4 2 4 3 . 5 4 3 . 5 4 8 . 5 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - - 1 1 8 8 0 0 - 1 3 0 - 1 3 0 - 1 0 0 - 1 0 0 - 1 0 0 - 9 0 - 9 0 - 8 1 - 8 1 - 8 1 - 8 0 . 5 - 8 0 . 5 - 7 5 - 7 5 23 x5 x3 x1 x2 x4 w1 w2 训 练 次 数 W W1 W W2 1 2 3 4 5 6 7 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 2

17、 0 1 8 . 4 3 - 3 0 . 8 7 - 3 2 1 1 2 4 2 2 4 4 3 4 3 4 4 4 4 0 . 5 4 0 . 5 4 3 4 3 4 7 . 5 4 2 4 2 4 3 . 5 4 3 . 5 4 8 . 5 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - - 1 1 3 3 0 0 - 1 3 0 - 1 0 0 - 1 0 0 - 1 0 0 - 9 0 - 9 0 - 8 1 - 8 1 - 8 1 - 8 0 . 5 - 8 0 . 5 - 7 5 - 7 5 24 x5 x3 x1 x2 x4 w

18、1 w2 训 练 次 数 W W1 W W2 1 2 3 4 5 6 7 8 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 2 0 1 8 . 4 3 - 3 0 . 8 7 - 3 2 1 1 2 4 2 4 3 3 4 4 3 4 4 4 4 0 . 5 4 0 . 5 4 3 4 3 4 7 . 5 4 2 4 2 4 3 . 5 4 3 . 5 4 8 . 5 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 3 0 - - 1 1 3 3 0 0 - 1 0 0 - 1 0 0 - 1 0

19、 0 - 9 0 - 9 0 - 8 1 - 8 1 - 8 1 - 8 0 . 5 - 8 0 . 5 - 7 5 - 7 5 25 x5 x3 x1 x2 x4 w1 w2 训 练 次 数 W W1 W W2 1 2 3 4 5 6 7 8 9 1 1 0 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 2 0 1 8 . 4 3 - 3 0 . 8 7 - 3 2 1 1 2 4 2 4 3 4 3 4 4 4 4 4 4 0 . 5 4 0 . 5 4 3 4 3 4 7 . 5 4 2 4 2 4 3 . 5 4 3 . 5 4 8 . 5 - 1 8 0

20、 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 8 0 - 1 3 0 - 1 3 0 - 1 0 0 - - 1 1 0 0 0 0 - 1 0 0 - 9 0 - 9 0 - 8 1 - 8 1 - 8 1 - 8 0 . 5 - 8 0 . 5 - 7 5 - 7 5 26 (Self-Organizing feature MapSelf-Organizing feature Map) 19811981年芬兰年芬兰HelsinkHelsink大学的大学的T.KohonenT.Kohonen教授提出一教授提出一种自组织特征映射网,简称种自组织特征映射网,简称SOM

21、SOM网网,又称,又称KohonenKohonen网网。 KohonenKohonen认为:一个神经网络接受外界输入模式时,认为:一个神经网络接受外界输入模式时,将会分为不同的对应区域,各区域对输入模式具有不将会分为不同的对应区域,各区域对输入模式具有不同的响应特征,而且这个过程是自动完成的。自组织同的响应特征,而且这个过程是自动完成的。自组织特征映射正是根据这一看法提出来的,其特点与人脑特征映射正是根据这一看法提出来的,其特点与人脑的自组织特性相类似。的自组织特性相类似。 生物学研究的事实表明,在人脑的感觉通道生物学研究的事实表明,在人脑的感觉通道上,神经元的组织原理是上,神经元的组织原理是

22、有序排列有序排列。因此当人脑通。因此当人脑通过感官接受外界的特定时空信息时,大脑皮层的过感官接受外界的特定时空信息时,大脑皮层的特特定定区域区域兴奋兴奋,而且类似的外界信息在对应区域是,而且类似的外界信息在对应区域是连连续映象续映象的。的。 对于某一图形或某一频率的特定兴奋过程,神对于某一图形或某一频率的特定兴奋过程,神经元的有序排列以及对外界信息的连续映象是自组经元的有序排列以及对外界信息的连续映象是自组织特征映射网中竞争机制的生物学基础。织特征映射网中竞争机制的生物学基础。27 SOMSOM网共有两层,输入层模拟感知外界输入信网共有两层,输入层模拟感知外界输入信息的视网膜,输出层模拟做出响

23、应的大脑皮层。息的视网膜,输出层模拟做出响应的大脑皮层。 28 (a)一维线阵 (b)二维平面线阵 SOMSOM网的获胜神经元对其邻近神经元的网的获胜神经元对其邻近神经元的影响是由近及远,由兴奋逐渐转变为抑制,影响是由近及远,由兴奋逐渐转变为抑制,因此因此其学习算法中不仅获胜神经元本身要调其学习算法中不仅获胜神经元本身要调整权向量,它周围的神经元在其影响下也要整权向量,它周围的神经元在其影响下也要程度不同地调整权向量。程度不同地调整权向量。这种调整可用三种这种调整可用三种函数表示:函数表示:2930 以获胜神经元为中心设定一个邻域半径,该以获胜神经元为中心设定一个邻域半径,该半径圈定的范围称为

24、半径圈定的范围称为优胜邻域优胜邻域。在。在SOMSOM网学习算法网学习算法中,优胜邻域内的所有神经元均按其离开获胜神中,优胜邻域内的所有神经元均按其离开获胜神经元的距离远近不同程度地调整权值。经元的距离远近不同程度地调整权值。 优胜邻域开始定得很大,优胜邻域开始定得很大,但其大小随着训练但其大小随着训练次数的增加不断收缩,最终收缩到半径为零次数的增加不断收缩,最终收缩到半径为零。31 训练阶段训练阶段32 * *W W4 4 W W1 1 * * W W2 2 * * W W3 3* * * *W W5 5 * * * * W W1 1 W W2 2 * * W W3 3 * *W W5 5

25、* * W W4 4 w1 w2 w3 w4 w5 工作阶段工作阶段33 * * * * W W1 1 W W2 2 * * W W3 3 * *W W5 5 * * W W4 4 * * * * W W1 1 W W2 2 * * W W3 3 * *W W5 5 * * W W4 4 KohonenKohonen 学习算法学习算法(1)初始化初始化 对输出层各权向量赋小随机数并进行归一化处理,得对输出层各权向量赋小随机数并进行归一化处理,得到到 ,j=1,2,j=1,2,m m;建立初始优胜邻域;建立初始优胜邻域N Nj j* *(0)(0);学习率;学习率 赋初始赋初始值。值。(2)接受

26、输入接受输入 从训练集中随机选取一个输入模式并进行归一化处理,从训练集中随机选取一个输入模式并进行归一化处理,得到得到 ,p p 1,2,1,2,P,P。(3)寻找获胜节点寻找获胜节点 计算计算 与与 的点积,的点积,j=1,2,j=1,2,m m,从中选出点积,从中选出点积最大的获胜节点最大的获胜节点j j* *。(4)定义优胜邻域定义优胜邻域N Nj j* *( (t t) ) 以以j j* *为中心确定为中心确定t t 时刻的权值调整域,一般时刻的权值调整域,一般初始邻域初始邻域N Nj j* *(0)(0)较大,训练过程中较大,训练过程中N Nj j* *( (t t) )随训练时间逐

27、渐收缩。随训练时间逐渐收缩。34jWpXpXjWKohonenKohonen学习算法学习算法35 Nj*(0) Nj*(0) Nj*(1) Nj*(1) Nj*(2) Nj*(2)(5)调整权值调整权值 对优胜邻域对优胜邻域N Nj j* *( (t t) )内的所有节点调整权值:内的所有节点调整权值: i=1,2,i=1,2,n n j j N Nj j* *( (t t) ) 式中,式中, 是训练时间是训练时间t t 和邻域内第和邻域内第j j 个神经元与获个神经元与获胜神经元胜神经元 j j* * 之间的拓扑距离之间的拓扑距离N N 的函数,该函数一般的函数,该函数一般有以下规律:有以下

28、规律:36)(),()()1(twxNttwtwijpiijij),( NtNt,KohonenKohonen学习算法学习算法(5)调整权值调整权值37NetNt)(),(t) (t) (t)(0) (0) (0) 0 t 0 t 0 t(6)结束检查结束检查 学习率是否衰减到零或某个预定的正学习率是否衰减到零或某个预定的正小数?小数?KohonenKohonen学习算法学习算法38初始化、归一化权向量 W:jW,j=1,2,m;建立初始优胜邻域 Nj*(0)学习率(t)赋初始值输入归一化样本pX,p1,2,P计算点积pTjXW,j=1,2,m选出点积最大的获胜节点 j*定义优胜邻域 Nj*(

29、t)对优胜邻域 Nj*(t)内节点调整权值:)()()()(twxN, ttw1twijpiijiji=1,2,n jNj*(t) N )(tmin Y结束K o h o n e nK o h o n e n 学 习 算 法 程 序 流 程学 习 算 法 程 序 流 程 SOM网络的功能网络的功能SOM网络的功能特点之一是:保序映射,即能将网络的功能特点之一是:保序映射,即能将输入空间的样本模式类有序地映射在输出层上。输入空间的样本模式类有序地映射在输出层上。例例 动物属性特征映射动物属性特征映射1989年年Kohonen给出一个给出一个SOM网的著名应用实例网的著名应用实例,即把不同的动物按

30、其属性映射到二维输出平面上,即把不同的动物按其属性映射到二维输出平面上,使属性相似的动物在,使属性相似的动物在SOM网输出平面上的位置网输出平面上的位置也相近。也相近。训练集选了训练集选了16种动物,每种动物用一个种动物,每种动物用一个29维向量维向量来表示。前来表示。前16个分量构成符号向量(不同的动物个分量构成符号向量(不同的动物进行进行16取取1编码),后编码),后13个分量构成属性向量,描个分量构成属性向量,描述动物的述动物的13种属性的有或无(用种属性的有或无(用1或或0表示)。表示)。16种动物的属性向量(种动物的属性向量(29维向量的后维向量的后13个分量)个分量) 动物动物属性

31、属性鸽鸽子子母母鸡鸡鸭鸭 鹅鹅 猫猫头头鹰鹰隼隼鹰鹰狐狐狸狸狗狗狼狼猫猫虎虎狮狮马马斑斑马马牛牛小小1111110000100000中中0000001111000000大大00000000000111112只只腿腿11111110000000004只只腿腿0000000111111111毛毛0000000111111111蹄蹄0000000000000111 动物动物属性属性鸽鸽子子母母鸡鸡鸭鸭 鹅鹅 猫猫头头鹰鹰隼隼鹰鹰狐狐狸狸狗狗狼狼猫猫虎虎狮狮马马斑斑马马牛牛鬃毛鬃毛0000000000000110羽毛羽毛1111111000000000猎猎0000111101111000跑跑00000

32、00011011110飞飞1001111000000000泳泳0011000000000000 SOM网输出平面上有网输出平面上有1010个神经元,个神经元,16个动物模式轮番个动物模式轮番输入训练,最后输出平面呈现输入训练,最后输出平面呈现16种动物属性特征映射,属性相种动物属性特征映射,属性相似的挨在一起,实现了特征的有序分布。似的挨在一起,实现了特征的有序分布。1010神经元神经元X向量(向量(29维)维)前前16个分量个分量(16取取1,表达,表达动物种类。)动物种类。)后后13个分量(表达动物属性)个分量(表达动物属性)鸭鸭鹅鹅鸽鸽母鸡母鸡马马斑马斑马牛牛隼隼狼狼虎虎狮狮猫猫狗狗狐狐

33、猫头鹰猫头鹰鹰鹰动物属性特征映射动物属性特征映射 SOM网的功能特点之二是数据压缩。网的功能特点之二是数据压缩。 将高维空间的样本在保持拓扑结构不变的条件下投影到将高维空间的样本在保持拓扑结构不变的条件下投影到低维空间。如上例中输入样本空间为低维空间。如上例中输入样本空间为29维,通过维,通过SOM网后压网后压缩为二维平面的数据。缩为二维平面的数据。 SOM网的功能特点之三是特征抽取。(规律的发现)网的功能特点之三是特征抽取。(规律的发现) 在高维模式空间,很多模式的分布具有复杂的结构,从数在高维模式空间,很多模式的分布具有复杂的结构,从数据观察很难发现其内在规律。当通过据观察很难发现其内在规

34、律。当通过SOM网映射到低维输出网映射到低维输出空间后,其规律往往一目了然,实现某种特征抽取的映射。空间后,其规律往往一目了然,实现某种特征抽取的映射。即高维空间的向量经过特征抽取后可以在低维特征空间更加即高维空间的向量经过特征抽取后可以在低维特征空间更加清晰地表达,因此映射的意义不仅仅是单纯的数据压缩,更清晰地表达,因此映射的意义不仅仅是单纯的数据压缩,更是一种规律发现。如上例是一种规律发现。如上例29维映射到二维后,相近属性的动维映射到二维后,相近属性的动物实现了聚类分布的特点。物实现了聚类分布的特点。 SOM网有许多应用实例:如的听写打字机(声音识别)网有许多应用实例:如的听写打字机(声

35、音识别),解决旅行商最优路经问题,皮革外观效果分类等。,解决旅行商最优路经问题,皮革外观效果分类等。 无线车辆自组网中用SOM自动组网44吴怡;杨琼;吴庆祥;沈连丰;林潇; 基于自组织映射神经网络的VANET组网算法,:通信学报2011年第12期,第136-145页 No.1 sg1 Group 6 26.0763 119.311 26.0708 119.353 348.75 90 No.2 sg2 Group 2 26.0762 119.311 26.0943 119.313 348.75 348.75 No.3 sg3 Group 6 26.0761 119.311 26.0693 119

36、.359 348.75 90 No.4 sg4 Group 2 26.076 119.311 26.106 119.292 348.75 348.75 No.5 sg5 Group 2 26.0763 119.311 26.1103 119.32 348.75 348.75 No.6 sg6 Group 6 26.0762 119.311 26.063 119.367 348.75 90 No.7 sg7 Group 2 26.0761 119.311 26.0975 119.283 348.75 348.75 No.8 sg8 Group 2 26.076 119.311 26.0855 119.245 348.75 348.75 No.9 sy1 Group 3 26.0763 119.311 26.0382 119.309 168.75 168.75 No.10 sy2 Group 3 26.0762 119.311 25.7656 119.293 168.75 168.75 No.11 sy3 Group 3 26.0761 119.311 25.8232 119.522 168.75 168.75 输入数据输出分组

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 技术资料 > 技术方案

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁