《人工神经网络.pptx》由会员分享,可在线阅读,更多相关《人工神经网络.pptx(56页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、会计学1人工神经网络人工神经网络2引引 言言人工神经网络的研究与计算机的研究几乎是同步发展人工神经网络的研究与计算机的研究几乎是同步发展n n19431943年,心理学家年,心理学家McCullochMcCulloch和数学家和数学家PittsPitts合作提出了神经元的数学模型,合作提出了神经元的数学模型,成为人工神经网络研究的开端成为人工神经网络研究的开端n n19491949年,心理学家年,心理学家D.HebbD.Hebb提出神经元之间突触联系强度可变的假设,提出神经元之间突触联系强度可变的假设,并据此提出神经元的学习准则,为神经网络的学习算法奠定了基础并据此提出神经元的学习准则,为神经
2、网络的学习算法奠定了基础n n19581958年,年,Rosenblatt Rosenblatt 提出了感知机模型,首次把神经网络的研究付诸工提出了感知机模型,首次把神经网络的研究付诸工程实践程实践n n19691969年,年,Minsky Minsky 和和Papert Papert 出版出版感知机感知机一书,从数学上深入分析了感一书,从数学上深入分析了感知机的原理,指出其局限性。加之计算机正处于全盛发展时期,早期知机的原理,指出其局限性。加之计算机正处于全盛发展时期,早期的人工智能研究也取得了巨大的成就,掩盖了发展新型计算机模型的的人工智能研究也取得了巨大的成就,掩盖了发展新型计算机模型的
3、迫切性,使人工神经网络的研究陷入低潮迫切性,使人工神经网络的研究陷入低潮第1页/共56页3引引 言言n n19821982年,年,HopfieldHopfield提出的提出的HopfieldHopfield网络模型,为联想记忆和最优化计算提网络模型,为联想记忆和最优化计算提供了一种新途径,大大促进了神经网络的研究供了一种新途径,大大促进了神经网络的研究n n19861986年,年,RumelhartRumelhart等提出了多层感知机的反向传播算法,克服了当初阻等提出了多层感知机的反向传播算法,克服了当初阻碍感知机模型继续发展的重要障碍。碍感知机模型继续发展的重要障碍。n n同时期,由于传统的
4、基于符号处理的人工智能在解决工程问题上遇到了同时期,由于传统的基于符号处理的人工智能在解决工程问题上遇到了许多困难;同时,尽管计算机性能不断提高,但在解决象模式识别、学许多困难;同时,尽管计算机性能不断提高,但在解决象模式识别、学习等对人来说轻而易举的问题时却显得非常困难。促使人们怀疑传统的习等对人来说轻而易举的问题时却显得非常困难。促使人们怀疑传统的Von NeumannVon Neumann机是否能够解决智能问题,也促使人们探索更接近人脑的机是否能够解决智能问题,也促使人们探索更接近人脑的计算模型。于是又形成了对神经网络研究的新热潮。计算模型。于是又形成了对神经网络研究的新热潮。n n九十
5、年代后期,发展趋于平稳。理论进展不大,以多层感知机网络为主,九十年代后期,发展趋于平稳。理论进展不大,以多层感知机网络为主,在很多领域取得了广泛的应用,也逐渐受到了一些批评。在很多领域取得了广泛的应用,也逐渐受到了一些批评。第2页/共56页4神经元模型神经元模型自然神经网络的基本构成与特点自然神经网络的基本构成与特点n n神经元(神经元(neuronneuron)n n细胞体(细胞体(cellcell)n n树突(树突(dendritedendrite)n n轴突(轴突(axonaxon)n n突触(突触(synapsessynapses)第3页/共56页5神经元模型神经元模型n n细胞体:神
6、经细胞本体细胞体:神经细胞本体n n树突:树突:大量分支,接受其它神经元信息大量分支,接受其它神经元信息n n突触:突触:神经元之间连接的特殊部位神经元之间连接的特殊部位n n轴突:轴突:远距离信息传输远距离信息传输第4页/共56页6神经元模型神经元模型特点特点n n多输入、单输出多输入、单输出n n具有非线性输入具有非线性输入/输出特性,激励达到一定强度后才激活输出特性,激励达到一定强度后才激活n n具有可塑性,传递强度可调节具有可塑性,传递强度可调节n n输出响应是各个输入的综合作用的结果,即所有输入的累加输出响应是各个输入的综合作用的结果,即所有输入的累加第5页/共56页7神经元模型神经
7、元模型fx1x2xnw1w2wny第6页/共56页8神经元模型神经元模型数学表达式数学表达式 y y:激活函数、转移函数、输出函数激活函数、转移函数、输出函数 :阈值阈值第7页/共56页9神经元模型神经元模型以矩阵表示第8页/共56页10神经元模型神经元模型激活函数激活函数 符号函数符号函数 线性函数线性函数 SigmoidSigmoid函数函数 x-1y+10第9页/共56页11神经元模型神经元模型神经元网络神经元网络n n神经元的作用:加工、传递信息(电脉冲信号)神经元的作用:加工、传递信息(电脉冲信号)n n神经元网络:大量神经元的复杂连接神经元网络:大量神经元的复杂连接n n通过大量简
8、单单元的广泛、复杂的连接而实现各种智能活动。通过大量简单单元的广泛、复杂的连接而实现各种智能活动。第10页/共56页12前馈运算和分类前馈运算和分类n n一个多层神经元网络由一个输入层、至少一个隐层、和一个输出层组成,各一个多层神经元网络由一个输入层、至少一个隐层、和一个输出层组成,各层之间通过可调节的权值互连层之间通过可调节的权值互连n n输入层各节点与特征向量各分量相对应输入层各节点与特征向量各分量相对应n n输出层与各类别相对应输出层与各类别相对应n n如下图所示如下图所示第11页/共56页13第12页/共56页14前馈运算和分类前馈运算和分类y yj j=f(net=f(netj j)
9、z zk k=f(net=f(netk k)第13页/共56页15前馈运算和分类前馈运算和分类 网络的网络的c c个输出个输出,可以看作是计算了可以看作是计算了c c个判别函数个判别函数 z zk k=g=gk k(x)(x)分类时将输入分类时将输入 x x 归于判别函数最大值所对应的类别。归于判别函数最大值所对应的类别。问题:问题:是否能实现任意复杂的判别函数?是否能实现任意复杂的判别函数?第14页/共56页16前馈运算和分类前馈运算和分类答案:答案:柯尔莫戈洛夫(柯尔莫戈洛夫(KolmogorovKolmogorov)定理:)定理:只要给定足够数量的隐结点、选择适当的非线性函数和权值,则任
10、何从输只要给定足够数量的隐结点、选择适当的非线性函数和权值,则任何从输入到输出的连续函数都可以用一个三层的网络来实现。入到输出的连续函数都可以用一个三层的网络来实现。三个条件三个条件n n隐节点数足够多隐节点数足够多多少合适?多少合适?n n合适的非线性函数合适的非线性函数什么的函数?什么的函数?n n正确的权值正确的权值如何确定?如何确定?第15页/共56页17前馈运算和分类前馈运算和分类激活函数应具备的特性激活函数应具备的特性n n非线性:否则多层网络将不具备非线性分类能力非线性:否则多层网络将不具备非线性分类能力n n饱和性:即存在最大值和最小值,这样可以限定饱和性:即存在最大值和最小值
11、,这样可以限定权值和激活函数的上下边界,使得训练次数有限权值和激活函数的上下边界,使得训练次数有限n n连续性连续性n n单调性:方便但非必要单调性:方便但非必要n n局部线性:当局部线性:当 net net 值值 较小时具有线性特征,使系较小时具有线性特征,使系统能够实现线性模型统能够实现线性模型第16页/共56页18前馈运算和分类前馈运算和分类Sigmoid函数(S型函数)f(x)=1/1+exp(-x)f(x)=f(x)1-f(x)第17页/共56页19前馈运算和分类前馈运算和分类双曲正切双曲正切第18页/共56页20前馈运算和分类前馈运算和分类我们选择我们选择激活函数确定了,然后是如何
12、获取权值激活函数确定了,然后是如何获取权值训练算法。训练算法。第19页/共56页21反向传播算法反向传播算法n n我们的目标是根据训练样本确定合适的权值我们的目标是根据训练样本确定合适的权值n n基本思想是根据误差反复调整权值直至误差满足要求基本思想是根据误差反复调整权值直至误差满足要求n n隐层到输出层的权值可以根据误差调整隐层到输出层的权值可以根据误差调整n n输入层到隐层的权值如何调整?输入层到隐层的权值如何调整?误差如何获得?误差如何获得?误差的反向回传!第20页/共56页22反向传播算法反向传播算法网络的两种操作模式网络的两种操作模式n n前馈前馈n n学习学习第21页/共56页23
13、反向传播算法反向传播算法n n令令 t tk k 为第为第 k k个输出的目标值(或期望值),个输出的目标值(或期望值),k=1,ck=1,c n n令令z zk k为第为第 k k个输出的实际值,个输出的实际值,k=1,ck=1,c n n令令w w 为网络的权值为网络的权值n n定义准则函数定义准则函数第22页/共56页24反向传播算法反向传播算法采用梯度下降法采用梯度下降法n n任取初值任取初值n n沿负梯度方向调整权值,即沿负梯度方向调整权值,即w(m+1)=w(m)+w(m+1)=w(m)+w(m)w(m)第23页/共56页25反向传播算法反向传播算法n n隐层到输出层的权值调整隐层
14、到输出层的权值调整 其中其中 称为敏感度(称为敏感度(sensitivitysensitivity),),反映了误差随反映了误差随 netnetk k 的变化情况的变化情况 第24页/共56页26反向传播算法反向传播算法由于由于 netnetk k=w wk kt t.y y 因此因此所以所以最后得:最后得:w wkj kj=k ky yj j=(t(tk k z zk k)f)f(net(netk k)y)yj j第25页/共56页27反向传播算法反向传播算法n n输入层到隐层的权值调整输入层到隐层的权值调整 第26页/共56页28反向传播算法反向传播算法而而故故 其中其中第27页/共56页
15、29反向传播算法反向传播算法故故第28页/共56页30反向传播算法反向传播算法采用采用SigmoidSigmoid激活函数激活函数有有 第29页/共56页31反向传播算法反向传播算法权值调整公式为权值调整公式为隐层到输出层隐层到输出层 w wkj kj=y yj j k k=y yj j(t(tk k z zk k)f)f(net(netk k)=)=y yj j(t(tk k z zk k)z)zk k(1-z(1-zk k)输入层到隐层输入层到隐层 w(m+1)=w(m)+w(m+1)=w(m)+w(m)w(m)第30页/共56页32反向传播算法反向传播算法第31页/共56页33反向传播算
16、法反向传播算法 Algorithm 1(Stochastic backpropagation)Algorithm 1(Stochastic backpropagation)第32页/共56页34反向传播算法反向传播算法Algorithm 2(Batch backpropagation)Algorithm 2(Batch backpropagation)第33页/共56页35反向传播算法反向传播算法学习曲线n n训练开始时,对训练集误的差通常会很高;随着学习的进展,误差会越来训练开始时,对训练集误的差通常会很高;随着学习的进展,误差会越来越小。训练过程中,误差总体上是下降的,偶尔也会发生波动越小
17、。训练过程中,误差总体上是下降的,偶尔也会发生波动n n最终能够达到的精度取决于训练样本的数量和网络的表达能力等因素最终能够达到的精度取决于训练样本的数量和网络的表达能力等因素n n在独立测试集上的误差通常比训练集上的误差大在独立测试集上的误差通常比训练集上的误差大n n为了决定什么时候停止训练,需要使用验证集为了决定什么时候停止训练,需要使用验证集(Validation set)(Validation set),验证集须独,验证集须独立于训练集和测试集立于训练集和测试集n n停止训练的时机很重要,停止过早,训练误差还很大,会造成停止训练的时机很重要,停止过早,训练误差还很大,会造成“欠学习欠
18、学习”;停止过晚,有可能会造成;停止过晚,有可能会造成“过学习过学习”(在隐节点数过多时)(在隐节点数过多时)n n在验证集上误差达到极小值时停止训练在验证集上误差达到极小值时停止训练在验证集上误差达到极小值时停止训练在验证集上误差达到极小值时停止训练第34页/共56页36反向传播算法反向传播算法第35页/共56页37反向传播算法反向传播算法隐节点数目隐节点数目n n隐节点数目隐节点数目n nHH决定了网络的表达能力,从而决定了决策边界的复杂程度。如果样本比较容易分开,则仅决定了网络的表达能力,从而决定了决策边界的复杂程度。如果样本比较容易分开,则仅需少量的隐节点;反之,则需要更多的隐节点需少
19、量的隐节点;反之,则需要更多的隐节点n n没有更多先验知识的情况下,很难在训练之前确定合适的隐节点数目没有更多先验知识的情况下,很难在训练之前确定合适的隐节点数目n n隐节点数目决定了网络中总的权值数隐节点数目决定了网络中总的权值数NNw w(也称自由量,包括权值和偏置)(也称自由量,包括权值和偏置)n n自由量的个数不应该超过训练样本数自由量的个数不应该超过训练样本数n nn n一个经验规则是使一个经验规则是使NNw w大致为大致为n/10n/10n n更基本的方法是根据训练数据相应调节网络的复杂程度,比如,可以先从较大的隐节点数开始,然后更基本的方法是根据训练数据相应调节网络的复杂程度,比
20、如,可以先从较大的隐节点数开始,然后再裁剪权值;反之亦然再裁剪权值;反之亦然第36页/共56页38反向传播算法反向传播算法要避免两种情况要避免两种情况n n隐节点数太多,网络具有较高的表达能力,可以精确地反映训隐节点数太多,网络具有较高的表达能力,可以精确地反映训练集的情况,虽然对训练集的误差很小。但是对测试集的误差练集的情况,虽然对训练集的误差很小。但是对测试集的误差却很高,造成却很高,造成“过拟合过拟合”。n n隐节点数太少,网络不具备足够的自由度以较好地拟合训练数隐节点数太少,网络不具备足够的自由度以较好地拟合训练数据,无论怎样训练,不仅对测试集对训练集的误差都较高,造据,无论怎样训练,
21、不仅对测试集对训练集的误差都较高,造成成“欠拟合欠拟合”。第37页/共56页39反向传播算法反向传播算法第38页/共56页40反向传播算法反向传播算法多重局部极小多重局部极小n n存在出现多重局部极小的可能性存在出现多重局部极小的可能性n n实际计算中,我们不希望网络陷入具有较高训练误差的局部极实际计算中,我们不希望网络陷入具有较高训练误差的局部极小值,这通常表明问题的主要特征没有被网络所学会。此时,小值,这通常表明问题的主要特征没有被网络所学会。此时,常规的作法是重新初始化权值再训练一遍,有必要的话还需要常规的作法是重新初始化权值再训练一遍,有必要的话还需要改变其他参数改变其他参数n n如果
22、误差已经很低,那么收敛到一个局部极小值也是可以接受如果误差已经很低,那么收敛到一个局部极小值也是可以接受的的n n通常,由于停止规则的作用,在还没有达到极小值时训练可能通常,由于停止规则的作用,在还没有达到极小值时训练可能会已经停止会已经停止第39页/共56页41改进反向传播的一些实用技术改进反向传播的一些实用技术增加冲量项(惯性项)增加冲量项(惯性项)n n误差曲面常有一些误差曲面常有一些“平坦区平坦区”(非常小的区域)。非常小的区域)。n n冲量(冲量(momentummomentum)的概念大致基于惯性定律)的概念大致基于惯性定律除非受到外力作用,除非受到外力作用,否则运动的物体将保持匀
23、速直线运动。否则运动的物体将保持匀速直线运动。n n引入冲量的目的在于,当误差曲面中存在平坦区时,可以更快地学引入冲量的目的在于,当误差曲面中存在平坦区时,可以更快地学习习 n n 为为0 01 1之间的小数之间的小数第40页/共56页42改进反向传播的一些实用技术改进反向传播的一些实用技术第41页/共56页43改进反向传播的一些实用技术改进反向传播的一些实用技术学习率学习率n n原则上,只要学习率足够小以保证收敛,那么它只会影响网络的学原则上,只要学习率足够小以保证收敛,那么它只会影响网络的学习速度,不会影响网络的学习结果习速度,不会影响网络的学习结果n n实际上,由于网络很少能充分训练而达
24、到真正的最小值,所以学习实际上,由于网络很少能充分训练而达到真正的最小值,所以学习率可以影响网络的最终性能率可以影响网络的最终性能n n通常,可以尝试将学习率设为通常,可以尝试将学习率设为0.10.1,若发现学习速度过慢,则将其调,若发现学习速度过慢,则将其调大;若发现学习过程发散,则将其调小大;若发现学习过程发散,则将其调小第42页/共56页44改进反向传播的一些实用技术改进反向传播的一些实用技术第43页/共56页45改进反向传播的一些实用技术改进反向传播的一些实用技术权值初始化权值初始化n n权值不能全部初始化为权值不能全部初始化为0 0,否则,将无法学习,否则,将无法学习n n权值初值不
25、能太大,否则,还未开始学习节点已饱和权值初值不能太大,否则,还未开始学习节点已饱和n n权值初值应该有正有负权值初值应该有正有负n n一般将各层权值初始化为一般将各层权值初始化为一般将各层权值初始化为一般将各层权值初始化为-0.5+0.5-0.5+0.5之间的随机数即可之间的随机数即可之间的随机数即可之间的随机数即可第44页/共56页46改进反向传播的一些实用技术改进反向传播的一些实用技术目标值目标值n n典型的方法是采用典型的方法是采用“c c中取中取1”1”的方式来表示目标向量的方式来表示目标向量n n由于由于f(x)f(x)的极值是的极值是0 0和和1 1,我们自然会认为目标值就应该是,
26、我们自然会认为目标值就应该是0 0和和1 1。但这。但这样会引起困难,对于任意有限的样会引起困难,对于任意有限的netnetk k,输出永远不可能达到饱和值,输出永远不可能达到饱和值,一定会存在误差,训练过程将无法终止。故应选取目标值使其接近一定会存在误差,训练过程将无法终止。故应选取目标值使其接近但不等于函数极值。但不等于函数极值。例:对于一个四类问题,如果样本属于第三类,则目标向量为:例:对于一个四类问题,如果样本属于第三类,则目标向量为:(0.1,0.1,0.9,0.1)0.1,0.1,0.9,0.1)t t 或或 (0.05,0.05,0.95,0.05)0.05,0.05,0.95,
27、0.05)t t 第45页/共56页47改进反向传播的一些实用技术改进反向传播的一些实用技术样本组织方式:样本组织方式:单样本(随机)单样本(随机)/批量批量n n批量方式通常比随机方式学习速度慢。批量方式通常比随机方式学习速度慢。n n原因:批量训练时,同一类别的样本对权值调整的贡献会越来越小。原因:批量训练时,同一类别的样本对权值调整的贡献会越来越小。n n尽管实际问题中,每类样本中的个体不会完全相同,但由于实际数尽管实际问题中,每类样本中的个体不会完全相同,但由于实际数据集中通常有很高的冗余度,所以上述结论仍然成立据集中通常有很高的冗余度,所以上述结论仍然成立n n结论:对于大多数应用,
28、尤其是训练集冗余度较大时,采用随机训结论:对于大多数应用,尤其是训练集冗余度较大时,采用随机训练练第46页/共56页48改进反向传播的一些实用技术改进反向传播的一些实用技术权值衰减权值衰减n n从具有较多权值数目的网络开始,在训练过程中对所有权值进行从具有较多权值数目的网络开始,在训练过程中对所有权值进行“衰减衰减”。即,每次权值更。即,每次权值更新之后,执行:新之后,执行:n n通过这种方式,对降低误差不起作用的权值将越来越小,直至可被完全删除。而真正对解决通过这种方式,对降低误差不起作用的权值将越来越小,直至可被完全删除。而真正对解决问题有用的权值则不会被衰减。问题有用的权值则不会被衰减。
29、第47页/共56页49改进反向传播的一些实用技术改进反向传播的一些实用技术输入信号的尺度变换输入信号的尺度变换n n假设我们现在使用两维特征,利用质量(以克为单位)和长度(以米为单位)特征对鱼进行假设我们现在使用两维特征,利用质量(以克为单位)和长度(以米为单位)特征对鱼进行分类。质量的数值将比长度的数值大几个数量级。在训练过程中,网络将主要根据质量来调分类。质量的数值将比长度的数值大几个数量级。在训练过程中,网络将主要根据质量来调解权值,长度因数值很小几乎不起作用。解权值,长度因数值很小几乎不起作用。n n为避免这种情况,当输入信号数值差距过大时,必须进行尺度变换,即进行训练数据的规一为避免
30、这种情况,当输入信号数值差距过大时,必须进行尺度变换,即进行训练数据的规一化(化(normalizationnormalization)第48页/共56页50改进反向传播的一些实用技术改进反向传播的一些实用技术隐层数目隐层数目n nBPBP算法可以适用于三层、四层或更多层的网络算法可以适用于三层、四层或更多层的网络n n实验表明具有多个隐层的网络更容易陷入局部极小值中实验表明具有多个隐层的网络更容易陷入局部极小值中n n由于三层网络足以实现任意复杂的判别函数,所以除非有特殊需由于三层网络足以实现任意复杂的判别函数,所以除非有特殊需要,一般均采用三层网络要,一般均采用三层网络第49页/共56页5
31、1讨讨 论论n n隐层的特征提取作用隐层的特征提取作用 神经网络能够实现一种特殊的非线性变换,把输入空间变换到由其隐层神经网络能够实现一种特殊的非线性变换,把输入空间变换到由其隐层输出所张成的空间,使得在这个空间中分类问题变得比较容易。故隐输出所张成的空间,使得在这个空间中分类问题变得比较容易。故隐层可以看作是一种特殊的特征提取器。神经网络同时完成了特征提取层可以看作是一种特殊的特征提取器。神经网络同时完成了特征提取和分类两个步骤。和分类两个步骤。n n神经网络和贝叶斯分类器神经网络和贝叶斯分类器 可以证明,当网络输出采用可以证明,当网络输出采用“c c中取中取1”1”的编码方式,且采用最小均
32、方误的编码方式,且采用最小均方误差作为准则函数时,多层感知机的输出就是对贝叶斯后验概率的估计。差作为准则函数时,多层感知机的输出就是对贝叶斯后验概率的估计。估计的精度受网络的复杂程度、训练样本数、训练样本反映真实分布估计的精度受网络的复杂程度、训练样本数、训练样本反映真实分布的程度及类别先验概率等多种因素的影响。的程度及类别先验概率等多种因素的影响。第50页/共56页52讨讨 论论n n产生于不同起源和针对不同目的的神经网络模型有很多种n n神经网络模式识别的一个重要特点就是它能够比较有效地解决很多非线性问题,而且在很多工程应用中取得了成功第51页/共56页53讨讨 论论问题n n神经网络中有
33、很多重要问题仍没有从理论上得到解决,因此实际应用中仍有神经网络中有很多重要问题仍没有从理论上得到解决,因此实际应用中仍有许多因素需要凭经验确定。比如,如何选择隐节点数、初始权值、学习率等。许多因素需要凭经验确定。比如,如何选择隐节点数、初始权值、学习率等。n n局部极小值问题、过学习与欠学习问题等普遍存在。局部极小值问题、过学习与欠学习问题等普遍存在。n n虽然多层感知机网络在理论上具有实现任意复杂决策面的能力,但当需要有虽然多层感知机网络在理论上具有实现任意复杂决策面的能力,但当需要有可靠的拒识时,则无法胜任。可靠的拒识时,则无法胜任。第52页/共56页54讨讨 论论 戴汝为戴汝为,社会智能
34、科学社会智能科学,上海交通大学出版社,上海交通大学出版社,20072007,pp.235.pp.235.第53页/共56页55讨讨 论论n n上述问题的存在,很大程度上制约了神经网络理论与应用的发展上述问题的存在,很大程度上制约了神经网络理论与应用的发展 n n尽管如此,神经网络仍是现代模式识别中的主流方法,是解决非线性问题的尽管如此,神经网络仍是现代模式识别中的主流方法,是解决非线性问题的有效手段有效手段n n神经网络的应用,已经渗透到智能控制、信号处理、优化计算、知识处理、神经网络的应用,已经渗透到智能控制、信号处理、优化计算、知识处理、预测预报等众多领域预测预报等众多领域第54页/共56
35、页56实实 验验用多层感知机网络解决三元异或问题用多层感知机网络解决三元异或问题 训练集:训练集:特征向量特征向量 目标值目标值 0 0 00 0 0 0.90.9 0 0 1 0 0 1 0.10.1 0 1 0 0 1 0 0.10.1 0 1 1 0 1 1 0.90.9 1 0 0 1 0 0 0.10.1 1 0 1 1 0 1 0.90.9 1 1 0 1 1 0 0.90.9 1 1 1 1 1 1 0.10.1 测试集:测试集:0 0 00 0 0 1 1 1 1 1 1 0.0 0.0 0.2 0.0 0.0 0.2 0.0 0.0 0.8 0.0 0.0 0.8 0.0 0.2 0.0 0.0 0.2 0.0 0.0 0.8 0.0 0.0 0.8 0.0 0.0 0.2 0.2 0.0 0.2 0.2 0.0 0.8 0.8 0.0 0.8 0.8第55页/共56页