《化工过程模拟与分析(第八章经验建模方法).ppt》由会员分享,可在线阅读,更多相关《化工过程模拟与分析(第八章经验建模方法).ppt(26页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、第八章第八章 经验建模方法经验建模方法内容简介内容简介1.经验建模方法的应用场合2.神经网络3.支持向量机4.经验建模的缺陷8.1 经验建模的应用场合经验建模的应用场合机理建模的不足机理建模的不足1.建模难度大,需要全面准确地理论支撑;2.某些机理方程非常复杂,难以用现有的数学理论求解;3.机理分析总是基于很多简化和假设之上;化工领域中机理建模的难处化工领域中机理建模的难处 化工领域中,由于研究对象包括了复杂多样的原子间相互作用,而人们对这一领域的认识还相当欠缺,更难以直接用解析式表达和求解,所以要从机理出发推算和把握如此复杂的体系和过程,在可预见的将来尚难办到。原油精馏过程原油精馏过程干点干
2、点把100毫升油品样本放在一个带有支管的小烧瓶里,插上温度机进行加热蒸馏,支管经过冷凝外套后插到另一个有刻度的容器内。当油蒸汽冷凝出第一滴油时温度计所指示的温度,叫做初馏点初馏点;当初馏物的体积达到10毫升时的温度,叫做10%点点;依次可以得到20%点、30%点等等蒸出最后一滴油蒸出最后一滴油时的温度,叫做干点干点。实例实例 常压塔塔顶汽油干点软测量问题 为更好控制原油精馏装置,必须及时获得精馏出的油品的干点值(无法在线测量),该值受下列因素影响:常压塔塔底蒸汽量,回流比,一线蒸汽量,塔顶温度,塔顶压力,蒸汽温度,常压塔总进料,进料温度,一线采出量,回流温度且难以开发干点与上述影响因素之间的机
3、理模型,必须采用经验建模方法获得其影响因素与干点之间的经验模型,即建立:干点干点干点干点=f f(塔底蒸汽量,回流比,(塔底蒸汽量,回流比,(塔底蒸汽量,回流比,(塔底蒸汽量,回流比,.,回流温度),回流温度),回流温度),回流温度)函数经验建模的作用经验建模的作用 凭籍解析方程求解极为困难得体系,可以通过实验获取数据,并建立经验模型加以认识,或提供线索,以便用较小的工作量和较少的盲目性解决在化工领域中的各种实际问题。经验模型的分类经验模型的分类1、当因变量为离散变量时,模型可称为模式分类模型模式分类模型;药物活性识别、物料等级评定、化工领域中的流体的流型识别和故障诊断等问题。2、当因变量为连
4、续变量时,模型可称为函数回归模型函数回归模型。药物的结构-活性关系建模、化工过程建模和软测量等问题。经验建模问题的一般表述(基于经验风险)经验建模问题的一般表述(基于经验风险)经验建模方法分类经验建模方法分类线性方法线性方法 线性回归、主成份回归、偏最小二乘回归非线性方法非线性方法 多项式回归、投影寻踪、神经网络、支持向量机神经网络、支持向量机8.2 神经网络(神经网络(Artificial neural networks,ANN)常用ANN包含递归神经网络、Hopfield网络和误差反传神误差反传神经网络(经网络(Error back propgation neural networks,常
5、简称常简称BP网网络)络)等。BPBP网络结构网络结构输入层至输入层至隐层连接隐层连接权权隐层至输出隐层至输出层连接权层连接权隐层单个神经元网络示意图隐层单个神经元网络示意图单输出单输出BPBP网络的函数表达式网络的函数表达式设观测样本为:隐层活化函数为Logistic函数:输出层活化函数为线性函数,则单输出BP网络函数为:ih 输入层至隐层ho 隐层至输出层b 神经元的阈值H 隐层神经元数目BPBP网络的训练目标函数网络的训练目标函数神经网络的训练算法神经网络的训练算法基于梯度下降共轭梯度法LM算法BPBP网络应用步骤网络应用步骤1、数据预处理、数据预处理 将训练样本输入和输出归一化至-1,
6、1区间或均值为0标准差为1;2、网络结构选择、网络结构选择 输入(出)层神经元数为样本输入(出)向量维数,隐层神经元数在满足拟合精度前提下越少越好,可通过交叉验证选择网络结构;3、训练算法选择、训练算法选择 对于过程建模问题,LM算法比较合适;4、用网络预测、用网络预测Matlab神经网络工具箱应用神经网络工具箱应用设有n个训练样本数据,样本输入为m维,样本输出为1维;构造mn维样本输入矩阵P,P的每列表示一个样本输入;构造1n维样本输出矩阵T,T的每列表示一个样本输出;P=5.8279 5.1551 4.3291 5.7981 5.2982 4.2350 3.3395 2.2595 7.60
7、37 6.4053;T=1.0453 1.8991 3.9166 3.4042 2.3055;利用newff函数构造神经网络;net=newff(0,10;0,10,5 1,tansig purelin);确定网络训练参数并训练网络;net=train(net,P,T);模拟:Y=sim(net,P);实例实例 基于神经网络的汽油干点软测量训练样本(100):X,Y;预测样本(30):Xp,Yp。%将输入输出归一化为均值0,标准差1 Xn,Xm,Xs=prestd(X);Yn,Ym,Ys=prestd(Y);%构造神经网络net=newff(minmax(X),7,1,tansig,purel
8、in);%训练神经网络net=train(net,Xn,Yn);%神经网络模拟训练样本输出Ys=sim(net,Xn);Ys1=poststd(Ys,Ym,Ys);%训练输出反归一化训练输出反归一化%神经网络模拟预测样本输出Xpn=trastd(Xp,Xm,Xs);%预测样本输入归一化预测样本输入归一化Yps=sim(net,Xpn);Yps1=poststd(Yps,Ym,Ys);%预测输出反归一化预测输出反归一化神经网络模拟结果神经网络模拟结果神经网络缺点神经网络缺点1.隐层神经元数目难以确定,太多则拟合精度好而预测精度差,太少则拟合精度差,预测精度也不一定高;2.训练易陷入局部极小点。经
9、验风险最小化(经验风险最小化(Empirical risk minimization,ERM)原则)原则仅仅最小化训练样本上的风险,而不考虑预测风险。仅仅最小化训练样本上的风险,而不考虑预测风险。经验风险8.3 支持向量机(支持向量机(Support vector machine)如何衡量学习机器的预测能力?实际风险实际风险经验风险经验风险 BP网络以经验风险代替实际风险是其隐层神经元数难以确网络以经验风险代替实际风险是其隐层神经元数难以确定的根本原因。定的根本原因。y 因变量x 自变量f(x,a)学习机器函数P(x,y)联合分布函数xi,yi 训练样本l 训练样本容量实际风险与经验风险的关系
10、实际风险与经验风险的关系h 非负正整数,学习机器的VC维,衡量学习机器的“容量”。上述不等式不成立不成立的概率。显然,l/h越大则经验风险与实际风险相差越大。只有线性函数才可只有线性函数才可计算计算VC维维结构风险最小化(结构风险最小化(Structural risk minimization)原则)原则线性支持向量机的训练问题线性支持向量机的训练问题VC维上界维上界R为包含所有样本的超球体的半径;p为输入变量空间维数。惩罚惩罚因子因子灵敏度灵敏度松弛松弛因子因子核函数(核函数(Kernel function)技术)技术 对于非线性问题,SVM首先将输入向量映射入高维的重建核Hilbert空间
11、(Reproducing kernel Hilbert space,RKHS),随后在RKHS中建立线性SVM。RKHS特点RKHS中2个向量的内积可通过核函数核函数直接在原空间中计算,即:最常用核函数线性函数径向基函数最小二乘支持向量机(最小二乘支持向量机(Least squares support vector machines)训练问题训练问题训练问题训练问题的求解的求解LSSVM函数函数I为单位矩阵1为元素全为1的列向量LSSVM应用步骤应用步骤1.样本数据归一化至-1,1或均值为0,标准差为1;2.选择合适的超参数:惩罚因子值、核函数参数值;3.训练;LSSVM源程序源程序1、LSS
12、VM训练function alpha,b,iA=lssvm(X,Y,sig,gam)K=kernelMat(X,X,sig);n=size(X,1);ones_n=ones(n,1);A=K+eye(n)/gam;iA=inv(A);u=iA*Y;v=iA*ones_n;b=ones_n*u/(ones_n*v);alpha=u-v*b;2、核函数矩阵的计算function K=kernelMat(X,X0,sig)mX=size(X,1);mX0=size(X0,1);K=zeros(mX,mX0);mOnes=ones(mX0,1);for i=1:mX tmp=(X0-mOnes*X(i,:).2;tmp=tmp/sig2;tmp=sum(tmp,2);K(i,:)=exp(-tmp);%径向基核函数end3、LSSVM模拟函数function y=sim_lssvm(x,X0,sig,alpha,b)n=size(x,1);k=kernelMat(x,X0,sig);y=k,ones(n,1)*alpha;b;