《小组CNN卷积神经网络基本概念和案例讲解.pptx》由会员分享,可在线阅读,更多相关《小组CNN卷积神经网络基本概念和案例讲解.pptx(82页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、基于卷积神经网络的股票预测基于卷积神经网络的股票预测PROFESSIONAL POWERPOINT TEMPLATE 姓名 : 罗佳 姓名 : 郑春燕姓名 : 王萌 姓名 : 童徐能 姓名 : 刘珈彤| 学号 :| 学号 :| 学号 :| 学号 :| 学号 :01 | CNN基本概念02 | CNN典型网络03 | CNN训练过程04 | 案例背景概述CONTENTS目录05 | 案例分析结果CNN基本概念Part 01制作人: 罗佳 汇报人: 罗佳1.1 引例引例-图像边界检测图像边界检测 假设我们有这样的一张图片,大小88,图的中间两个颜色的分界线就是要检测的边界。 怎么检测这个边界呢?设
2、计一个 滤波器(滤波器(filterfilter,也称为,也称为kernelkernel),大小33:图片中的数字代表该位置的像素值,像素值越大,颜色越亮,所以为了示意,我们把右边小像素的地方画成深色。制作人: 罗佳 汇报人: 罗佳 “卷积卷积”过程:过程:用filter,往原图片上覆盖,对应元素相乘,然后求和。计算一个区域之后,就向其他区域挪动,接着计算,直到把原图片的每一个角落都覆盖到了为止。制作人: 罗佳 汇报人: 罗佳 CNNCNN(convolutional neural networkconvolutional neural network),),主要就是通过一个个的filter,
3、不断地提取特征,从局部的特征到总体的特征,从而进行图像识别等等功能。每个filter中的各个数字就是参数,可以通过大量的数据,来让机器自己去让机器自己去“学习学习”这些参数这些参数。这就是CNN的基本原理。制作人: 罗佳 汇报人: 罗佳 卷积神经网络(Convolutional Neural Network,CNN)是近年来在多层神经网络的基础上发展起来的针对图像分类和识别而特别设计的一种深度学习方法。卷积神经网络是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。 卷积神经网络在本质上是一种输入到输出的映射,它能够学习大量的输入与输出之间的映射关
4、系,而不需要任何输入和输出之间的精确的数学表达式,只要用已知的模式对卷积网络加以训练,网络就具有输入输出对之间的映射能力。 现在,CNN已经成为众多科学领域的研究热点之一,特别是在模式分类领域,由于该网络避免了对图像的复杂前期预处理,可以直接输入原始图像,因而得到了更为广泛的应用。在近些年的机器视觉领域和其他很多问题上,它是最具影响力的创新结果,卷积神经网络取得了当前最好的效果。1.2 CNN基本概念制作人: 罗佳 汇报人: 罗佳制作人: 罗佳 汇报人: 罗佳1960s1980s1990s 201201030204上世纪60年代, Hubel 和 Wiesel通过对 猫视觉皮层细胞 的研究,提
5、出了 感受野 这个概念。20世纪 90 年代, Yann LeCun 等人发表论文,确立了 CNN的现代结构,后来又对其进行完善。上世纪80年代, Kunihiko Fukushima 在 感受野 概念的基础之上提出了 神经认知机 (neocognitron )的概念,可以看作是卷积神经网络的第一个实现网络。2012年更深层次的 AlexNet网络 取得成功,此后卷积神经网络蓬勃发展,被广泛用于各个领域,在很多问题上都取得了当前最好的性能1.3 CNN发展历史制作人: 罗佳 汇报人: 罗佳制作人: 罗佳 汇报人: 罗佳1.4 CNN基本结构 的基本结构由输入层、输入层、隐藏层隐藏层、输出层、输
6、出层构成。其中隐藏层又包括卷积层、池化卷积层、池化层层 、全连接层、全连接层。 卷积层和池化层一般会取若干个,采用卷积层和池化层交替设置,即一个卷积层连接一个池化层,池化层后再连接一个卷积层,依此类推。由于卷积层中输出特征面的每个神经元与其输入进行局部连接,并通过对应的连接权值与局部输入进行加权求和再加上偏置值,得到该神经元输入值,该过程等同于卷积过程, 也由此而得名。结构制作人: 罗佳 汇报人: 罗佳1. 局部特征提取2. 训练中进行参数学习3. 每个卷积核提取特定模式的特征卷积层1. 降低数据维度,避免过拟合2. 增强局部感受野3. 提高平移不变性池化层池化层1. 特征提取到分类的桥梁全连
7、接层1.4 CNN基本结构隐藏层制作人: 罗佳 汇报人: 罗佳1.4.1 卷积层深度(depth) 输入图像是32*32*3,3是它的深度(即R、G、B),卷积层是一个5*5*3的filter(感受野), 这里注意:感受野感受野的深度必须和输入图像的深度相同的深度必须和输入图像的深度相同。通过一个filter与输入图像的卷积可以得到一个28*28*1的特征图,上图是用了两个filter得到了两个特征图;上图中,展示出一般使用多个filter分别进行卷积,最终得到多个特征图。制作人: 罗佳 汇报人: 罗佳1.4.1 卷积层 图一使用了6个filter分别卷积进行特征提取,最终得到6个特征图。将这
8、6层叠在一起就得到了卷积层输出的结果。图一图二 卷积不仅限于对原始输入的卷积。蓝色方块是在原始输入上进行卷积操作,使用了6个filter得到了6个提取特征图。绿色方块还能对蓝色方块进行卷积操作,使用了10个filter得到了10个特征图。每一个filter的深度必须与上一层输入的深度相等。制作人: 罗佳 汇报人: 罗佳1.4.1 卷积层1.步长(stride) Stride表示filter在原图片中水平方向和垂直方向每次的步进长度。若stride=2,则表示filter每次步进长度为2,即隔一点移动一次。制作人: 罗佳 汇报人: 罗佳1.4.1 卷积层2.填充值(zero-padding) 以
9、下图为例子,比如有这么一个5*5的图片(一个格子一个像素),我们滑动窗口取2*2,步长取2,那么我们发现还剩下1个像素没法滑完,那怎么办呢? 那我们在原先的矩阵加了一层填充值,使得变成6*6的矩阵,那么窗口就可以刚好把所有像素遍历完。这就是填充值的作用。每次卷积前,先给图片周围都补一圈空白,让卷积之后图片跟原来一样大,同时,原来的边缘也被计算了更多次。制作人: 罗佳 汇报人: 罗佳1.4.1 卷积层2.填充值(zero-padding)不使用不使用PaddingPadding的缺点的缺点l 经过卷积操作后图像会缩小l 如果你注意角落边的像素,则此像素点只会被卷积核触碰一次。即只会在第一次卷积操
10、作时被卷积核扫描。这意味着会丢失图像边缘的很多信息。l 但是对于原始图像中心的像素点,在每次卷积操作时都会被扫描。卷积核的感受野会扫描此位置多次.使用使用PaddingPadding进行维度的填充进行维度的填充l 为了使每次卷积操作后大小不会丢失,使用0填充在原始图像的外围。l 如果需要使经过卷积后的特征图大小保持不变,则卷积核的边长是奇数,则能保证输出的特征图大小与原图像大小相等。制作人: 罗佳 汇报人: 罗佳1.4.1 卷积层 卷积层由多个特征面( Feature map)组成,每个特征面由多个神经元组成,它的每一个神经元通过卷积核与上一层特征面的局部区域相连 。卷积核是一个权值矩阵(如对
11、于二维图像而言可为 或 矩阵)。 的卷积层通过卷积操作提取输入的不同特征,第 层卷积层提取低级特征如边缘、线条、角落,更高层的卷积层提取更高级的特征。直观理解卷积:3.卷积层的概念 第一次卷积可以提取出低层次的特征。 第二次卷积可以提取出中层次的特征。 第三次卷积可以提取出高层次的特征。 特征是不断进行提取和压缩的,最终能得到比较高层次特征,简言之就是对原式特征一步又一步的浓缩,最终得到的特征更可靠。利用最后一层特征可以做各种任务:比如分类、回归等。制作人: 罗佳 汇报人: 罗佳1.4.1 卷积层2 个要点 局部感知 通过在底层的局部扫描获得图像的局部特征,然后在高层综合这些特征获取图像的全局
12、信息。 作用:降低参数的数目。权值共享 CNN中每个卷积核里面的参数即权值,原始图片卷积后会得到一副新的图片,而新图中的每个像素都来自同一个卷积核,这就是权值共享。 作用:进一步降低参数数目。制作人: 罗佳 汇报人: 罗佳1.4.1 卷积层4.卷积的计算 下面蓝色矩阵周围有一圈灰色的框,那些就是上面所说到的填充值,这里的蓝色矩阵就是输入的图像,粉色矩阵就是卷积层的神经元,这里表示了有两个神经元(w0,w1)。绿色矩阵就是经过卷积运算后的输出矩阵,这里的步长设置为2。制作人: 罗佳 汇报人: 罗佳1.4.1 卷积层4.卷积的计算 左区域的三个大矩阵是原式图像的输入,RGB三个通道用三个矩阵表示,
13、大小为7*7*3。 Filter W0 表示1个filter助手,尺寸为3*3,深度为3(三个矩阵); Filter W1也表示1个filter助手。因为卷积中我们用了2个filter,因此该卷积层结果的输出深度为2(绿色矩阵有2个)。 Bias b0是Filter W0的偏置项,Bias b1是Filter W1的偏置项。 OutPut是卷积后的输出,尺寸为3*3,深度为2。制作人: 罗佳 汇报人: 罗佳1.4.1 卷积层4.卷积的计算 蓝色的矩阵(输入图像)对粉色的矩阵(filter)进行矩阵内积计算并将三个内积运算的结果与偏置值b相加(比如上面图的计算:2+(-2+1-2)+(1-2-2
14、) + 1= 2 - 3 - 3 + 1 = -3),计算后的值就是绿框矩阵的一个元素。制作人: 罗佳 汇报人: 罗佳1.4.1 卷积层4.卷积的计算动图展示所有计算过程制作人: 罗佳 汇报人: 罗佳1.4.1 卷积层5.卷积的计算的思考为什么每次滑动是2个格子?制作人: 罗佳 汇报人: 罗佳1.4.1 卷积层 一次卷积后的输出特征图的尺寸是多少呢?在此例子中选择 7 7 的图像,2作为步长,使用 3 3 的卷积核,最终得到一个 3 3 的特征图。特征图大小公式特征图大小公式其中n为原始图像大小,p为Padding填充维度,f为卷积核维度,s为步长当出现得到的结果不是整数时,可以采用向下取整的
15、方式使其维度为整数5.卷积的计算的思考制作人: 罗佳 汇报人: 罗佳1.4.2 池化层 池化层池化层紧跟在卷积层之后,同样由多个特征面组成,它的每一个特征面唯一对应于其上一层的一个特征面,不会改变特征面的个数。卷积层是池化层的输入层,卷积层的一个特征面与池化层中的一个特征面唯一对应,且池化层的神经元也与其输入层的局部接受域相连,不同神经元局部接受域不重叠。池化层旨在通过降低特征面的池化层旨在通过降低特征面的分辨率来获得具有空间不变性的特征分辨率来获得具有空间不变性的特征 。池化层起到二次提取特征的作用,它的每个神经元对局部接受域进行池。池化层起到二次提取特征的作用,它的每个神经元对局部接受域进
16、行池化操作。化操作。 上图显示,池化就是对特征图进行特征压缩,池化层也被称为下采样层,常用的池化方法有最大池化最大池化即取局部接受域中值最大的点、平均值池化平均值池化即对局部接受域中的所有值求均值均值、随机池化随机池化。制作人: 罗佳 汇报人: 罗佳1.4.2 池化层作用4. 增强网络对输入图像中的小变形、扭曲、平移的鲁棒性1. 减少参数数量,提高计算效率2.提高局部平移不变性,大大提高了图像分类的准确性3.降低了数据维度,有效地避免了过拟合制作人: 罗佳 汇报人: 罗佳1.4.2 池化层Pooling(池化)操作最常见的池化操作为平均池化平均池化(mean pooling)和最大池化最大池化
17、(max pooling):u 平均池化:计算图像区域的平均值作为该区域池化后的值。u 最大池化:选图像区域的最大值作为该区域池化后的值。平均池化最大池化制作人: 罗佳 汇报人: 罗佳 全连接层中的每个神经元与其前一层的所有神经元进行全连接。全连接层可以整合卷积层或者池化层中具有类别区分性的局部信息 。为了提升 CNN 网络性能,全连接层每个神经元的激励函数一般采用 RELU 函数。最后一层全连接层的输出值被传递给一个输出层,可以采用 softmax 逻辑回归进行分类,该层也可称为 softmax 层。 卷积层和池化层的输出代表了输入图像的高级特性,而全连接层的目的就是类别基于训练集用这些特征
18、进行分类, 连接所有的特征,将输出值送给分类器(如 softmax 分类器)。1.4.3 全连接层制作人: 罗佳 汇报人: 罗佳 CNN典型网络Part 02制作人: 郑春燕 汇报人:郑春燕 2007年初,李飞飞开始了ImageNet项目,是目前世界上最大的图像识别数据库,已超过1300万张。 2009年,李飞飞和她的团队发表了ImageNet的论文与数据集。ImageNet在线数据库截图2.CNN典型网络制作人: 郑春燕 汇报人:郑春燕 2.CNN典型网络LeNet-5AlexNetZFNetVGG NetGoogleNet010203040506RestNet制作人: 郑春燕 汇报人:郑春
19、燕 2.1 LeNet-5 LeCun等将BP算法应用到多层神经网络中,提出LeNet-5模型,并将其用于手写数字识别,卷积神经网络才算正式提出。Input(3232)-CONV(6 filters)-AvgPOOL-CONV(16 filters)-AvgPOOL-FC(120)-FC(84)-FC(10)LeNet-5网络模型制作人: 郑春燕 汇报人:郑春燕 2.1 LeNet-5制作人: 郑春燕 汇报人:郑春燕 LeCun等将BP算法应用到多层神经网络中,提出LeNet-5模型,并将其用于手写数字识别,卷积神经网络才算正式提出。 从上表的具体参数可以看出,LeNet的网络结构十分简单且单
20、一,卷积层C1、C3和C5层除了输出维数外采用的是相同的参数,池化层S2和S4采用的也是相同的参数。LeNet-5具体参数2.2 ALexNet制作人: 郑春燕 汇报人:郑春燕 2012年Krizhevsky使用卷积神经网络在ILSVRC 2012图像分类大赛上夺冠,提出了AlexNet模型,促使了之后的神经网络研究浪潮。AlexNet网络的提出对于卷积神经网络具有里程碑式的意义。 左图为dropout前,右图为dropout后。dropout能在一定程度上防止网络过拟合,并且能加快网络的训练速度。Dropout示意图1. 数据增强* 水平翻转 * 随机裁剪、平移变换* 颜色光照变换2. Dr
21、opout: Dropout方法和数据增强一样,都是防止过拟合的。简单的说,dropout能按照一定的概率将神经元从网络中丢弃。2.2 ALexNet制作人: 郑春燕 汇报人:郑春燕 输入:224*224*3(RGB图像),图像会经过预处理变为227*227*3; ALexNet 网络模型2.2 ALexNet制作人: 郑春燕 汇报人:郑春燕 ALexNet 网络模型ALexNet 具体参数2.3 ZFNet制作人: 郑春燕 汇报人:郑春燕 ZFNet是由纽约大学的Matthew Zeiler和Rob Fergus所设计,该网络在AlexNet上进行了微小的改进,主要贡献在于在一定程度上解释了
22、卷积神经网络为什么有效,以及如何提高网络的性能。ZFNet的网络模型与AlexNet十分相似,这里就不列举每一层的输入输出了。ZFNet网络模型2.3 ZFNet制作人: 郑春燕 汇报人:郑春燕 ZFNet是由纽约大学的Matthew Zeiler和Rob Fergus所设计,该网络在AlexNet上进行了微小的改进,主要贡献在于在一定程度上解释了卷积神经网络为什么有效,以及如何提高网络的性能。ZFNet的网络模型与AlexNet十分相似,这里就不列举每一层的输入输出了。ZFNet具体参数2.4 VGG Net制作人: 郑春燕 汇报人:郑春燕 VGG Net于2014年被牛津大学的Karen
23、Simonyan 和Andrew Zisserman提出,主要特点是 “简洁,深度”。与AlexNet主要有以下不同:* Vgg16有16层网络,AlexNet只有8层;* 在训练和测试时使用了多尺度做数据增强。VGG Net网络模型深度深度: VGG有19层,远远超过了它的前辈;简洁简洁: 在于它的结构上,一律采用stride为1的33filter,以及stride为2的22MaxPooling。2.5 GoogleNet制作人: 郑春燕 汇报人:郑春燕 GoogleNet于2014年被牛津大学的Karen Simonyan 和Andrew Zisserman提出,主要特点是 “简洁,深度”
24、。Inception Net不再是使用Sequential model,在结构上有了重大创新;在sequential model中,所有操作,无论是CONV还是POOL,都是排成一些序列。问题: 整合在一起之后,channels这个维度会过大2.5 GoogleNet制作人: 郑春燕 汇报人:郑春燕 GoogleNet于2014年被牛津大学的Karen Simonyan 和Andrew Zisserman提出,主要特点是 “简洁,深度”。降维降维: : 使用filter为11的CONV Inception Network,就是由一个个的inception module组成的。Inception
25、 Module2.5 GoogleNet制作人: 郑春燕 汇报人:郑春燕 通过inception module,GoogleNet成功地把CNN的层数增加到了超过100层。深度加深了,但参数的数量比AlexNet要少很多倍!所以训练出的模型不仅效果好,而且更快。2.6 RestNet(残差网络)制作人: 郑春燕 汇报人:郑春燕 RestNet(残差网络)于2015年由MSRA何凯明团队提出了Residual Networks。 CNN面临的一个问题,随着层数的增加,CNN的效果会遇到瓶颈,甚至会不增反降。这往往是梯度爆炸或者梯度消失引起的。 ResNet就是为了解决这个问题而提出的,因而帮助训
26、练更深的网络,引入了一个residual block(残差块)。2.6 RestNet(残差网络)制作人: 郑春燕 汇报人:郑春燕 这个做法相当于把前面的信息提取出来,加入到当前的计算中,论文作者认为,这样的做法,可以使神经网络更容易优化,事实上确实是这样。 通过这种residual block,成功地搭建了一个拥有152层的CNN!深不见底!2.6 RestNet(残差网络)制作人: 郑春燕 汇报人:郑春燕 RestNet(残差网络)于2015年由MSRA何凯明团队提出了Residual Networks。Inception-ResNet-v2内部结构CNN训练过程Part 03制作人:王萌
27、 汇报人:王萌。初始化给定输入向量和目标输出求隐含层,输出层个单元的输出求目标值和实际输出偏量eE阈值是结束否计算网络层神经元的误差求误差梯度更新权值前前 向向 传传 播播 过过 程程反反 向向 传传 播播 过过 程程3.1神经网络训练流程图制作人:王萌 汇报人:王萌3.2CNN前向传播在前向传播过程中,输入的图形数据经过多层卷积层的卷积和池化层的池化处理,提出特征向量,将特征向量传入全连接层中,得出分类识别的结果。当输出的结果与我们的期望值相符时,输出结果。1.简介简介:制作人:王萌 汇报人:王萌2.卷积层前向传播过程卷积层前向传播过程:我们设定输入为15个神经元的图片,卷积核为221的网络
28、,即卷积核的权值为W1,W2,W3,W4。卷积核采用步长为1的卷积方式。制作人:王萌 汇报人:王萌3.池化层前向传播过程池化层前向传播过程:上一层(卷积层)提取的特征作为输入传到池化层,通过池化层的池化操作,降低数据的维度。池化方式主要有三种:最大池化、均值池化、随机池化。制作人:王萌 汇报人:王萌4.全连接层的向前传播全连接层的向前传播:特征图进过卷积层和池化层的特征提取之后,将提取出来的特征传到全连接层中,通过全连接层,获得分类模型。其中w代表权值,z = xT *w ,a = sigmoid(z).制作人:王萌 汇报人:王萌3.3反向传播(BP)1.什么是反向传播什么是反向传播:当卷积神
29、经网络输出的结果与我们的期望值不相符时,则进行反向传播过程。求出结果与期望值的误差,再将误差一层一层的返回,计算出每一层的误差,然后进行权值更新。该过程的主要目的是通过训练样本和期望值来调整网络权值。2.为什么需要反向传播为什么需要反向传播:数据从输入层到输出层,期间经过了卷积层,池化层,全连接层,而数据在各层之间传递的过程中难免会造成数据的损失,则也就导致了误差的产生。制作人:王萌 汇报人:王萌3.DNN3.DNN反向传播算法反向传播算法:制作人:王萌 汇报人:王萌制作人:王萌 汇报人:王萌制作人:王萌 汇报人:王萌1.CNN1.CNN中的反向传播与中的反向传播与DNN中的不同点中的不同点:
30、1) 池化层在前向传播的时候,对输入进行了压缩.2) 卷积层是通过张量卷积,或者说若干个矩阵卷积求和而得的当前层的输出, DNN的全连接层是直接进行矩阵乘法得到当前层的输出.3.4CNN反向传播基于以上不同,需要重新考虑CNN的反向传播过程。制作人:王萌 汇报人:王萌将误差进行向上传播,由于存在卷积核,需要对卷积核权值w和偏置值b求梯度反向传播结构反向传播结构2.CNN2.CNN制作人:王萌 汇报人:王萌3.3.当某层是池化层时(当某层是池化层时( l 已知已知):在前向传播算法时,池化层一般我们会用MAX或者Average对输入进行池化。现在我们反过来要从缩小后的误差l,还原前一次较大区域对
31、应的误差。我们首先会把l的所有子矩阵矩阵大小还原成池化之前的大小。以Average为例,需要把l的所有子矩阵的各个池化局域的值取平均后放在还原后的子矩阵位置。这个过程一般叫做upsample。制作人:王萌 汇报人:王萌制作人:王萌 汇报人:王萌4.4.当某层是卷积层时当某层是卷积层时l 已知已知:之前介绍的卷积层的前向传播可以用下面的公式来表示:将其展开,得到zijzij与wijwij之间的关系:通过链式法则可以得到梯度:制作人:王萌 汇报人:王萌5.5.卷积层参数(卷积层参数(w,bw,b)的梯度:)的梯度:已经知道了每一层的l,去推导该层W,b的梯度。因为池化层没有W,b所以我们只需要求卷
32、积层参数的梯度,全连接网络的情况已经在之前介绍了。我们直接给出卷积层(w,b)的梯度:其中(a)ij矩阵是我们将要进行卷积的输入向量。至此,我们得到了每一层参数得梯度,通过批量梯度下降法,可以得到更新后得权重,当迭代到给定得步数或者误差小于给定阈值,训练结束。得到了一个CNN训练模型。制作人:王萌 汇报人:王萌案例背景及概述Part 04制作人: 童徐能 汇报人:童徐能4.2.1案例背景及意义案例背景案例背景1 自股票出现以来,股票交易就和人们日常生活紧密结合在一起,由于股票价格变化往往受政治、社会、经济因素的影响,具有变换幅度大,变化因素多,不稳定性的特点。因此,如何正确对股票价格进行预测就
33、成为股票买卖者最关心的问题 。 随着证券投资理论的发展,越来越多的量化从业人员开始将这些理论应用到股市投资当中去,对股市进行长期或短期的预测。这些预测方法多种多样包括统计学统计学方法、机器学习机器学习方法等等,并且于实际应用中取得了一定的成功。然而股票市场是一个非常复杂的系统,影响股价变动的因素太多,股价波动的非线性特性使得不论采用何种方法,都需要大量的数据和有效的算法。这使得现有的股票预测方法大都不尽如人意,如何有效地从海量历史数据中挖掘出有效信息,并采用有效的预测方法进行分析处理成为一个越来越重要的课题。案例意义案例意义2 随着人工智能技术的快速发展,机器学习、深度学习等技术不断进入各行各
34、业。金融领域也不例外,利用深度学习进行大数据挖掘,分析客户的画像,提供对应的金融服务已经在现实中使用。在金融交易领域其中一个分支量化交易(金融工程)采用相关的人工智能技术,必将是大势所趋。本案例主要是采用卷积神经网络进行证券期货量化交易中的股票预测。制作人: 童徐能 汇报人:童徐能4.2.1股票预测定义股票 股票(stock)是股份公司发行的所有权凭证,是股份公司为筹集资金而发行给各个股东作为持股凭证并借以取得股息和红利的一种有价证券。每股股票都代表股东对企业拥有一个基本单位的所有权。每家上市公司都会发行股票。 股票是股份公司资本的构成部分,可以转让、买卖,是资本市场的主要长期信用工具,但不能
35、要求公司返还其出资。股票预测 对股市具有深刻了解的证券分析人员根据股票行情的发展进行的对未来股市发展方向以及涨跌程度的预测行为。这种预测行为只是基于假定的因素为既定的前提条件为基础的。股票市场出现后,大量学者对股票价格进行了深入研究,其预测原理为:通过对历史和当前的股票数据进行分析,对股票未来的价格走势进行预测,从而为股民提供参考依据。制作人: 童徐能 汇报人:童徐能fx 4.2.2影响股票价格因素Six StepsProcess020306010504 政治因素包括政局变化、国家或地区之间的战争、国家领导人的更跌等。政治 不同公司有不同的盈利能力,盈利不同自然影响到公司资产价值。 公司自身经
36、营情况 当利率上涨时,公司的借贷成本会增加,进而会导致公司难以获得必需的资金,公司也会因此而削减生产规模,造成获利变少,股价下跌。与此相反,股价就会上升。利率 股市与经济之间的关系密切,经济对股市的影响是非常直观的,任何一方发生变化,在另一方都会有所反应。经济 一些大的资金机构通过利用自己的资金优势,按照自己的意图来操控股票交易市场,影响股票的交易价格,让股价的按照预定目标波动,使得中小投资者和散户被迫进行交易,而这些资金机构则从中牟取暴利。人为因素 随着各国对外开放程度不断扩张,股市也越加受到汇率的影响。本国货币升值受益的多半是进口业,因为其购买力增加;与此相反,出口业由于竞争力降低,而导致
37、亏损。汇率制作人: 童徐能 汇报人:童徐能4.3.1股票预测方法2.技术面分析1.基本面分析 基本面分析则包含其他诸如银行利率、其他投资行业的回报率等因素,其基本思路和策略是“低价买入并长期持有”。传统的基本面分析主要是以经济学理论为基础,通过分析企业的内在价值以及行业发展前景来做出投资建议。基本面分析是通过预测经济周期来做出投资决策,但是预测经济趋势是比较困难的,从研究股价波动原因的角度来预测未来股价的趋势难度极高。 技术面分析使用股票历史数据(例如股票往日开盘价、收盘价、最高价、成交量、成交金额等数据),技术面分析认为所有影响股价变动的因素(经济事件、政治事件、战争、自然灾害等)都会反映到
38、价格变化上来。所以只要分析股票价格趋势,从中找到规律就可以找到盈利的契机。技术分析是研究市场行为的,不会直接涉及到这些难题。以移动平均线为代表的技术分析方法能够预测一段时期内的股价走势,但投资者往往会对短期内的股票价格变化更感兴趣。然而现有的技术分析方法在解决受多种因素影响的股价预测问题上存在着较多瓶颈,预测出的结果往往表现不佳。制作人: 童徐能 汇报人:童徐能 混沌是一种貌似随机的运动,是非线性现象,其本质是运动对于初值的敏感性。小波分析法4.3.2常用的技术面分析方法马尔科夫预测法混沌学预测法遗传算法预测法神经网络预测法 起源于生物进化理,论通过选择、杂交、变异等操作进行演化,挑选得到最好
39、的特征、最优的结果。 马尔科夫过程的重要特征是无后效性。马尔科夫预测法的关键在于马尔科夫链,根据目前的事件状态预测事件在将来各时刻的状态变动情况。 小波分析法首先对原始时间序列进行预处理,获得非平稳序列中的平稳部分并组成新序列,紧接着将新序列代入预测模型进行预测,最后将序列非平稳化。制作人: 童徐能 汇报人:童徐能 神经网络是指,从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。4.3.3神经网络预测方法反向传播神经网络 (BP)预测方法神经网络回归神经网络(RNN)深度信念网络(DBN) 股票价格变化是一个非线性动力学系统,与一个国家的政治和经济等因
40、素有关,其在时间上具有不可逆性,不确定因素相当多,采用经典的数学方法很难对复杂多变的股票市场进行准确的预测,效果也不理想。 卷积神经网络 (CNN) 利用神经网络进行非线性预测已成为国际上研究的热点之一。 相比传统的统计学方法,神经网络在处理非线性问题方面有着优势,而且由于具有网络结构简单、算法简单、实现容易等优点,使得其在股票价格预测中得到了较广泛的应用。但是其预测性能与其参数好坏有着直接的关系。制作人: 童徐能 汇报人:童徐能4.3.4卷积神经网络预测方法 卷积神经网络是一种模拟生物视觉系统运行机制的多层神经网络结构。它是由多层卷积层和降采样层顺序连接构成的神经网络,能够从原始数据中获取有
41、用的特征描述,是一种从数据中提取特征的有效方法。 目前卷积神经网络不仅已经成为语音识别、图像识别及分类、自然语言处理等领域的研究热点,在这些领域有了广泛且成功的应用,而且作为新兴技术已经成功应用于经济预测领域。因此本案例引入卷积神经网络结构对股票时间序列数据进行预测。卷积神经网络因其不同于 BP / RNN/ DBN 等全连 接(Fully Connected)网络的网络结构,可以在各层网络的神经元之间共享权重,使得网络整体的权重数量大为降低,也使得模型避免陷入维度灾难和局部极小。 语音识别自然语言处理图像识别机器视觉经济预测人脸识别应用etc制作人: 童徐能 汇报人:童徐能4.4股票预测步骤
42、收集股票价格历史数据,提取特征值,对输入参数进行归一化预处理;用训练样本集训练卷积神经网络;利用实际输出与期望输出的差异,调整神经网络参数;利用训练得到的最优参数建立基于卷积神经网络的股票价格趋势预测模型;对新输入的股票数据进行趋势预测,并根据预测结果做出买卖决策。0102030405制作人: 童徐能 汇报人:童徐能CNN for Stock TradingPart 05制作人:刘珈彤 汇报人:刘珈彤5.1数据获取Sina财经API获取最近20天5分钟间隔股票数据http:/ 3参数制作人:刘珈彤 汇报人:刘珈彤5.2将HTML数据整理为xls格式datetimehighlowclosevol
43、umema_price5ma_volume52018/11/714:55:002018/11/715:00:0010.8210.810.8124251002018/11/89:35:0010.8210.810.8111661812018/11/89:40:0010.9110.8510.8660073502018/11/89:45:0010.8710.8410.8622341942018/11/89:50:0010.8610.8210.83187701610.83427419682018/11/89:55:0010.8810.8310.85165504310.84225879572018/11/
44、810:00:0010.8610.8310.83145980010.84626466812018/11/810:05:0010.8810.8310.87185344210.84818158992018/11/810:10:0010.8810.8410.85111606810.84615922742018/11/810:15:0010.9310.8410.91388356010.86219935832018/11/810:20:0010.9310.8910.92553635010.87627698442018/11/810:25:0010.9310.8910.91296560010.892307
45、10042018/11/810:30:0010.9310.910.93353900010.90434081162018/11/810:35:0010.9310.910.91171577110.91635280562018/11/810:40:0010.9210.910.91164788210.91630809212018/11/810:45:0010.9210.9110.9292550010.91621587512018/11/810:50:0010.9210.8810.89121730010.91218090912018/11/810:55:0010.8910.8610.8810400811
46、0.90213093072018/11/811:00:0010.8910.8610.88151054810.89612682622018/11/811:05:0010.910.8610.89239830010.89214183462018/11/811:10:0010.9510.8810.95494942010.89822231302018/11/811:15:0010.9710.9410.94389220010.90827581102018/11/811:20:0010.9510.9310.94144980010.9228400542018/11/811:25:0010.9510.9310.
47、9393410010.9327247642018/11/811:30:0010.9510.9210.94113770010.9424726442018/11/813:05:0010.9510.9310.9490974610.93816647092018/11/813:10:0010.9510.9110.9199705410.93210856802018/11/813:15:0010.9310.9110.9181910010.9269595402018/11/813:20:0010.9210.910.956100010.928849202018/11/813:25:0010.9210.8910.
48、8981520010.918204205min间隔4个有效信息制作人:刘珈彤 汇报人:刘珈彤5.3数据预处理datetimehighlowclosevolumema_price5ma_volume52018/11/714:55:002018/11/715:00:0010.8210.810.8124251002018/11/89:35:0010.8210.810.8111661812018/11/89:40:0010.9110.8510.8660073502018/11/89:45:0010.8710.8410.8622341942018/11/89:50:0010.8610.8210.8318
49、7701610.83427419682018/11/89:55:0010.8810.8310.85165504310.84225879572018/11/810:00:0010.8610.8310.83145980010.84626466812018/11/810:05:0010.8810.8310.87185344210.84818158992018/11/810:10:0010.8810.8410.85111606810.84615922742018/11/810:15:0010.9310.8410.91388356010.86219935832018/11/810:20:0010.931
50、0.8910.92553635010.87627698442018/11/810:25:0010.9310.8910.91296560010.89230710042018/11/810:30:0010.9310.910.93353900010.90434081162018/11/810:35:0010.9310.910.91171577110.91635280562018/11/810:40:0010.9210.910.91164788210.91630809212018/11/810:45:0010.9210.9110.9292550010.91621587512018/11/810:50: