《集团大数据平台系统性能指标和测试结果说明.doc》由会员分享,可在线阅读,更多相关《集团大数据平台系统性能指标和测试结果说明.doc(36页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、集团大数据平台系统性能指标和测试结果说明1.1 性能测试报告1.1.1 测试目标运营商手机上网记录查询系统案例,以某运营商为例,日均上网记录数近10亿条,每月数据量近9TB,移动互联网用户快速增加,智能终端迅速普及、户均流量显著增长,上网记录数据将进一步猛增,每6个月,流量翻一番,如此大的数据量已经超越了传统关系型数据库可管理的容量上限,关系型数据库上对大规模数据进行操作会造成系统性能严重下降。通过本测试,验证星环科技成熟稳定的商用Hadoop平台,是否可以有效解决数据采集、加载、存储、查询、分析等问题。1.1.2 测试内容1)存储节点数和存储量验证;2)并发加载数据的效率验证;3)分别选取简
2、单查询(短信话单查询),单表统计(某天某客户通话次数),大表关联统计(统计指定用户的上网记录)三个应用场景验证产品性能。1.1.3 测试环境软硬件环境配置如下:表9-1 服务器配置服务器推荐配置及说明节点数量300+台服务器CPU两路6核处理器2*E5-2620内存64GBECCDDR3硬盘2个600G的SAS硬盘,15000RPM,RAID1,作为系统盘12个2TB的SATA硬盘,7200RPM,不做RAID1网络双电口万兆(10Gbps)以太网卡部署环境如下:表9-2 集群配置PC服务器300多台NameNode节点3台DataNode节点278台Zookeeper节点7台集群监控节点1台
3、入库服务节点24台Web查询应用服务节点20台网络拓扑情况如下:图9-1 拓扑结构图1.1.4 测试过程和结果1)现有HDFS集群已被占用10.5PB,3个副本,压缩率在1/3左右,因此实际HBase表数据也已经有3.5PB左右。目前数据存放6个月,每天导入日志数据在21TB左右,每月导入新增日志数据量为630TB,近一个月为常用热数据,数据量增长较快。2)并发加载数据的效率Transwarp Hyperbase集群每秒平均达到1500万记录/秒,峰值时达到5000万/秒,集群导入性能没有问题。3)支持并发查询数目:远高于100000请求/秒上网记录查询速度:不高于1秒(含用户访问查询页面的时
4、间)场景一:短信话单查询图9-3 话单查询表测试相关表数据量表名条数CDR_GSM_133114402798测试语句SELECT*FROMCDR_GSM_13WHEREUSER_ID=?;场景说明使用程序查询指定USER_ID的短信话单TranswarpSQL性能并发:5000单SQL平均执行时间:12msTranswarp Hyperbase API性能并发:30W单SQL平均执行时间:3ms场景二:某天某客户通话次数:测试相关表数据量表名条数CDR_GSM_13,cdr_gsm_stat3114402798,430293346测试语句SELECTcount(*)FROMCDR_GSM_13
5、C,cdr_gsm_statGWHEREc.user_id=g.user_idandg.type=1andg.date=20151212g.user_id=?;场景说明统计某天某客户通话次数TranswarpSQL性能并发:2000单SQL平均执行时间:130msTranswarp Hyperbase API性能并发:10W单SQL平均执行时间:90ms场景三:关联统计相关测试,统计制定用户的上网记录图9-4 上网记录表测试相关表数据量表名条数CDR_GSM_13,cdr_gsm_stat3114402798,430293346测试语句SELECTcount(*)FROMCDR_GSM_13C
6、,cdr_gsm_statGWHEREc.user_id=g.user_idandg.type=1andg.user_id=?;场景说明使用程序统计指定USER_ID的上网记录TranswarpSQL性能并发:3000单SQL平均执行时间:150msTranswarp Hyperbase API性能并发:10W单SQL平均执行时间:80ms1.2 TPC-DS测试报告1.2.1 测试目标通过国际标准测试TPC-DS测试,验证星环TDH产品符合数据仓库需要,能够满足数仓业务使用要求。1.2.2 测试内容标准事务性能管理委员会(TPC)是目前最知名的数据管理系统评测基准标准化组织。在过去二十多年间
7、,该机构发布了多款数据库评测基准。TPC-DS是TPC发布的标准测试场景之一,用于验证数据库产品是否符合数据仓库的业务需要。TPC-DS采用星型、雪花型等多维数据模式。它包含7张事实表,17张纬度表平均每张表含有18列。其工作负载包含99个SQL查询,覆盖SQL99和2003的核心部分以及OLAP。这个测试集包含对大数据集的统计、报表生成、联机查询、数据挖掘等复杂应用,测试用的数据和值是有倾斜的,与真实数据一致。可以说TPC-DS是与真实场景非常接近的一个测试集,也是难度较大的一个测试集。TPC-DS的这个特点跟大数据的分析挖掘应用非常类似。Hadoop等大数据分析技术也是对海量数据进行大规模
8、的数据分析和深度挖掘,也包含交互式联机查询和统计报表类应用,同时大数据的数据质量也较低,数据分布是真实而不均匀的。因此TPC-DS成为客观衡量多个不同Hadoop版本以及SQL on Hadoop技术的最佳测试集。这个基准测试有以下几个主要特点:1)一共99个测试案例,遵循SQL99和SQL2003的语法标准,SQL案例比较复杂2)分析的数据量大,并且测试案例是在回答真实的商业问题3)测试案例中包含各种业务模型(如分析报告型,迭代式的联机分析型,数据挖掘型等)4)几乎所有的测试案例都有很高的IO负载和CPU计算需求TPC-DS标准测试集99个案例,详见本建议书附录部分TPC-DS测试集99 q
9、uery说明1.2.3 测试环境1.2.4 测试过程和结果1.3 量收迁移验证性测试报告1.3.1 测试目标通过选取多个量收系统典型实际应用场景测试,验证星环TDH产品能够实现量收系统各类功能应用,能够较好的满足量收系统迁移要求。1.3.2 测试内容本文档记载了较为详细的测试案例,内容包括量收系统功能各类型的技术和业务场景,包含六个方向应用。具体分别是:1)大数据量数据加载,计算及汇总,此方向取“范围段加载ETL”。2)高并行计算,复杂计算,大表关联,此方向取“收入宽表计算ETL”。3)大数据量,高并发查询。此方向取“量收日统计表查询”。4)Cognos复杂逻辑应用。此方向取“淡旺季报表统计”
10、。5)大表的update和delete类SQL计算。此方向取“营业客户数据加载计算ETL”。6)Oracle存储过程运算。此方向取“报刊在Oracle中存储过程”。1.3.3 测试环境表9-5 配置IDDesc硬件配置(8台)CPU:64Intel(R)Xeon(R)CPUE7-4809v32.00GHz,内存:64GMemory,硬盘:300GSAS操作系统AsianuxServer4(HiranyaSP4)平台软件transwarp-4.3.2-Final-23543-zh.el6.x86_64.tar.gzManager:http:/10.1.144.36:8180/admin/admi
11、nInceptor:http:/10.1.144.53:4040/HDFS空间1065GB1.3.4 串行执行情况总耗时如下:表9-6 耗时日期报表名称开始时间结束时间持续时间1持续时间220160305ORACLE_STOREPROCEDURE.SQL2016/3/516:12:022016/3/516:12:0420:00:0220160305LSRTJBCX.SQL2016/3/516:11:512016/3/516:11:5650:00:0520160305DWJCX.SQL2016/3/516:04:392016/3/516:05:04250:00:2520160305YYKHSJJ
12、ZETL.SQL2016/3/516:18:062016/3/516:19:11650:01:0520160305SRKBETL.SQL2016/3/516:12:102016/3/516:18:003500:05:5020160305FWDJZETL.SQL2016/3/516:05:102016/3/516:11:443940:06:34串行执行集群Workload:图9-2 性能展示图11.3.5 并行执行情况并行执行总耗时如下:表9-7 耗时日期报表名称开始时间结束时间持续时间1持续时间220160305FWDJZETL.SQL2016/3/516:51:252016/3/516:58
13、:484430:07:2320160305SRKBETL.SQL2016/3/516:51:262016/3/516:57:563900:06:3020160305YYKHSJJZETL.SQL2016/3/516:51:252016/3/516:52:39740:01:1420160305DWJCX.SQL2016/3/516:51:252016/3/516:51:57320:00:3220160305LSRTJBCX.SQL2016/3/516:51:252016/3/516:51:3160:00:0620160305ORACLE_STOREPROCEDURE.SQL2016/3/516:
14、51:252016/3/516:51:2830:00:03并行执行workload:图9-3 性能展示图21.3.6 生产表数据规模表9-8 生产表表名记录数备注pims_pdata.tb_peo_postcollpric237097843pims_pdata.tb_peo_postderatepric18352483pims_pdata.tb_peo_postderate17841320pims_pdata.tb_prt_custlevel6267607pims_pdata.tb_fct_sum_det_p_m5792946pims_pdata.tb_peo_winpostdelv31251
15、15pims_pdata.tb_peo_winpostdelvpric3125115pims_pdata.tb_sum_peopostbusn494603pims_pdata.tb_prt_custinfo183046pims_pdata.tb_sum_peonmlpost131378pims_pdata.tb_prt_cporgmgtlev117247pims_pdata.tb_prt_cporg117006pims_pdata.tb_peo_postcoll100000pims_pdata.tb_peo_prtcin83046pims_pdata.tb_cde_cpbusntyp_unio
16、n10000pims_pdata.tb_fct_kadd10000pims_pdata.tb_fct_operdaily10000pims_pdata.tb_fct_mdak4552pims_pdata.tb_cde_cpbusntyp1547pims_pdata.tb_sum_peopostadjust1173pims_pdata.tb_cde_dailyreport757pims_pdata.tb_cde_operdaily682pims_pdata.tb_cde_country258pims_pdata.tb_fct_sector152pims_pdata.tb_fct_vip_s_ra
17、nge_m100pims_pdata.tb_cde_prictyp43pims_pdata.tb_cde_dim30pims_pdata.tb_cde_custtyp11pims_pdata.tb_cde_custpay7pims_pdata.tb_cde_custsett6pims_pdata.tb_cde_postattr5pims_pdata.tb_prt_cporg_union4pims_pdata.tb_cde_busnchnl3pims_pdata.pro_cgnos_log_r0Logpims_pdata.tb_fct_vip_range_m0结果表pims_pdata.tb_p
18、eo_postdelv0空表pims_pdata.tb_peo_postdelvpric0空表pims_pdata.tb_prt_cporgmgtlevvw0tb_prt_cporgmgtlev的视图pims_pdata.tb_sum_dppt0结果表1.3.7 测试结果所有六个测试案例,包含存储过程案例,经过较少的脚本修改(脚本修改量小于1%),就能够直接在新的TDH环境中运行,且运行结果正确无误,验证了量收迁移到TDH的技术可行性。1.4 某银行性能测试报告1.4.1 测试目标运行某银行数据分析业务,以验证星环Transwarp Data Hub平台的性能指标。1.4.2 测试内容选取某银
19、行高并发的理财查询业务,以及相关业务场景进行测试,包括现有在DB2、DPF、以及Teradata上面的应用,进行性能比对。1.4.3 测试环境测试环境采用5台X86服务器,搭建星环Transwarp Data Hub大数据平台,进行测试。表9-9 测试表测试机器197.1.25.114(BIGL1TMP)197.1.25.115(BIGL2TMP)197.1.25.116(BIGL3TMP)197.1.25.117(BIGL4TMP)197.1.25.118(BIGL5TMP)CPU2C/6核,E5-2620磁盘2TB*8块内存96GB集群部署:表9-10 集群部署BIGL1TMPZookee
20、per,NameNode,JournalNode,Resource Manager,NodeManager,HBaseMaster,InceptorMetastoreBIGL2TMPZookeeper,NameNode,JournalNode,NodeManager,HBaseMasterBIGL3TMPJournalNode,DataNode,NodeManager,HBaseMaster,HBaseRegion Server,InceptorServerBIGL4TMPDataNode,NodeManager,HBaseRegion Server,RStudioBIGL5TMPZookee
21、per,DataNode,NodeManager,HBaseRegion Server1.4.4 测试过程和结果数据加载与导入:将文件较为均匀的分到集群的各个机器上,编写HDFS上传脚本,同时向HDFS上传数据,通过记录上传时间和上传文件大小来计算数据并发加载的速度。测试步骤如下:表9-11 场景1场景1说明客户基本信息查询测试相关表数据量表名条数FIN_CUST_INFO_BASE31144027测试语句SELECT*FROMFIN_CUST_INFO_BASEWHERECUSTNO=?;TranswarpSQL性能并发:7000单SQL平均执行时间:11msTranswarp Hyperb
22、ase API性能TPS:12W单SQL平均执行时间:3ms表9-12 场景2场景2说明客户扩展信息查询测试相关表数据量表名条数FIN_CUST_INFO_BASE31144027FIN_CUST_INFO_SUB36767776FIN_CONFINPROFILE_BASE31147467FIN_CUST_CMANAGER15639749FIN_CUST_ORG36767888测试语句SELECTBASE.CUSTNO,BASE.CUSTNAME,BASE.SEX,SUB.AGEPART,SUB.DEPOSITBALAVGL3MPART,CON.DEPOSITBALAVGL3M,CON.FAS
23、SETBAL,CMAN.CEMPID,ORG.ORGIDFROMFIN_CUST_INFO_BASEBASEINNERJOINFIN_CUST_INFO_SUBSUBONBASE.CUSTNO=SUB.CUSTNOINNERJOINFIN_CONFINPROFILE_BASECONONCON.CUSTNO=BASE.CUSTNOINNERJOINFIN_CUST_CMANAGERCMANONCMAN.CUSTNO=BASE.CUSTNOINNERJOINFIN_CUST_ORGORGONORG.CUSTNO=BASE.CUSTNOWHEREBASE.CUSTNO=?;TranswarpSQL性
24、能并发:2400单SQL平均执行时间:150msTranswarp Hyperbase API性能TPS:6W单SQL平均执行时间:6ms表9-12 场景3场景3说明客户销售线索查询测试相关表数据量表名条数FIN_LEADOPPS6738750FIN_CAMPLEADTEM1896FIN_CUST_FMANAGER2150712FIN_CUST_INFO_BASE31144027测试语句SELECTLEA.RECCREATEDATE,LEA.CLTID,LEA.CUSTNO,LEA.LEADOPPPHASE,LEA.USERID,LEA.ORGID,LEA.RECCREATEUID,CAM.C
25、LTNAME,CAM.EXECUTEDATE,FM.FEMPID,BASE.CUSTNAME,BASE.CUSTTYPE,BASE.SEXFROMFIN_LEADOPPSLEAINNERJOINFIN_CAMPLEADTEMCAMONCAM.CLTID=LEA.CLTIDINNERJOINFIN_CUST_FMANAGERFMONFM.CUSTNO=LEA.CUSTNOINNERJOINFIN_CUST_INFO_BASEBASEONBASE.CUSTNO=LEA.CUSTNOWHEREFM.FEMPID=?;TranswarpSQL性能并发:1500单SQL平均执行时间:180msTrans
26、warp Hyperbase API性能TPS:3W单SQL平均执行时间:15ms表9-13 场景4场景4说明客户金融资产统计测试相关表数据量表名条数FIN_CONFINPROFILE_BASE31147467FIN_CUST_INFO_SUB36767776FIN_CUST_ORG36767888测试语句SELECTSUB.FASSETBALPART,SUM(CON.FASSETBAL)/10000ASFASSETBAL,SUM(CON.FASSETBALMAX)/10000ASFASSETBALMAX,SUM(CON.FASSETBALAVGMMAX)/10000ASFASSETBALAV
27、GMMAXFROMFIN_CONFINPROFILE_BASECONINNERJOINFIN_CUST_INFO_SUBSUBONSUB.CUSTNO=CON.CUSTNOINNERJOINFIN_CUST_ORGORGONORG.CUSTNO=CON.CUSTNOWHEREORG.ORGID=?GROUPBYSUB.FASSETBALPARTORDERBYSUB.FASSETBALPART;TranswarpSQL性能并发:400单SQL平均执行时间:170ms数据挖掘测试使用商户信息表(XWXS_EPOS_MCHNT_INFO)和交易流水表(XWXS_EPOS_TRANS)在RStudio
28、上做了POS机分布建模、用户流失预警与用户聚类三个案例。北京地区POS机分布建模根据商户信息和交易流水记录为POS机交易建模,生成POS机分布图、POS机刷卡次数热点图、POS机刷卡金额热点图。根据上面的建模结果,可以为银行决策提供理论依据,主要意义在于:1)关注刷卡次数多的地区,可以在相关地区增加相应ATM取款机。2)关注刷卡金额大的地区,可以在相关地区增加银行服务点。3)在刷卡次数多,金额大的地区推广信用卡,增加银行其他业务。4)避开消费聚集区,推广投放行银行广告,增加投放效果。图9-4 刷卡金额密度图图9-5 刷卡次数密度图除此之外,挑选了一批在现有系统中运行时间较长或无法成功运行的业务
29、场景用于TDH的测试。更新售后客户产品表:表9-14 客户产品表测试相关表数据量表名条数FIN_CUST_INFO_BASE31718753FIN_CONDEPOSIT45028847FIN_CONFINPROFILE_DETAIL31725027FIN_OPRODUCTSALEINF6780729FIN_OPRODUCTDEF165XWXS_EPOS_MCHNT_INFO367618MC_YW_PARA57场景描述定期根据多张表统计更新客户产品表业务运行脚本测试步骤将数据load到内存表中进行计算,计算结果保存到一张内存表中TDH运行脚本TDH运行时间耗时205秒当前生产运行时间约一个小时统
30、计两张交易大表一天的交易信息:表9-15 交易表测试相关表数据量表名条数P_ACTM_M_DEP_CURR_BASE_TRANS172490929/1897400219M_NIN_AML_V_MDS_TRANS203552016/2239072176场景描述两大表join业务运行脚本测试步骤两张表各从生产环境拉下40天数据,线下等比将数据扩展到1年,测试SQL的时间参数为实际生产数据的时间TDH运行脚本测试结果耗7.5s当前生产运行时间无法成功运行统计两张交易大表一段时间内的交易信息:表9-16 交易表测试相关表数据量表名条数P_ACTM_M_DEP_CURR_BASE_TRANS172490
31、929/1897400219M_NIN_AML_V_MDS_TRANS203552016/2239072176场景描述两大表join测试步骤两张表各从生产环境拉下40天数据,线下等比将数据扩展到1年,测试SQL的时间参数为实际生产数据的时间运行脚本测试结果一天内:7.5s十二天内:25s线上全量数据:50sDPF一天内:第一次2040s,后续6s十二天内:第一次66s,后续25s线上全量数据:第一次110s,后续2.53m更新金融资产月报详细信息表:表9-17 月报表测试相关表数据量表名条数FIN_CONFINPROFILE_DETAIL31725027FIN_CONFINPROFIEL_BASE31735287场景描述大批量数据计算、更新业务运行脚本测试步骤将数据load到内存表进行计算,同时更新到Hyperbase表中TDH运行脚本TDH运行时间耗时284秒当前生产运行时间约2025分钟更新金融资产月报基础表:表9-18 基础表测试相关表数据量表名条数FIN_CONFINPROFILE_BASE31735287场景描述大批量数据计算、更新业务运行脚本测试步骤更新Hyperbase表,更新数据量16434731条TDH运行脚本TDH运行时间耗时96秒当前生产运行时间约2025分钟