2022年2022年海量数据库的查询优化及分页算法方案 .pdf

上传人:C****o 文档编号:39689510 上传时间:2022-09-07 格式:PDF 页数:28 大小:208.96KB
返回 下载 相关 举报
2022年2022年海量数据库的查询优化及分页算法方案 .pdf_第1页
第1页 / 共28页
2022年2022年海量数据库的查询优化及分页算法方案 .pdf_第2页
第2页 / 共28页
点击查看更多>>
资源描述

《2022年2022年海量数据库的查询优化及分页算法方案 .pdf》由会员分享,可在线阅读,更多相关《2022年2022年海量数据库的查询优化及分页算法方案 .pdf(28页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、海量数据库的查询优化及分页算法方案随着“金盾工程”建设的逐步深入和公安信息化的高速发展,公安计算机应用系统被广泛应用在各警种、各部门。与此同时,应用系统体系的核心、系统数据的存放地数据库也随着实际应用而急剧膨胀,一些大规模的系统,如人口系统的数据甚至超过了1000 万条,可谓海量。那么,如何实现快速地从这些超大容量的数据库中提取数据(查询)、分析、统计以及提取数据后进行数据分页已成为各地系统管理员和数据库管理员亟待解决的难题。在以下的文章中,我将以“办公自动化”系统为例,探讨如何在有着1000 万条数据的 MS SQL SERVER 数据库中实现快速的数据提取和数据分页。以下代码说明了我们实例

2、中数据库的“红头文件”一表的部分数据结构:CREATE TABLE dbo.TGongwen(-TGongwen是红头文件表名 Gid int IDENTITY(1,1)NOT NULL,-本表的 id 号,也是主键 title varchar(80)COLLATE Chinese_PRC_CI_AS NULL,-红头文件的标题 fariqi datetime NULL,-发布日期 neibuYonghu varchar(70)COLLATE Chinese_PRC_CI_AS NULL,-发布用户 reader varchar(900)COLLATE Chinese_PRC_CI_AS NU

3、LL,-需要浏览的用户。每个用户中间用分隔符“,”分开)ON PRIMARY TEXTIMAGE_ON PRIMARY GO 下面,我们来往数据库中添加1000 万条数据:declare i int set i=1 while i=250000 名师资料总结-精品资料欢迎下载-名师精心整理-第 1 页,共 28 页 -begin insert into Tgongwen(fariqi,neibuyonghu,reader,title)values(2004-2-5,通信科,通信科,办公室,王局长,刘局长,张局长,admin,刑侦支队,特勤支队,交巡警支队,经侦支队,户政科,治安支队,外事科,这

4、是最先的 25 万条记录)set i=i+1 end GO declare i int set i=1 while i=250000 begin insert into Tgongwen(fariqi,neibuyonghu,reader,title)values(2004-9-16,办公室,办公室,通信科,王局长,刘局长,张局长,admin,刑侦支队,特勤支队,交巡警支队,经侦支 队,户政科,外事科,这是中间的 25万条记录)set i=i+1 end GO declare h int set h=1 while h=100 begin declare i int 名师资料总结-精品资料欢迎

5、下载-名师精心整理-第 2 页,共 28 页 -set i=2002 while i=2003 begin declare j int set j=0 while j50 begin declare k int set k=0 while k50 begin insert into Tgongwen(fariqi,neibuyonghu,reader,title)values(cast(i as varchar(4)+-8-15 3:+cast(j as varchar(2)+:+cast(j as varchar(2),通信科,办公室,通信科,王局长,刘局长,张局长,admin,刑侦支队,特

6、勤支队,交巡警支队,经侦支队,户政科,外事科,这是最后的 50 万条记录)set k=k+1 end set j=j+1 end set i=i+1 end set h=h+1 end GO 名师资料总结-精品资料欢迎下载-名师精心整理-第 3 页,共 28 页 -declare i int set i=1 while i dateadd(day,-90,getdate()用时:53763毫秒(54 秒)(3)将聚合索引建立在日期列(fariqi)上:select gid,fariqi,neibuyonghu,title from Tgongwen where fariqi dateadd(d

7、ay,-90,getdate()用时:2423毫秒(2 秒)虽然每条语句提取出来的都是25 万条数据,各种情况的差异却是巨大的,特别是将聚集索引建立在日期列时的差异。事实上,如果您的数据库真的有 1000 万容量的话,把主键建立在ID 列上,就像以上的第1、2 种情况,在网页上的表现就是超时,根本就无法显示。这也是我摒弃 ID 列作为聚集索引的一个最重要的因素。得出以上速度的方法是:在各个select语句前加:declare d datetime set d=getdate()并在 select语句后加:select 语句执行花费时间(毫秒)=datediff(ms,d,getdate()2、

8、只要建立索引就能显著提高查询速度事实上,我们可以发现上面的例子中,第2、3 条语句完全相同,且建立索引的字段也相同;不同的仅是前者在fariqi字段上建立的是非聚合索引,后者在此字段上建立的是聚合索引,但查询速度却有着天壤之别。所以,并非是在任何字段上简单地建立索引就能提高查询速度。从建表的语句中,我们可以看到这个有着1000万数据的表中 fariqi字段有 5003个不同记录。在此字段上建立聚合索引是再合适不过了。在现实中,我们每天都会发几个文件,这几个文件的发文日期就相同,这完全符合建立聚集索引要求的:“既不能绝大多数都相同,又不能只有极少数相同”的规则。由此看来,我们建立“适当”的聚合索

9、引对于我们提高查询速度是非常重要的。3、把所有需要提高查询速度的字段都加进聚集索引,以提高查询速度上面已经谈到:在进行数据查询时都离不开字段的是“日期”还有用户本身的“用户名”。既然这两个字段都是如此的重要,我们可以把他们合并起来,建立一个复合索引(compound index)。名师资料总结-精品资料欢迎下载-名师精心整理-第 8 页,共 28 页 -很多人认为只要把任何字段加进聚集索引,就能提高查询速度,也有人感到迷惑:如果把复合的聚集索引字段分开查询,那么查询速度会减慢吗?带着这个问题,我们来看一下以下的查询速度(结果集都是25 万条数据):(日期列fariqi首先排在复合聚集索引的起始

10、列,用户名neibuyonghu 排在后 列)(1)select gid,fariqi,neibuyonghu,title from Tgongwen where fariqi2004-5-5 查询速度:2513毫秒(2)select gid,fariqi,neibuyonghu,title from Tgongwen where fariqi2004-5-5 and neibuyonghu=办公室 查询速度:2516毫秒(3)select gid,fariqi,neibuyonghu,title from Tgongwen where neibuyonghu=办公室 查询速度:60280毫秒

11、从以上试验中,我们可以看到如果仅用聚集索引的起始列作为查询条件和同时用到复合聚集索引的全部列的查询速度是几乎一样的,甚至比用上全部的复合索引列还要略快(在查询结果集数目一样的情况下);而如果仅用复合聚集索引的非起始列作为查询条件的话,这个索引是不起任何作用的。当然,语句1、2 的查询 速度一样是因为查询的条目数一样,如果复合索引的所有列都用上,而且查询结果少的话,这样就会形成“索引覆盖”,因而性能可以达到最优。同时,请记住:无论您是否经常使用聚合索引的其他列,但其前导列一定要是使用最频繁的列。(四)其他书上没有的索引使用经验总结1、用聚合索引比用不是聚合索引的主键速度快下面是实例语句:(都是提

12、取25 万条数据)select gid,fariqi,neibuyonghu,reader,title from Tgongwen where fariqi=2004-9-16 使用时间:3326毫秒select gid,fariqi,neibuyonghu,reader,title from Tgongwen where gid2004-1-1 用时:6343毫秒(提取 100万条)select gid,fariqi,neibuyonghu,reader,title from Tgongwen where fariqi2004-6-6 用时:3170毫秒(提取 50 万条)select gi

13、d,fariqi,neibuyonghu,reader,title from Tgongwen where fariqi=2004-9-16 用时:3326毫秒(和上句的结果一模一样。如果采集的数量一样,那么用大于号和等于号是一样的)select gid,fariqi,neibuyonghu,reader,title from Tgongwen where fariqi2004-1-1 and fariqi2004-1-1 order by fariqi 名师资料总结-精品资料欢迎下载-名师精心整理-第 10 页,共 28 页 -用时:6390毫秒select gid,fariqi,neibu

14、yonghu,reader,title from Tgongwen where fariqi 10000 和执行:select*from table1 where tID 10000 and name=zhangsan 一些人不知道以上两条语句的执行效率是否一样,因为如果简单的从语句先后上看,这两个语句的确是不一样,如果tID 是一个聚合索引,那么后一句仅仅从表的 10000 条以后的记录中查找就行了;而前一句则要先从全表中查找看有几个name=zhangsan 的,而后再根据限制条件条件 tID10000 来提出查询结果。事实上,这样的担心是不必要的。SQL SERVER 中有一个“查询分析

15、优化器”,它可以计算出 where 子句中的搜索条件并确定哪个索引能缩小表扫描的搜索空间,也就是说,它能实现自动优化。虽然查询优化器可以根据where 子句自动的进行查询优化,但大家仍然有必要了解一下“查询优化器”的工作原理,如非这样,有时查询优化器就会不按照您的本意进行快速查询。名师资料总结-精品资料欢迎下载-名师精心整理-第 11 页,共 28 页 -在查询分析阶段,查询优化器查看查询的每个阶段并决定限制需要扫描的数据量是否有用。如果一个阶段可以被用作一个扫描参数(SARG),那么就称之为可优化的,并且可以利用索引快速获得所需数据。SARG 的定义:用于限制搜索的一个操作,因为它通常是指一

16、个特定的匹配,一个值得范围内的匹配或者两个以上条件的AND连接。形式如下:列名 操作符 或 操作符列名列名可以出现在操作符的一边,而常数或变量出现在操作符的另一边。如:Name=张三价格5000 50005000 如果一个表达式不能满足SARG 的形式,那它就无法限制搜索的范围了,也就是SQL SERVER 必须对每一行都判断它是否满足WHERE子句中的所有条件。所以一个索引对于不满足SARG 形式的表达式来说是无用的。介绍完 SARG 后,我们来总结一下使用SARG 以及在实践中遇到的和某些资料上结论不同的经验:1、Like 语句是否属于 SARG 取决于所使用的通配符的类型如:name l

17、ike 张%,这就属于SARG 而:name like%张,就不属于 SARG。原因是通配符%在字符串的开通使得索引无法使用。2、or 会引起全表扫描Name=张三 and 价格5000 符号 SARG,而:Name=张三 or 价格5000 则不符合 SARG。使用 or 会引起全表扫描。3、非操作符、函数引起的不满足SARG 形式的语句名师资料总结-精品资料欢迎下载-名师精心整理-第 12 页,共 28 页 -不满足 SARG 形式的语句最典型的情况就是包括非操作符的语句,如:NOT、!=、!、NOT EXISTS、NOT IN、NOT LIKE等,另外还有函数。下面就是几个不满足 SAR

18、G 形式的例子:ABS(价格)5000 SQL SERVER 也会认为是 SARG,SQL SERVER 会将此式转化为:WHERE 价格2500/2 但我们不推荐这样使用,因为有时SQL SERVER 不能保证这种转化与原始表达式是完全等价的。4、IN 的作用相当与 OR 语句:Select*from table1 where tid in(2,3)和Select*from table1 where tid=2 or tid=3 是一样的,都会引起全表扫描,如果tid上有索引,其索引也会失效。5、尽量少用 NOT 6、exists 和 in 的执行效率是一样的很多资料上都显示说,exists

19、要比 in 的执行效率要高,同时应尽可能的用not exists来代替 not in。但事实上,我试验了一下,发现二者无论是前面带不带not,二者之间的执行效率都是一样的。因为涉及子查询,我们试验这次用SQL SERVER 自带的 pubs 数据库。运行前我们可以把SQL SERVER 的 statistics I/O状态打开。(1)select title,price from titles where title_id in(select title_id from sales where qty30)该句的执行结果为:名师资料总结-精品资料欢迎下载-名师精心整理-第 13 页,共 28

20、页 -表 sales。扫描计数 18,逻辑读 56 次,物理读 0 次,预读 0 次。表 titles。扫描计数 1,逻辑读 2 次,物理读 0 次,预读 0 次。(2)select title,price from titles where exists(select*from sales where sales.title_id=titles.title_id and qty30)第二句的执行结果为:表 sales。扫描计数 18,逻辑读 56 次,物理读 0 次,预读 0 次。表 titles。扫描计数 1,逻辑读 2 次,物理读 0 次,预读 0 次。我们从此可以看到用exists和用

21、 in 的执行效率是一样的。7、用函数 charindex()和前面加通配符%的 LIKE 执行效率一样前面,我们谈到,如果在LIKE 前面加上通配符%,那么将会引起全表扫描,所以其执行效率是低下的。但有的资料介绍说,用函数charindex()来代替 LIKE 速度会有大的提升,经我试验,发现这种说明也是错误的:select gid,title,fariqi,reader from tgongwen where charindex(刑侦支队,reader)0 and fariqi2004-5-5 用时:7 秒,另外:扫描计数 4,逻辑读 7155 次,物理读 0 次,预读 0 次。selec

22、t gid,title,fariqi,reader from tgongwen where reader like%+刑侦支队 +%and fariqi2004-5-5 用时:7 秒,另外:扫描计数 4,逻辑读 7155 次,物理读 0 次,预读 0 次。8、union 并不绝对比 or 的执行效率高我们前面已经谈到了在where 子句中使用 or 会引起全表扫描,一般的,我所见过的资料都是推荐这里用union 来代替 or。事实证明,这种说法对于大部分都是适用的。select gid,fariqi,neibuyonghu,reader,title from Tgongwen where fa

23、riqi=2004-9-16 or gid9990000 用时:68秒。扫描计数 1,逻辑读 404008 次,物理读 283 次,预读 392163 次。select gid,fariqi,neibuyonghu,reader,title from Tgongwen where fariqi=2004-9-16 名师资料总结-精品资料欢迎下载-名师精心整理-第 14 页,共 28 页 -union select gid,fariqi,neibuyonghu,reader,title from Tgongwen where gid9990000 用时:9 秒。扫描计数 8,逻辑读 67489

24、次,物理读 216 次,预读 7499 次。看来,用 union 在通常情况下比用 or 的效率要高的多。但经过试验,笔者发现如果or 两边的查询列是一样的话,那么用union 则反倒和用 or 的执行速度差很多,虽然这里 union 扫描的是索引,而 or 扫描的是全表。select gid,fariqi,neibuyonghu,reader,title from Tgongwen where fariqi=2004-9-16 or fariqi=2004-2-5 用时:6423 毫秒。扫描计数 2,逻辑读 14726 次,物理读 1 次,预读 7176 次。select gid,fariq

25、i,neibuyonghu,reader,title from Tgongwen where fariqi=2004-9-16 union select gid,fariqi,neibuyonghu,reader,title from Tgongwen where fariqi=2004-2-5 用时:11640 毫秒。扫描计数 8,逻辑读 14806 次,物理读 108 次,预读 1144 次。9、字段提取要按照“需多少、提多少”的原则,避免“select*”我们来做一个试验:select top 10000 gid,fariqi,reader,title from tgongwen ord

26、er by gid desc 用时:4673毫秒select top 10000 gid,fariqi,title from tgongwen order by gid desc 用时:1376毫秒select top 10000 gid,fariqi from tgongwen order by gid desc 用时:80 毫秒由此看来,我们每少提取一个字段,数据的提取速度就会有相应的提升。提升的速度还要看您舍弃的字段的大小来判断。名师资料总结-精品资料欢迎下载-名师精心整理-第 15 页,共 28 页 -10、count(*)不比 count(字段)慢某些资料上说:用*会统计所有列,显然

27、要比一个世界的列名效率低。这种说法其实是没有根据的。我们来看:select count(*)from Tgongwen 用时:1500毫秒select count(gid)from Tgongwen 用时:1483毫秒select count(fariqi)from Tgongwen 用时:3140毫秒select count(title)from Tgongwen 用时:52050毫秒从以上可以看出,如果用 count(*)和用 count(主键)的速度是相当的,而 count(*)却比其他任何除主键以外的字段汇总速度要快,而且字段越长,汇总的速度就越慢。我想,如果用 count(*),SQ

28、L SERVER 可能会自动查找最小字段来汇总的。当然,如果您直接写count(主键)将会来的更直接些。11、order by按聚集索引列排序效率最高我们来看:(gid 是主键,fariqi是聚合索引列)select top 10000 gid,fariqi,reader,title from tgongwen 用时:196 毫秒。扫描计数 1,逻辑读 289 次,物理读 1 次,预读 1527 次。select top 10000 gid,fariqi,reader,title from tgongwen order by gid asc 用时:4720毫秒。扫描计数 1,逻辑读 41956

29、 次,物理读 0 次,预读 1287 次。select top 10000 gid,fariqi,reader,title from tgongwen order by gid desc 用时:4736毫秒。扫描计数 1,逻辑读 55350 次,物理读 10 次,预读 775 次。select top 10000 gid,fariqi,reader,title from tgongwen order by fariqi asc 用时:173 毫秒。扫描计数 1,逻辑读 290 次,物理读 0 次,预读 0 次。名师资料总结-精品资料欢迎下载-名师精心整理-第 16 页,共 28 页 -sele

30、ct top 10000 gid,fariqi,reader,title from tgongwen order by fariqi desc 用时:156 毫秒。扫描计数 1,逻辑读 289 次,物理读 0 次,预读 0 次。从以上我们可以看出,不排序的速度以及逻辑读次数都是和“order by 聚集索引列”的速度是相当的,但这些都比“order by 非聚集索引列”的查询速度是快得多的。同时,按照某个字段进行排序的时候,无论是正序还是倒序,速度是基本相当的。12、高效的 TOP 事实上,在查询和提取超大容量的数据集时,影响数据库响应时间的最大因素不是数据查找,而是物理的I/0 操作。如:s

31、elect top 10*from(select top 10000 gid,fariqi,title from tgongwen where neibuyonghu=办公室 order by gid desc)as a order by gid asc 这条语句,从理论上讲,整条语句的执行时间应该比子句的执行时间长,但事实相反。因为,子句执行后返回的是10000条记录,而整条语句仅返回10 条语句,所以影响数据库响应时间最大的因素是物理I/O 操作。而限制物理 I/O 操作此处的最有效方法之一就是使用TOP关键词了。TOP 关键词是 SQL SERVER 中经过系统优化过的一个用来提取前几条

32、或前几个百分比数据的词。经笔者在实践中的应用,发现 TOP确实很好用,效率也很高。但这个词在另外一个大型数据库 ORACLE中却没有,这不能说不是一个遗憾,虽然在ORACLE 中可以用其他方法(如:rownumber)来解决。在以后的关于“实现千万级数据的分页显示存储过程”的讨论中,我们就将用到TOP这个关键词。到此为止,我们上面讨论了如何实现从大容量的数据库中快速地查询出您所需要的数据方法。当然,我们介绍的这些方法都是“软”方法,在实践中,我们还要考虑各种“硬”因素,如:网络性能、服务器的性能、操作系统的性能,甚至网卡、交换机等。三、实现小数据量和海量数据的通用分页显示存储过程名师资料总结-

33、精品资料欢迎下载-名师精心整理-第 17 页,共 28 页 -建立一个 web 应用,分页浏览功能必不可少。这个问题是数据库处理中十分常见的问题。经典的数据分页方法是:ADO 纪录集分页法,也就是利用ADO 自带的分页功能(利用游标)来实现分页。但这种分页方法仅适用于较小数据量的情形,因为游标本身有缺点:游标是存放在内存中,很费内存。游标一建立,就将相关的记录锁住,直到取消游标。游标提供了对特定集合中逐行扫描的手段,一般使用游标来逐行遍历数据,根据取出数据条件的不同进行不同的操作。而对于多表和大表中定义的游标(大的数据集合)循环很容易使程序进入一个漫长的等待甚至死机。更重要的是,对于非常大的数

34、据模型而言,分页检索时,如果按照传统的每次都加载整个数据源的方法是非常浪费资源的。现在流行的分页方法一般是检索页面大小的块区的数据,而非检索所有的数据,然后单步执行当前行。最早较好地实现这种根据页面大小和页码来提取数据的方法大概就是“俄罗斯存储过程”。这个存储过程用了游标,由于游标的局限性,所以这个方法并没有得到大家的普遍认可。后来,网上有人改造了此存储过程,下面的存储过程就是结合我们的办公自动化实例写的分页存储过程:CREATE procedure pagination1(pagesize int,-页面大小,如每页存储20 条记录pageindex int -当前页码)as set noc

35、ount on begin declare indextable table(id int identity(1,1),nid int)-定义表变量declare PageLowerBound int -定义此页的底码declare PageUpperBound int -定义此页的顶码set PageLowerBound=(pageindex-1)*pagesize set PageUpperBound=PageLowerBound+pagesize set rowcount PageUpperBound 名师资料总结-精品资料欢迎下载-名师精心整理-第 18 页,共 28 页 -inser

36、t into indextable(nid)select gid from TGongwen where fariqi dateadd(day,-365,getdate()order by fariqi desc select O.gid,O.mid,O.title,O.fadanwei,O.fariqi from TGongwen O,indextable t where O.gid=t.nid and t.idPageLowerBound and t.id”或“200 于是就有了如下分页方案:select top 页大小*from table1 where id (select max(i

37、d)from (select top(页码-1)*页大小)id from table1 order by id)as T )order by id 在选择即不重复值,又容易分辨大小的列时,我们通常会选择主键。下表列出了笔者用有着 1000 万数据的办公自动化系统中的表,在以GID(GID是 主键,但并不是聚集索引。)为排序列、提取gid,fariqi,title字段,分别以第 1、10、100、500、1000、1 万、10 万、25 万、50 万页为例,测试以上三种分页方案的执行速度:(单位:毫秒)页码方案 1 名师资料总结-精品资料欢迎下载-名师精心整理-第 21 页,共 28 页 -方案

38、 2 方案 3 1 60 30 76 10 46 16 63 100 1076 720 130 500 540 12943 83 1000 17110 470 250 1 万 24796 4500 140 10 万 38326 42283 1553 25 万 28140 128720 2330 50 万名师资料总结-精品资料欢迎下载-名师精心整理-第 22 页,共 28 页 -121686 127846 7168 从上表中,我们可以看出,三种存储过程在执行100 页以下的分页命令时,都是可以信任的,速度都很好。但第一种方案在执行分页1000 页以上后,速度就降了下来。第二种方案大约是在执行分页

39、1 万页以上后速度开始降了下来。而第三种方案却始终没有大的降势,后劲仍然很足。在确定了第三种分页方案后,我们可以据此写一个存储过程。大家知道SQL SERVER 的存储过程是事先编译好的SQL语句,它的执行效率要比通过WEB 页面传来的 SQL语句的执行效率要高。下面的存储过程不仅含有分页方案,还会根据页面传来的参数来确定是否进行数据总数统计。-获取指定页的数据CREATE PROCEDURE pagination3 tblName varchar(255),-表名strGetFields varchar(1000)=*,-需要返回的列fldName varchar(255)=,-排序的字段名

40、PageSize int=10,-页尺寸PageIndex int=1,-页码doCount bit=0,-返回记录总数,非 0 值则返回OrderType bit=0,-设置排序类型,非 0 值则降序strWhere varchar(1500)=-查询条件 (注意:不要加 where)AS declare strSQL varchar(5000)-主语句declare strTmp varchar(110)-临时变量declare strOrder varchar(400)-排序类型if doCount!=0 名师资料总结-精品资料欢迎下载-名师精心整理-第 23 页,共 28 页 -beg

41、in if strWhere!=set strSQL=select count(*)as Total from +tblName+where +strWhere else set strSQL=select count(*)as Total from +tblName+end -以上代码的意思是如果 doCount 传递过来的不是0,就执行总数统计。以下的所有代码都是 doCount 为 0 的情况else begin if OrderType!=0 begin set strTmp=(select max set strOrder=order by +fldName+asc end 名师资料

42、总结-精品资料欢迎下载-名师精心整理-第 24 页,共 28 页 -if PageIndex=1 begin if strWhere!=set strSQL=select top +str(PageSize)+strGetFields+from +tblName+where +strWhere+strOrder else set strSQL=select top +str(PageSize)+strGetFields+from+tblName+strOrder -如果是第一页就执行以上代码,这样会加快执行速度end else begin-以下代码赋予了 strSQL以真正执行的 SQL代码s

43、et strSQL=select top +str(PageSize)+strGetFields+from +tblName+where +fldName+strTmp+(+fldName+)from(select top +str(PageIndex-1)*PageSize)+fldName+from +tblName+strOrder+)as tblTmp)+strOrder if strWhere!=set strSQL=select top +str(PageSize)+strGetFields+from +tblName+where +fldName+strTmp+(+fldName

44、+)from(select top +str(PageIndex-1)*PageSize)+fldName+from +tblName+where +strWhere+名师资料总结-精品资料欢迎下载-名师精心整理-第 25 页,共 28 页 -+strOrder+)as tblTmp)and +strWhere+strOrder end end exec(strSQL)GO 上面的这个存储过程是一个通用的存储过程,其注释已写在其中了。在大数据量的情况下,特别是在查询最后几页的时候,查询时间一般不会超过9秒;而用其他存储过程,在实践中就会导致超时,所以这个存储过程非常适用于大容量数据库的查询。笔

45、者希望能够通过对以上存储过程的解析,能给大家带来一定的启示,并给工作带来一定的效率提升,同时希望同行提出更优秀的实时数据分页算法。四、聚集索引的重要性和如何选择聚集索引在上一节的标题中,笔者写的是:实现小数据量和海量数据的通用分页显示存储过程。这是因为在将本存储过程应用于“办公自动化”系统的实践中时,笔者发现这第三种存储过程在小数据量的情况下,有如下现象:1、分页速度一般维持在1 秒和 3 秒之间。2、在查询最后一页时,速度一般为5 秒至 8 秒,哪怕分页总数只有3 页或 30万页。虽然在超大容量情况下,这个分页的实现过程是很快的,但在分前几页时,这个13 秒的速度比起第一种甚至没有经过优化的

46、分页方法速度还要慢,借用户的话说就是“还没有ACCESS 数据库速度快”,这个认识足以导致用户放弃使用您开发的系统。笔者就此分析了一下,原来产生这种现象的症结是如此的简单,但又如此的重要:排序的字段不是聚集索引!本篇文章的题目是:“查询优化及分页算法方案”。笔者只所以把“查询优化”和“分页算法”这两个联系不是很大的论题放在一起,就是因为二者都需要一个非常重要的东西聚集索引。在前面的讨论中我们已经提到了,聚集索引有两个最大的优势:名师资料总结-精品资料欢迎下载-名师精心整理-第 26 页,共 28 页 -1、以最快的速度缩小查询范围。2、以最快的速度进行字段排序。第 1 条多用在查询优化时,而第

47、2 条多用在进行分页时的数据排序。而聚集索引在每个表内又只能建立一个,这使得聚集索引显得更加的重要。聚集索引的挑选可以说是实现“查询优化”和“高效分页”的最关键因素。但要既使聚集索引列既符合查询列的需要,又符合排序列的需要,这通常是一个矛盾。笔者前面“索引”的讨论中,将fariqi,即用户发文日期作为了聚集索引的起始列,日期的精确度为“日”。这种作法的优点,前面已经提到了,在进行划时间段的快速查询中,比用ID 主键列有很大的优势。但在分页时,由于这个聚集索引列存在着重复记录,所以无法使用max或 min来最为分页的参照物,进而无法实现更为高效的排序。而如果将ID 主键列作为聚集索引,那么聚集索

48、引除了用以排序之外,没有任何用处,实际上是浪费了聚集索引这个宝贵的资源。为解决这个矛盾,笔者后来又添加了一个日期列,其默认值为getdate()。用户在写入记录时,这个列自动写入当时的时间,时间精确到毫秒。即使这样,为了避免可能性很小的重合,还要在此列上创建UNIQUE 约束。将此日期列作为聚集索引列。有了这个时间型聚集索引列之后,用户就既可以用这个列查找用户在插入数据时的某个时间段的查询,又可以作为唯一列来实现max或 min,成为分页算法的参照物。经过这样的优化,笔者发现,无论是大数据量的情况下还是小数据量的情况下,分页速度一般都是几十毫秒,甚至 0 毫秒。而用日期段缩小范围的查询速度比原

49、来也没有任何迟钝。聚集索引是如此的重要和珍贵,所以笔者总结了一下,一定要将聚集索引建立在:1、您最频繁使用的、用以缩小查询范围的字段上;2、您最频繁使用的、需要排序的字段上。结束语:本篇文章汇集了笔者近段在使用数据库方面的心得,是在做“办公自动化”系统时实践经验的积累。希望这篇文章不仅能够给大家的工作带来一定的帮助,也 希名师资料总结-精品资料欢迎下载-名师精心整理-第 27 页,共 28 页 -望能让大家能够体会到分析问题的方法;最重要的是,希望这篇文章能够抛砖引玉,掀起大家的学习和讨论的兴趣,以共同促进,共同为公安科技强警事业和金盾 工程做出自己最大的努力。最后需要说明的是,在试验中,我发

50、现用户在进行大数据量查询的时候,对数据库速度影响最大的不是内存大小,而是CPU。在我的 P4 2.4 机器上试验的时候,查看“资源管理器”,CPU 经常出现持续到100%的现象,而内存用量却并没有改变或者说没有大的改变。即使在我们的HP ML 350 G3服务器上试验时,CPU 峰值也能达到 90%,一般持续在 70%左右。本文的试验数据都是来自我们的HP ML 350 服务器。服务器配置:双Inter Xeon 超线程 CPU 2.4G,内存 1G,操作系统 Windows Server 2003 Enterprise Edition,数据库 SQL Server 2000 SP3。sele

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 高考资料

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁