2022年分布式与并行计算报告.docx

上传人:C****o 文档编号:12836607 上传时间:2022-04-26 格式:DOCX 页数:8 大小:313.40KB
返回 下载 相关 举报
2022年分布式与并行计算报告.docx_第1页
第1页 / 共8页
2022年分布式与并行计算报告.docx_第2页
第2页 / 共8页
点击查看更多>>
资源描述

《2022年分布式与并行计算报告.docx》由会员分享,可在线阅读,更多相关《2022年分布式与并行计算报告.docx(8页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、精品学习资源并行运算技术及其应用简介XXXXX , XX , XXX 摘 要:并行运算是实现高性能运算的主要技术手段;在本文中从并行运算的进展历程开头介绍,总结了并行运算在进展过程中所面临的问题以及其进展历程中显现的重要技术;通过分析在当前比较常用的实现并行运算的框架和技术, 来对并行运算的现状进行阐述;常用的并行架构分为SMP多处理系统 、NUMA非统一内存储备、 MPP巨型并行处理以及集群;涉及并行运算的编程模型有MPI 、PVM 、OpenMP 、TBB 及 Cilk+ 等;并结合当前争论比较多的云运算和大数据来探讨并行运算的应用;最终通过 MPI 编程模型, 进行了并行编程的简洁试验;

2、关键词:并行运算;框架;编写模型;应用;试验A Succinct Survey about Parallel Computing Technology and ItsApplicationAbstract:Parallel computing is the main technology to implement high performance computing. This paper starts fromthe history of the development of Parallel Computing.It summarizes the problems faced in the

3、 development of parallel computing and the important technologies in the course of its development. Through the analysis of framework and technology commonly used in parallel computing currently,to explain the current situationof parallel computing.Framework commonly used in parallel are SMPmulti pr

4、ocessing system,NUMAnon uniform memory storage,MPPmassively parallel processing and cluster.The programming models of parallel computing are MPI, PVM, OpenMP, TBB and Cilk+,etc.Explored the application of parallel computing combined with cloud computing and big data which are very popular in current

5、 research.Finally ,through the MPI programming model,a simple experiment of parallel programming is carried out.Key words:parallel computing; framework; programming model; application; experiment1 引言近年来多核处理器的快速进展,使得当前软件技术面临庞大的挑战;单纯的提高单机性能,已经不能满足软件进展的需求,特殊是在处理一些大的运算问题上,单机性能更加显得不足;在最近AlphaGo 与李世石的围棋大战

6、中, AlphaGo 就使用了分布式并行运算技术,才能获得强大的搜寻运算才能;并行运算正是在这种背景下,应运而生;并行运算或称平行运算时相对于串行运算来说的;它是一种一次可执行多个指令的算法,目的是提高运算速度,及通过扩大问题求解规模,解决大型而复杂的运算问题;可分为时间上的并行和空间上的并行;时间上的并行就是指流水线技术,而空间上的并行就是指用多个处理器并发的执行运算;其中空间上的并行,也是本文主要的关注点;并行运算 Parallel Computing 是指同时使用多种运算资源解决运算问题的过程,是提高电脑系统运算速度和处理才能的一种有效手段;它的基本思想是用多个处理器来协同求解同一问题,

7、即将被求解的问题分 解成假设干个部分,各部分均由一个独立的处理机来并行运算;并行运算系统既可以是特地设计的,含有多 个处理器的超级电脑,也可以是以某种方式互联的假设干台的独立电脑构成的集群;通过并行运算集群完成 数据的处理,再将处理的结果返回给用户;目前常用的并行运算技术中,有调用系统函数启动多线程以及利用多种并行编程语言开发并行程序,常用的并行模型有 MPI 、PVM 、OpenMP、TBB 、Cilk+ 等;利用这些并行技术可以充分利用多核资源适应目前快速进展的社会需求;并行技术不仅要提高并行效率,也要在肯定程度上减轻软件开发人员负担,如近年来的 TBB 、Cilk+ 并行模型就在肯定程度

8、上削减了开发难度,提高了开发效率,使得并行软件开发人员把更多精力专心于如何提高算法本身效率,而非把时间和精力放在如何去并行一个算法;分布式与并行运算课程设计报告1欢迎下载精品学习资源文献1 回忆了并行运算技术六十多年的进展历史,并分析了其进展的将来趋势和所面临的可拓展性“墙”;文献2 对大规模 MPI 运算中,当前常用的容错机制和多模冗余带来的开销进行了分析,提出了一种可拓展三模冗余容错机制;文献 3 就阐述了并行运算和云运算之间的关系,并介绍了并行运算在云运算中运用的一些指导原就;文献 4 分析了在大数据时代,并行运算面临的挑战和基于,综述了面对批处理、面对流处理、面向图数据以及面对内存等几

9、类并行运算模型的相关争论;文献5 对并行运算模型进行了概述,介绍了抱负计算模型的特点,争论了一些典型的运算模型,综述了目前并行运算模型在异构运算环境的进展情形;文献6针对传统单一的并行运算模型变得越来越复杂,对并行运算个阶段针对性不强,提出了一种分层并行运算模 型的思想;文献 7 针对在专业集群中进行并行运算的处理,存在费用高、治理困难和操作复杂等问题,利用PC 和以太网相连的试验环境,采纳集群工作框架和并行运算的关键技术,提出基于Linux 集群的并行运算系统环境,并在该环境上对系统性能进行了测试;文献8 在 CPU/GPU 协同并行运算这一新兴领域,对当前的争论工作进行了综述; 依据所用运

10、算资源的规模将CPU/GPU 协同并行运算争论划分为三类, 尔后从立项依据、争论内容和争论方法等方面重点介绍了几个混合运算项目,并指出了可进一步争论的方向,以期为领域科学家进行协同并行运算争论供应肯定参考;文献9 中对图形处理器中的相关问题进行争论;提出了统一运算架构CUDA为实现 GPU通用运算供应了高效、简便的方法因此,建立了基于GPU通用运算平台的中心差分格式的显式有限元并行运算方法该方法针对 GPU运算的特点, 对串行算法的流程进行了优化和调整,通过采纳线程与单元或节点的一一映射策略,实现了迭代过程的完全并行化;2 并行运算进展的三个重要阶段并行运算是实现超高运算性能的主要技术手段,回

11、忆其进展的历史进程,可以看出并行运算的进展从整体上跨过了三个阶段;2.1 Amdahl 公式与适度并行早在二十世纪四十岁月中后期,现代电子电脑的鼻祖冯诺依曼就提出了用并行运算提高电脑性能的技术途径;所谓并行运算,就是采纳多个运算部件或多台电脑共同开展运算任务;理论上,并行多少台电脑就可以获得多少倍的运算速度, 但实际加速才能往往和应用特点亲密相关;1967 年,Amdahl 提出了闻名的运算性能加速比公式也称Amdahl 定律:欢迎下载精品学习资源STsATn1nf n11欢迎下载精品学习资源公式 1中的 Ts表示应用的串行版本程序的执行时间,f 表示应用中不能被并行化部分的工作量占整个欢迎下

12、载精品学习资源程序工作量的比率, n 表示并行系统的处理器数目;Tn 表示应用的并行版本程序和n 个处理器上的执行时间;欢迎下载精品学习资源这些概念和理论方面的基础争论极大地推动了适度并行运算技术的有用化;2.2 Gustafson公式与大规模并行80 岁月后期学术界绽开了一次很大的争论,大家对并行是否有前途众说纷坛,问题的焦点是能不能通过并行规模增大来连续提高电脑性能;1988 年,美国科学家Gustafson 在大量实际物理问题并行运算过程中总结了一个闻名公式,发表在Communication of ACM 上;这篇论文只有两页,但它揭示了一个规律,即Gustafson 通过他的应用实践发

13、觉,许多程序随着应用规模的扩大,程序中不能被并行化部分工作量的肯定量基本保持不变;而不能被并行化部分工作量占总工作量的相比照样f 会相应减小;基于这个规律,他提出了闻名的Gustafson 加速比公式:欢迎下载精品学习资源SfGTsn1f Tn2欢迎下载精品学习资源从公式可以得出,当f 随着运算规模扩大而不断缩小时,处理器数假如增多,一个程序的加速比仍是可以随着处理器的增多而提升的;这个公式不是一个精细的性能评估公式,而是一个思想性的公式,它揭示了 大规模并行的要旨:并行电脑的实际性能和它所运行的并行程序特点亲密相关;在大规模并行电脑上要取得 高有用运算性能,在其上运行的并行程序必需具有串行运

14、算负载保持不变,并行运算负载随着电脑规模的扩 大而扩大的特点,这样的程序通常成为可扩展并行程序;在提高大规模并行运算使用效率的过程中,能否设欢迎下载精品学习资源计出可扩展并行算法和可扩展并行程序,与大规模并行电脑系统的研制同等重要;2.3 效能评判模型与高效能并行高性能电脑应当向什么方向进展,2002 年美国国防部 DARPA 提出的“高效能运算系统HPCS” 方案,着眼于高性能向高效能的转变,认为高效能电脑系统不仅要关注很高的运算性能,仍要关注系统的实用性能、可编程性、可移植性、系统鲁棒性和经济可行性;于是基于经济学中产生率的概念和效用理论逐步取代了以往单一的运算性能评判模型;效能模型框架如

15、下:欢迎下载精品学习资源P, M ,T ,U U P,T 3欢迎下载精品学习资源C P, M ,T 其中, T 为问题 P 解决的时间 Time-to-solution , M 是并行电脑系统, U 为效用函数, C 为在系统 M 上 T 时间内解决问题 P 所投入的最小成本函数;该效能度量模型综合考虑了并行系统开发Development和运行 Execution 两种状态,将开发的时间和系统运行的时间统一到问题解决时间T 中;虽然,环绕这一公式标志着高性能电脑学术界、产业界对大规模并行电脑进展趋势产生了新的熟悉;3 并行编程模型并行编程可以调用系统函数启动多线程,也可以利用并行编程模型,如常

16、用的并行模型有MPI 、PVM 、OpenMP、TBB 及 Cilk+ 等;3.1 MPI 简介MPIMessage Passing Interface是基于消息传递的并行编程模型;消息传递指的是并行执行的各个进程具有自己独立的堆栈和代码段,作为互补相关的多个程序独立执行,进程之间的通信通过显式地调用通 信函数来完成;1MPI 程序基本函数 MPI_Init用来初始化 MPI 执行环境, 建立多个 MPI 进程之间的联系, 为后续通信做预备; MPI_Finalize就是终止 MPI 执行环境;这两个函数之间定义MPI程序的并行区域; MPI_Comm_rank来表示各个 MPI 进程; MP

17、I_Comn_size 用来表示进程组中有多少个进程,返回整型的错误值, 同时有两个函数参数, MPI_Comn类型的通信域,标识参加运算的MPI进程组,如 MPI_COMM_WOR整LD数; 指标,返回相应进程组中的进程数;( 2) MPI 性能分析与优化举例MPI 消息传递开销由两部分组成:一部分是通信固有的推迟;另一部分是消息传递开销,与消息的数据量和网络带宽有关;时间消耗可以用下面的式子表示:欢迎下载精品学习资源T TotalTcommTserial4欢迎下载精品学习资源欢迎下载精品学习资源其中, 下分解:TTotal、 Tcomm 、 Tserialn分别表示程序总用时、通信用时和串

18、行部分用时;而通信用时一般可作如m欢迎下载精品学习资源Tcommnt sBi / wTii 1TCii 15欢迎下载精品学习资源欢迎下载精品学习资源其中, n 为点对点通信次数, m为集群通信次数,t s 为通信固定推迟,Bi 为第 i 次通信的容量, w 为网欢迎下载精品学习资源欢迎下载精品学习资源络带环,Ti 为负载不平稳造成的时间消耗,TC 集群通信耗时;欢迎下载精品学习资源i( 3)解决负载均衡问题在并行运算中,假设各个处理器上的执行时间不同,因同步会使先完成的处理器等待未完成的处理器, 此时应当考虑负载均衡问题,是的资源得到合理利用;负载均衡分为:静态负载均衡及动态负载均衡;静态负载

19、均衡使用与运算前可以精确估算总的负载,且这些负载简洁平均划分给各个进程的情形;对于实现不知道负载总数,或者总负载不易平均划分的情形,需要动态负载均衡策略来解决;3.2 PVM 简介PVM 是一个在网络上的虚拟并行机系统的软件包,它答应将网络上基于UNIX 操作系统的并行机和单处欢迎下载精品学习资源理机的集合当成一台单一的并行虚拟机来使用;PVM 支持用户采纳消息传递方式编写并行程序;运算以任务为单位,一个任务就是一个UNIX 进程,每个任务都有一个taskid 来标识不同于进程号;PVM 支持在虚拟机中自动加载任务运行,任务间可以相互通讯以及同步,在PVM 系统中,一个任务呗加载到哪个节点上去

20、运行,PVM 就答应用户指定任务被加载的节点,这样就便利了用户编写并行程序;3.3 OpenMP 简介OpenMp 是一种面对共享内存及分布式共享内存的多处理器多线程并行编程语言,它也是一种能够用于显示指导多线程、共享内存并行的应用程序编程接口;OpenMP 的编程模型以线程为基础,通过编译指导语句来显示地指导并行化, 为编程人员供应了并行化的完整掌握;OpenMP 的执行模型采纳 Fork Join 形式,Fork Join 执行模式在开头执行的时候,只有一个主线程存在;主线程在运行过程,当遇到需要进行并行运算的时候,派生出子线程来执行并行任务;在并行执行的时候,主线程和派生线程共同工作;在

21、并行代码终止执行后,派生线程退出或者挂起,不再工作,掌握流程回到单独的主线程中;3.4 Intel TBBThreading Building Block简介Intel TBB是一个用来支撑可扩展编程的库,TBB 的工作层次要高于裸线程,它为C + +程序供应了丰富而完备的方法来表达并行语义;TBB指定的是任务而不是线程,一般线程软件包都要求创建、汇合及治理线程; TBB 运用自己的调度算法把任务安排到各个线程,高效合理地利用处理器资源;TBB 的目标是通过线程来提升性能,将密集的运算任务并行化,供应更高层次和更简洁的解决方案,TBB 依靠泛型编程; TBB 中仍支持算法模板,如基于递归区间的

22、面对循环算法,依据需求来递归地划分问题,从而获得并行任务的正确层次; 相比静态划分问题, 递归划分问题的方式更占优势;线程构建模块的函数都定义在空间tbb 中,TBB供应 parallel_for 与 parallel_reduce 泛型并行算法,可以负载均衡地对固定数目的独立循环迭代体进行并行执行;3.5 Cilk+简介Cilk +语言扩展了 C + 语言来编写并行应用程序,有效地利用多处理器;Cilk + +语言特殊适合但不限于分而治之算法,把任务分解成子问题 任务 ,可以独立地加以解决;递归函数通常用于分而治之算法;这些任务会在不同循环迭代; Cilk +关键字识别函数调用和循环, 可以

23、并行运行; Cilk +语言比较适合 “二分法”算法,将问题分解成假设干独立子问题,再将这些执行结果合并起来;任务既可以在不同的函数里实现,也可以在一个迭代的循环中完成;Cilk +的关键词能有效地标识可并行执行的函数调用和循环,Cilk +的运行环境能有效地将这些任务调度到闲暇的处理器上运行;4 几种应用背景下的并行运算4.1 云运算与并行运算云运算是分布式处理、并行处理和网格运算的进一步进展,是一种新兴的共享基础架构的技术,它可以将庞大的系统池连接在一起以供应各种IT 服务;连接设备、实时数据流、SOA 的采纳以及搜寻、开放协作、社会网络和移动商务等都是推动云运算技术进展的推动因素;云运算

24、与并行运算相比,在应用广泛性方面,并行运算是为满意某科学领域的专业需求,要求开发者具备较强的技术水平,不具备较强的广泛性,但云运算可以运用在较多领域,而且具有好的成效;在性能方面, 并行运算主要追求较高的加速比,而云运算就单机的运算才能要求较低,此系统通过将分散的结点统一,根 据相应调度算法合理调度,从而获得庞大的运算才能,而且仍能依据客户的需求变化进行调整;并行运算和虚拟化一起构成了云运算技术的骨干;对于大型应用系统实施云运算的主要内容就是实施并行运算;并行运算技术除了目前炙手可热的MapReduce 以外,值得举荐的仍有OpenMP、MPI和 Erlang;这3 个技术主要应用于并行程序的

25、开发,和其他并行策略如 SOA一起,用于从根本上实现应用的并行化;中国电信在支撑云的争论、建设中,方案在多个层面实施并行运算,以提高应用运行效率和牢靠性,降低采购和运营成本;对于条件成熟的应用,拟从业务并行开头,在开发层面即实现并行运算;目前,经过争论分析和测试,针对不同的应用,初步制定出不同的并行化解决方案,采纳合适的并行运算技术实现不同层次的并行运算;欢迎下载精品学习资源4.2 大图数据背景下的并行运算模型及其优化技术大数据时代背景下,数十亿顶点级别大规模图的不断涌现以及云运算基础设施的连续完善,推动着图数据处理的争论重心由单机图算法的高度优化逐步转向分布式并行大图处理的优化;目前,大图数

26、据处理存在两种典型的模式:一是采纳通用的海量数据分布式并行运算框架MapReduce 进行处理;二是采纳完全面对图结构设计的专用大图运算框架;由于Mapreduce 在应用定位与设计目标上主要是针对模式自由schema-free的数据对象实现高吞吐的批量处理,因此其缺乏有效处理大图的内部机制;相比之下,专用大图并行运算模型有针对性地考虑了图运算的基本特点,因此从框架内部就已经供应了对大图处理的支持,能获得较好的性能;其显著的特点是供应了对图运算中最常见的迭代操作的支持和实现了直观易用的以顶点为中心的编程抽象;从储备架构上可以将大图并行运算模型分为:面对分布内存架构以及面对单机多核共享内存架构两

27、类;在分布内存架构下,目前具有代表性的大图并行运算模型有Pregel、HAMA 、Giraph、Distributed GraphLab以及 Trinity 等;由于图结构的高耦合性,分布式环境以下图运算的网络通信代价很高,图划分是优化分布式大图运算通信开销的有效手段;部分大图处理系统采纳经典的划分方法,如ParMetis,也有其他一些系统探 索了新的划分方法, 如 GraphX 和 PowerGraph 均采纳 vertex-cut 的划分方法缓解自然图中高度数 high-degree顶点通信集中的问题; Trinity采纳多层标签传递的划分方法,借助图的语义有效支持了十亿顶点级别大图的划分

28、;而 GPS 和 Mizan 都利用动态的划分方法缓解了大图运算过程中负载失衡时的顶点重安排的问题;除了最麻烦的图划分问题外,分布式内存架构仍旧面临许多困难,如需要开发者具有特地的分布式编程学问在集 群环境中进行复杂的调试与优化工作;鉴于此,一些争论工作面对单机环境提出了有针对性的优化技术,如 序列化随机拜访、利用多核以及新型储备的高并发才能、引入异步机制等,并设计了相应的大图运算模型; 上述争论利用外存的一些拜访特性,通过有针对性的优化提升处理效率,缓解大图对内存的压力;此外,仍 有一些基于单机的图运算系统,仍旧假设以全内存的方式进行图数据处理;虽然这些争论的侧重点不在储备 模式,但是在大图

29、环境下这些争论成果的实施成效可能会受到肯定的影响;4.3 集群背景下的并行运算集群 Cluster 是一组相互独立的服务器在网络中表现为单一的系统,并以单一系统的模式加以治理,以此单一系统为客户供应高牢靠性的服务;在大多数模式下,集群中全部的电脑拥有一个共同的名称,集群内任一系统上运行的服务可被全部的网络客户所使用; Cluster 必需可以和谐治理各别离的组件的错误和失败,并可透亮地向 Cluster 中加入组件;一个 Cluster 包含多台 至少 2 台拥有共享数据储备空间的服务器; 任何一台服务器运行一个应用时, 应用数据被储备在共享的数据空间内;每台服务器的操作系统和应用程序文件储备

30、在其各自的本地储存空间上;Cluster 内各节点服务器通过一个内部局域网相互通信;当一台节点服务器发生故障时,这台服务器上所运行的应用程序将在另一台节点服务器上被自动接管, Cluster 结构如图 1 所示;图 1 Cluster 体系结构采纳 Cluster 体系结构的系统,具有可自由伸缩、高度可治理、高可用、高性能价格比等诸多优点,解决了跨平台治理、跨操作系统治理、系统软硬件运行状态监控等混合平台应用等技术难题,是担当大规模科欢迎下载精品学习资源学工程运算 如并行运算 的坚实且抱负的系统平台;集群可以分为3 类:高可用性集群,负载均衡集群,超级运算集群;高可用性集群的主要功能是供应24

31、 h 不间断服务;通常是由多个节点构成,当单个节点显现故障时,系统其他节点接替服务,整个系统仍能连续正常对外供应服务;负载均衡集群将系统的整体负载合理地安排到各个节点上,使得每个节点都不会由于超负荷工作而崩溃;并且系统整体负载需求大于系统整体负载才能时,可以通过增加系统节点,平滑地拓展系统负荷才能;超级运算集群是通过将多台机器连接起来同时处理复杂的运算问题的电脑群;5 关于并行运算的两个简洁试验5.1 基于 MPI的 hello word程序测试本试验旨在测试在单机环境下的基于MPI 并行程序的试验环境;采纳的是编程环境是:VC6.0和MPICH2 ;程序采纳 C+语言编写;程序源代码,见附录

32、源代码一;运行截图如下;通过观看任务治理器,发觉有许多个mpitest.exe 的进程;由于没有联网的其他节点存在,所以 200 个都在本机上运行了;图 2 hello world 程序运行结果图图 3 hello world 程序结果局部放大图键入命令“ mpiexec -n 200 mpitest.exe ”后 , MPI 运行库接收到要并行运行200 个 mpitest.exe,查找接近节点,调度接近节点上的mpitest.exe,在这里的测试上由于只有一个节点,所以全部一起执行了;5.2 数字字符串处理问题欢迎下载精品学习资源在这一节进行的是一个通过MPI 和 C 语言编写并行程序的试

33、验,第一对问题进行描述如下:对于任意一个给定的合法数字字符串,将其各位累加求和,然后对求和得到的数值进行判定,假如为一位数,就停止,假如为多位数,迭代执行上述过程,直到得到一位数为止;试验环境: 通过在 VC6.0 平台上配置 MPICH2 ,然后通过 C 语言编写并行程序; 源程序见附录源程序二;运行过程中的输入输出结果如以下图所示,输入数据采纳txt 文本输入,通过程序读入到内存;图 4 字符串处理问题输入数据文件截图图 5 字符串处理问题输出结果图图 5 显示了以不同的模拟处理器个数运行程序结果;在写这个并行程序时, 我总结的最大问题就是master processor 和 worker

34、 processor 的通信, master processor 怎么将任务安排给各个worker processor,不仅要留意MPI_Send 和 MPI_Recv 数目的严格匹配,仍要留意MPI_Send 和 MPI_Recv 里面的参数也要严格匹配;4 总结在当前的电脑行业中,并行运算技术具有很重要的位置,特殊是近年来,硬件进展的速度逐步不再符合摩尔定律,其进展速度跟不上软件的需求速度;因此并行运算技术无论是运用在单机仍是多机,以及集群上, 都具有很重要的意义;近年比较热门的方向,云运算和大数据,都依靠于并行运算技术的实施;此外分布式 运算通常与并行运算是具有紧密关联的;在该课程上,我

35、明白并学习了分布式并行运算领域的相关学问,虽欢迎下载精品学习资源然自己的争论方向不是课程的方向,但是自己爱好编程和算法,能够在试验中,进行并行运算方面简洁的试验,我觉得自己收成很大;致谢 感谢刘老师的辛勤教学,以及同学们给我在学习和报告中的参考看法.参考文献1杨学军 . 并行运算六十年 J. 电脑工程与科学 , 2021, 348:1-10.2 王之元 , 杨学军 , 周云, 等. 大规模 MPI 并行运算的可拓展三模冗余容错机制J 软件学报 , 2021, 4,234:1023-1035.3 郑文武 , 李光绪 , 黄执勤 . 云运算中的并行运算技术分析J. 电信科学 . 2021,12:3

36、1-37.4 潘巍, 李战怀 . 大数据环境下并行运算模型的争论进展J. 华东师范高校学报自然科学版, 201. 9,5:44-49.5 王庆先 , 孙世新 , 尚明生 , 刘彦兵 . 并行运算模型争论 J. 电脑科学 ,2004. 319: 128-130.6 陈国良 , 苗乾坤 , 孙广中 , 徐云, 郑启龙 . 分层并行运算模型 J. 中国科学技术高校学报 , 2021, 38 7:841-846.7 王海涛 . 刘淑芬 . 基于 Linux 集群的并行运算 J. 电脑工程 . 2021,361:64-66.8 卢风顺 , 宋君强 , 银福康 , 张理论 , CPU/GPU 协同并行运算

37、争论综述 , 2021,3,383: 5-9.9 蔡勇, 李光耀 , 王琥, GPU 通用运算平台上中心差分格式显式有限元并行运算J. 电脑争论与进展 , 2021,502: 413-418.10 zhaolong Ning, Qingyang Song, Yejun Liu, Fanzhao Wang, Xinyu Wu. Markov-based vertical handoff decision algorithms in heterogeneous wireless networksJ. Computers and Electrical Engineering, 2021,40:456

38、-472.11 Jin Zhu,Limin Xu, Lin Yang, Wangqing Xie. An Optimal Vertical Handoff Decision Algorithm for Multiple Services with Different Priorities in Heterogeneous Wireless NetworksJ. Wireless Pers Commun, 2021,83:530-534.12 Rong Chai, Huili Zhang, Xiaoyu Dong, Qianbin Chen, Tommy Svensson. Optimal joint utility based load balancing algorithm for heterogeneous wireless networksJ. Wireless Netw, 2021.1.31.欢迎下载

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 高考资料

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁