您好,欢迎来到好走旅游网。
搜索
您的当前位置:首页基于高性能计算的开源云平台性能评估

基于高性能计算的开源云平台性能评估

来源:好走旅游网
Journal of Computer Applications ISSN 1001—908l 2013—12—0l 计算机应用,2013,33(12):3580—3585 C0DEN JYIIDU http://www.joca.an 文章编号:1001—9081(2013)12—3580—06 doi:10.11772/j.issn.1001—9081.2013.12.3580 基于高性能计算的开源云平台性能评估 李春艳 ,张学杰 (1.云南大学信息学院,昆明650091; 2云南大学高性能计算中心,昆明650091) ( 通信作者电子邮箱xjzhang@ynu.edu.cn) 摘要:云计算是一种提供各种IT服务的互联网资源利用的新模式,已经广泛地应用在包括高性能计算的各种 领域。然而,虚拟化带来了一些性能开销;同时,不同的云平台实施虚拟化技术的不同,使得在这些云平台上应用高性 能计算服务的性能也千差万别。通过HPC Challenge(HPCC)Benchmark和NAS Parlalel Benchmark(NPB)分别对 CPU、内存、网络、扩展性和高性能计算真实负载进行评估,比较并分析了诸如Nimbus、OpenNebula和OpenStaek实施 高性能计算的性能,实验显示OpenStack对计算密集型的高性能应用负载表现出较好的性能,因此,OpenStack是实施 高性能计算的开源云平台的一个好的选择 、 关键词:高性能计算;云计算;基准测试;HPCC;NAS并行基准测试程序;开源 中图分类号:TP31l 文献标志码:A Performance evaluation on open source cloud platform for high performance computing LI Chunyan‘.ZHANG XueiieI_ (1.School Information Science and Engineering,Yunnan University,Kunming Yunnan 65009 1,China; 2.High Performance Computing Center,Yunnan University,Kunming Yunnan 65009 1,China) Abstract:Cloud computing is a new model of the Internet resource utilization to provide a variety of IT services.It has been widely used in various fields,including High Performance Computing(HPC).However,its virtualization has caused solne performance overhead.Meanwhile,there are some differences in virtualization technology‘)f different cloud platforms,SO the performance in implementing HPC is different among them.The performance and real workload evaluation of HPC of open source clouds platofrms,including Nimbus,OpenNebula and OpenStack,were compared and analyzed by HPC Challenge (HPCC)benchmark suite and NAS Parallel Benchmark(NPB)from CPU,memory,communication,scalability and HPC, respectively.The experimental results show that OpenStack has better performance for computation—intensive high performance applications,thus it is a good selection for implementing HPC applications in open source cloud platform. Key words:High Performance Computing(HPC);cloud computing;benchmark;High Performance Computing Challenge(HPCC);NAS Parallel Benchmark(NPB);open source PC服务器搭建集群以及最近用GPU加速科学计算一样,云 计算对于HPC也是一次模式转变。 云计算 是由经济尺度驱使的大规模分布式计算模型, 虚拟化包括基于软件的完全虚拟化、硬件辅助虚拟化、类 它是抽象、虚拟、动态可扩展、可管理计算能力的资源池,连同 虚拟化(Para—Virtualization)等,每种技术中采用的方法也各不 其存储、平台和服务可通过互联网按需地传递给客户。云计 相同,基于软件的完全虚拟化中,CPU虚拟化采用“陷入并模 算资源是动态的、可扩展和虚拟化的,其提供许多诸如服务器 拟”的方式,其中Virtual Machine Monitor(VMM)采用模拟的 整合、扩展性、隔离性和迁移等优点。然而,高性能计算(High 技术可分为解释执行、扫描与修补和动态二进制翻译 Performance Computing,HPC)作为科学的研究方法在学术界 (dynamic Binary Translation,BT)等。文献[2]详细比较并分 和 业界正得到越来越多的重视,相比快速发展的硬件技术, 析r诸如Xen、KVM、VirtualBox、VMWare虚拟化技术,开源云 高性能计算软件和应用环境仍然非常落后,而且超级计算在 平台采用不同的虚拟化技术其表现出的性能将完全不同。 规模上的扩大也对高性能计算的系统管理带来了挑战。目 在云计算方面一个基本的概念是基于提供的基础设施作 前,高性能计算迫切需要解决一些问题:负载平衡、确保服务 为一个服务(Infrastructure as a Service,IaaS),把资源传递给 质量(Quality of Service,QoS)、资源分配和容错管理等。云计 用户,而用户无需购买和维护计算、存储和网络资源。为了建 算的灵活弹性计算模式可解决目前高性能计算所遇到的问 立如此的这种服务,许多工具是可行的,其中目前流行且开源 题,已经慢慢地运用在高性能计算领域,特别在科学云部署和 的云平台包括:Eucalyptus、Nimbus、OpenNebula和 虚拟化集群 方面。传统高性能计算的排队批处理方式很 OpenStack口。。许多研究机构用开源的云平台建立了自己的 难实现按需即时响应的科学计算,On—demand的云计算给高 高性能计算环境。本文主要讨论三种开源云平台:Nimbus、 性能计算提供r更易交互的计算模式,如同几年前大众化的 OpenNebula和OpenStack。 收稿日期:2013-06—26;修回日期:2013-09-06。 基金项目:国家门然科学 金资助项日(61170222);云南大学第五届研究生科研课题一般资助项目(ynuy201258). .作者简介:李春艳(1980一),女,安徽阜阳人,硕士研究生,主要研究方向:云计算、高性能计算; 张学杰(1965一),男,云南昆明人,教授 博士生导师,博f:,CCF高级会员,主要研究方向:高性能计算、分布式系统、计算机网络。 第12期 李春艳等:基于高性能计算的开源云平台性能评估 3581 l 相关工作 早期关于虚拟化的研究主要致力于网格 J。一些特别 的网格计算系统实施虚拟化资源 o 。近年来,虚拟化、云计 算和高性能计算迅速发展,早在2006年,Youseff等 评估了 在Xen中应用MPI的性能影响,并通过评估得出Xen对高性 能计算应用来说并没有强加显著的性能开销。在同一年, IBM Watson研究中心强调了在高性能计算环境下硬件虚拟 化的重要价值 j。Evangelinos等 论述了在EC2云基础设 HPC基准测试的性能之后,进行不同程度的性能改进。 本文重点致力于开源的云基础设施平台。虽然在云环境 中实施某种范围的HPC应用有一些成功案例,然而,本文的 目的是探讨哪一种开源云平台对什么类型的HPC应用有较 好的性能。通过模拟和相似性度量比较并分析了HPC Challenge(HPCC)Benchmark实验的数据套件,得出的结论 是:OpenStack针对HPC应用显示出较好的性能,是本文所建 议的最优开源云平台,最后通过实施HPC应用负载验证了此 结论。 施中实施HPC Benchmarks的具体分析,结果显示EC2云系统 对支持按需、小规模的HPC应用来说是可靠的解决方案,但 此文献仅仅从宏观方面进行了评估。Younge等 着眼于高 性能计算环境的适用性,从特征比较到性能分析深入地介绍 了当今通常被接受的一些虚拟化技术,最后得出结论:对支持 2 性能评估方法 2.1开源云平台选择 之所以选择开源的云平台是因为开源软件有很多优势, 许多企业和也越来越倾向开源软件的使用,这些优势包 HPC应用来说,KVM hypervisor是最优的选择。以上文献致 力于在云环境中实施HPC Benchmark,并评估相应的性能。 另一方面,Gavrilovska等 。。讨论了一些在当前虚拟化架构下 支持HPC应用的改进,如HPC管理器(sidecore)和自虚拟化 I/O设备。此外,文献[11—13]更多关注性能优化,通过评估 括安全性、稳定性、开放标准和摆脱供应商依赖、可定制化能 力、灵活性、互操作性和成本低等,因此,本文中选择目前较流 行的三大开源云平台:Nimbus、OpenNebula和OpenStack,其细 节的特征比较如表1所示 ,这里仅针对接口、虚拟管理器、 网络、软件部署和存储五部分展开描述。 表1云平台特征比较 2.2 Benchmark选择 triangulr(LU)、aScalr aPenta—diagonal(SP)与Block Tri-diagonal 通过微观基准测试HPCC Benchmark Suite和宏观基准测 (BT)),如表3所示。 表2 HPCC Benchmark Suite度量标准 试NAS并行基准测试程序(NAS Parallel Benchmark,NPB)对 以上三大云平台进行性能评估。 2.2.1 HPCC Benchmark HPCC Benchmark Suite HPL 度量标准 测试系统浮点操作性能 测量矩阵乘法的浮点执行率 测试内存带宽 衡量系统网络的总体通信能力 随机更新内存的能力 使用双精度一维离散傅里叶变换 测量浮点操作能力 通信带宽和延迟测试 TOPS00使用Linpack基准测试性能,HPC的传统基准测 试大部分选择Linpack。但是,它是不充分的,Linpack仅仅强 DGEMM STREAM PI’RANS 调CPU的峰值性能,忽略本地的网络带宽、延迟和存储等因 素,单以CPU浮点操作能力无法反映计算机系统可能存在的 性能瓶颈,所以Linpack并不能反映HPC系统各方面的性能。 然而,HPCC基准测试套件的各个组成部分着眼于计算机系 RandomAccess FFT Bandwidth and Latency 统的一个方面,如:CPU、内存、网络等,已经成为TOPSO0评测 的一个有效补充,因此,评估一个系统的好坏,不再被单个性 能指标所决定。HPCC包括7个不同的标准 ,如表2所示。 这7个标准满足空间局部性和时间局部性原则。HPCC存储 访问模型 1 遵从这个局部性原则,如图1所示。 2.2.2 NPB NAS 并行基准测试程序(NPB)是一套代表流体动力 学计算的应用程序集,它已经成为公认的用于评测大规模并 行机和超级计算机的标准测试程序。NPB由8个程序组成, 包括5个核心程序(Embarrassingly Parallel(EP)、MuhiGrid (MG)、Conjugate Gradient(CG)、Fast Fourier Transformation ( )与Integer Sort(IS))和3个模拟应用(Lower upper 3582 计算机应用 第33卷 表3 NAS并行基准测试程序 2.3 FutureGrid Test—bed 该实验的测试床基于“FutureGrid:An Experimental, High—Perfromance Grid Test—bed”,它包括地理上分布式的一套 异构计算系统,包括元数据和软件镜像库的数据管理系统和 保证隔离安全实验的专用网络;它支持基于虚拟机的环境和 实验的裸机系统,目的是最小化开销和最大化性能 “ 。 3 实验分析 本文实验的目的是通过比较不同开源云平台相对裸机的 性能,进而找出最接近裸机性能和最适合HPC应用的云平 台。本章致力于实验设计,包括在实验中引进的关键技术。 实验基于KVM虚拟化技术和当前较流行的开源云平台(如: Nimbus,OpenNebula,OpenStack)。此外,在著名的FutureGrid Test bed,选择HPCC基准测试套件和NPB运行在不同的集群 (如:Alamo cluster、India cluster)。 3.1实验环境 基于FutureGrid Test—bed、8节点的集群,其中Native、 OpenStack和OpenNebula位于india集群,Nimbus位于alamo 集群,集群系统通过QDR InfiniBand连接,每个节点2个Intel Xeon X5550 CPU,速度是2.66 GHz,8 cores,24 GB RAM,Red Hat 4.1.2(Linux kernel 2.6.18);虚拟机的集群环境和裸机 相当,每个guest 4 cores,8 GB RAM,Ubuntu 4.3(Linux kernel 2.6.35),GCC version 4.4.5。测试软件:HPCC/1.3.1,NPB/ 3.2,MPICH2/1.5,GOTOBLAS2/1.13。每个基准测试运行 100次,使用平均值产生持久化的结果。 3.2基准测试规则 软硬件环境准备就绪之后、性能评估之前,非常重要的一 步是修改HPCC Benchmark的配置文件hpccinf.txt以便达到 最优的测试结果。此配置文件是针对HPLinpack Benchmark 的输入文件,需要解决矩阵规模、矩阵分块、进程映射、负载均 衡等问题,而Linpack的测试结果受多方面因素的影响,包括 相关的参数设置、CPU的架构数量和效率、内存容量、网络通 信性能和系统规模等,这些因素共同决定了系统Linpack测 试的最终结果。编辑hpecinf.txt,遵循如下几个规则: 1)problems sizes(Ns):M值可根据情况调整,不能超过 sqrt((单个计算节点内存×计算节点个数)/8)×0.8,否则 会导致测试中使用swap分区或者内存耗尽而导致死机。 2)process grids(P X Q):P X Q=进程数=核数。 3)矩阵分块大小(NB):NB不能太大或太小,一般在256 以下,NB X 8一定是Cache line的倍数,NB值的选择主要是 通过实际测试得到最优值。 4)PMAP process mapping:选择处理器阵列是按列的排列 方式还是按行的排列方式(0是行排列,1是列排列),按HPL 文档中介绍,按列的排列方式适用于节点数较多、每个节点内 CPU数较少的系统;而按行的排列方式适用于节点数较少、每 个节点内CPU数较多的大规模系统。在机群系统上,按列的 排列方式的性能远好于按行的排列方式。 此外,L分解方式、广播方式等按照默认设置即可,基准 测试完成之后,会生成名为hpccoutf.txt的结果文件,里面包 括HPCC Benchmark Suite的7个基准测试的详细数据。 4 性能评估 本节针对KVM虚拟化技术,对不同开源云平台的性能 开销进行评估,首先提供MPI级别的微观基准测试——著名 工业标准性能基准测试套件HPCC Benchmark;其次是宏观基 准测试——HPc应用级别的性能评估;最后,对三个云平台 的扩展性进行预测。 4.1 微观基准测试评估 HPCC基准由若干知名的内核测试程序组成,HPCC基准 的不同标准由具有极端空间局部性和时间局部性的程序构 成,较完整地评估了计算机系统的CPU、内存、网络等性能。 HPCC测试程序运行在2种模式(Local模式和Global模式)、 3种场景之下(Local场景、Global场景和Embarrassingly Parallel场景),下面针对这种模式和场景下的7个不同标准 进行测试 。 4.1,1 实验结果 1)HPL(High Performance Linpack)测试。 HPL通过对高性能计算机采用高斯消元法求解一元Ⅳ 次稠密线性代数方程组的测试,评价高性能计算机的浮点性 能,它通过以下的线性方程测量系统的浮点执行率: AX= ;A∈R ,X,b∈R ttPL测试通过调节问题规模大小、矩阵分块、进程映射、 使用的CPU数目、负载均衡等优化方法来执行该测试程序, 以获取最佳的性能。当求解问题规模为Ⅳ时,浮点运算次数 为:(2/3 X 一2 X )。因此,只要给出问题规模Ⅳ,测得系 统计算时间r,,峰值=计算量(2/3 X 一2 X )/计算时间 71,测试结果以浮点运算每秒给出。衡量计算机性能的一个 重要指标就是计算峰值或者浮点计算峰值,它是指计算机每 秒钟能完成的浮点计算最大次数。 相对Native的HPL测试结果如表4所示,从实验数据可 以看出,不同的云平台之间有些不同,在物理机中,HPL测试 显示了最高的速度,其次,是Nimbus和OpenStack,而 OpenNebula则在所有的云平台中显示了最低的速度。原因 非常复杂:首先,总体的测试环境非常复杂,因为许多大而复 杂的应用程序正在云基础设施中运行,对物理资源隐藏的竞 争在一定程度上影响了性能 Jg];除此之外,虚拟化本身有一 定的性能开销。 表4 HPL、DGEMM、PTRANS和RandomAccess(MPI) 相对Native Linux的性能 2)DGEMM测试。 第12期 李春艳等:基于高性能计算的开源云平台性能评估 3583 DGEMM测量双精度实矩阵乘法的浮点执行率,其通过 矩阵A、曰和矩阵C的旧值来常规计算矩阵C的新值,公式如 下: Fourier Transform,DFT)的执行浮点率来测试系统的浮点运算 能力,公式如下: C+_trAB+卢C;A,B,C∈R ; ,卢∈R Y =∑xjeI2 ;1≤k≤m, ,Y ∈C ,1≤ ,k≤m 从表5可以看出,以MPI计算模式为例,Openstack相对 Native以0.84的比率在本测试中显示出较好的计算性能。 7)Latency and Bandwidth测试。 从表4可以看出,Nimbus表现出最好的性能,其次是 OpenStack;但是对DGEMM进一步分析,由于本测试包括两 种模式,Single和Star,分别对两种模式评估,结果发现 OpenNebula在Star和Single之间有非常大的差异,这意味着 针对DGEMM测试,OpenNebula存在相对不稳定的性能。然 通信和延时测试基于b—et(effective bandwidth Benchmark),它主要测试在时间参数可行的情况下,尽可能多 而,Nimbus和OpenStack有着相似的性能,它们更接近裸机的 性能。但是,物理机中,Single的值略微大于Star的值,因此, 从这一点来说,OpenStack更加接近裸机的性能,而不是 Nimbus。 3)PTRANS测试。 PTRANS(parallel matrix transpose)通过并行矩阵转置的 操作,测试多处理器的内存之间传送大规模数组的速率,主要 衡量系统网络的总体通信能力。公式如下: A+_A +曰;A,B∈R“ “ 从表4可清晰地看出,在所有的云平台中,OpenStack最 接近裸机的性能,其次是Nimbus,而OpenNebula则由于花费 了更长的时间而显示出较差的性能。 4)RandomAccess测试。 RandomAccess测试内存的随机更新速度,通过对单环境 和多重负荷时的内存随机访问(间接访问)性能及过程之间 的数据访问性能进行测试,其公式如下: 一 ) f:x—}( ①0 );Ⅱf E R, :zm zm; ∈zm 以MPI模式为例,从表4看出,OpenStack相对裸机的性 能比率是0.86,明显大于Nimbus和OpenNebula的性能比率, 所以针对RandomAccess测试,OpenStack在所有的云平台中 相对于裸机显示较好的性能。 5)STREAM测试。 STREAM主要测试稳定的系统内存带宽(单位:GB/s)和 单矢量核相应的计算速率,公式如下: copy:c+_-a scale:西+__otc add:c+一口+6 triad:a+__6+ c;a,西,c∈Rm,ot∈R 从表5可以看出,以copy运算为例,OpenStack以相对裸 机0.92的性能比率在四大云平台中位居第一,说明 OpenStack对STREAM测试显示出相对于裸机一致的性能比 例。 表5 STREAM(copy)、FFfr(MPI)、Latency(AvgPingPong)和 Bandwidth(AvgPingPong)相对Native Linux的性能 6)FFT测试。 FfTr通过测量双精度复数一维离散傅里叶变换(Discrete 的处理器之间复杂通信模式所需要的带宽和延时。 从表5可以看出,OpenStack AvgPingPong延迟显示出近 似裸机的性能,另一方面,Nimbus和OpenNebula均显示出非 常低的延迟,这可能是页命中率的提高和cache使用的原因。 然而,平均带宽显示Nimbus更接近且稍微大于裸机的带宽, 这显示了矛盾的一面,我们认为导致其矛盾现象的原因是管 理器内部的较大页的尺寸引起了较小数量的页故障而引起 的,这仍需要进一步的分析。但是,OpenStack从另一方面则 显示出相对裸机性能一致的开销比例。 4.t.2实验评估 为了选择出最优的云平台,采用样本之间的相似性度量 来评估,通常的方法就是计算样本问的标准化欧氏距离 。 标准欧氏距离的思路:因为数据各维分量的分布不一样,所以 先将各个分量都“标准化”到均值、方差相等。根据统计学知 识,假设样本集 的均值为m,标准差为S,标准化变量的数 学期望为0,方差为1。因此样本集的标准化过程描述如下: X =(X—m)/s 即:标准化后的值=(标准化前的值一分量的均值)/分量的 标准差,经过简单的推导就可以得到两个n维向量a(x 。:, …, )与b( , ::,…, )间的标准化欧氏距离的公式如 下: 厂 — √ ( ) 如果将方差的倒数看成是一个权重,这个公式可以看成 是一种加权欧氏距离。现在,假设每一维的标准差是1,从以 上实验数据可得出相似性度量的结果如下: d(Nimbus,Native)=44.456 d(OpenNebula,Native)=52.520 d(OpenStack,Nativve)=25.270 一般相似性度量采用以下式进行转换,距离越小,相似度 越大。 Sim( ,Y)=[1+d( ,Y)] 所以: Sim(Nimbus,Native)=0.022 Sim(OpenNebula,Native)=0.018 7 Sim(OpenStack,Native):0.038 1 从以上三个式子可以看出,在所有的云平台中, OpenStack与裸机之间的相似度是最接近的,所以,OpenStack 是在云环境中实施HPC的一个好的选择。 4.1.3实验分析 在本实验中,基于KVM虚拟化技术,每个基准测试运行 100次,使用平均值产生持久化的结果。然而,无论怎样,整 体的测试环境是非常复杂的,因此,测试结果带有某种程度的 3584 计算机应用 第33卷 不确定性,被描述如下: 4.3扩展性评估 1)仅平均100次的实验数据,如果其中的一组数据出现 问题,那么整体实验的错误率为0.O1,实验次数越多则结果 越精确。 扩展性即伸缩性,反映了虚拟化系统规模和服务的扩展 能力,不同云平台的虚拟机调度机制和事件通道机制各不相 同,因此影响可扩展性的程度也各不一样。为了更好地满足 多虚拟机和多CPU应用的现实需求,本节着眼以下两个方面 研究虚拟机的扩展性: 1)多虚拟机可扩展性,即多guest扩展性,刻画VM增加 时CPU使用率的变化情况; 2)在实验中,虽然云平台硬件设施和裸机硬件设施一 样,但是每个虚拟机有4个virtual CPU,裸机有8个CPU,裸 机和虚拟机之间的比较可能影响某种程度的精确性,但是,云 平台之间的比较是值得信赖的。 3)在上述实验中,假设权重为1,意味着在HPCC基准测 2)多处理器可扩展性,即单guest扩展性,刻画VM数量 不变,增加CPU资源时的情况。 4.3.1 多虚拟机扩展性 试套组中每个测试指标的重要程度是一样的,实际应用中如 果某些HPC应用程序更强调CPU性能或计算能力的话,那 么它对应的权重(如:HPL基准测试对应的权重)应该大于其 他的权重。 4.2 HPC应用评估 通过微观基准测试,OpenStack针对HPC在所有的开源 云平台中显示出了较好的性能,为了证实这个结论,本节将在 各种云平台上实施真实的HPC应用负载以说明虚拟化的开 销。虚拟化性能开销主要包括三个方面:CPU虚拟化、内存虚 拟化和I/O虚拟化。高性能虚拟机环境如Xen能够支持低 CPU开销和内存开销 ,除了特权指令外,大部分指令均可 以在guest虚拟机内部执行,而这些特权指令,VMM则执行 “Trap And—Emulate”的运行方式,这种模式下势必带来非常大 的性能开销,HPC应用领域很少涉及这类特权指令。然而, I//O虚拟化严重影响了虚拟机的性能,因为1/O设置在物理机 的所有虚拟机之间是共享的,VMM必须确保对它们的访问是 合法的,VMM必须处理来自每个虚拟机的I/O访问,由于上 下文的频繁切换,导致了较长的I/O延迟和较大的CPU开 销 图2显示_『基于不同的云平台NPB针对BT、CG、EP、IS 和SP相对裸机的执行时间。对通信密集型的基准测试(如: CG和Is),在虚拟环境中的应用程序性能降低了15%左右, 这是由于通信密集型的应用要处理大量的网络I/O操作,而 对于计算密集型的基准测试(如:EP)由于较小的通信量则表 现出较好的性能。从图2可以看出,BT测试中OpenStack的 执行时间略大于Nimbus的执行时间,而其余测试,OpenStack 的执行时问均小于其他的云平台,通过如下公式即可算出全 局开销… : , , P×T (P)一T (1) 肥州 刍i = 1—— i \ , 一 其中:P表示并行进程的数量;i表示钳‘对NPB的每个具体的 核心程序或模拟应用;Ti(P)表示某个具体测试的P个并行 进程所用的时间;n表示5个核心程序和3个模拟应用,共8 个。结果显示OpenStack开销最小,因而最接近裸机的性能, 进而验证上一节的结论。 道 富 窖 疑 BT CG EP IS SP 基准测试 图2 BT、CG、EP、IS和sP相对于Native Linux的执行时间 一个虚拟系统的扩展性由其运行越多的虚拟机而没有性 能损失的能力决定。为了测量不同云平台的扩展性,首先在 一个VM上运行HPL测试,然后增加VM的数量,同时每个 VM运行HPL测试。当VM数量增加至16时,三个云平台的 HPL性能如图3所示,随着节点数量的增加,其计算性能降 低,并且这种降低的幅度渐缓;此外,从曲线图中可看到 OpenStack显示出比Nimbus和OpenNebula较好的性能。然 而,当节点增加至64时,Nimbus和OpenNebula出现不同程度 的宕机情况,如图4所示,Nimbus在第26节点和35节点处崩 溃,OpenNebula在第43节点出现崩溃,这说明在节点数量增 加到一定程度时,Nimbus和OpenNebula表现出不确定的扩展 性 壁 鑫。 要 墨 蚕o <二0 量 VM数量 图3虚拟机数量增加的情况下HPL扩展性测试 l 0 墨 jj{L 丑 <_ 靛窨 l1 l6 26 3Z 35 43 64 VM数量 图4虚拟机数量增加的情况下HPL测试的宕机啦示 4.3.2多处理器扩展性 首先,各个云平台下的guest数量为1,其次,给guest分 别分配1个处理器资源,计算进行HPL Benchmark的CPU执 行时问,然后分别分配2个、4个和8个处理器资源情况下 CPU资源的使用情况。实验表明,OpenNebula和OpenStack 表现出类似的一致性性能,而Nimbus则表现出较差的性能。 此测试仅着眼于CPU的性能而不考虑I/O。 5 问题与总结 从目前的研究可以看出,适合高性能计算的云计算环境 这一领域正处于研究阶段,其面临一些重要问题有待解决,包 括:如何进一步降低虚拟机技术带来的性能开销;如何保证大 规模虚拟HPC环境的可靠性、扩展性和低耗特性;如何在云 第12期 李春艳等:基于高性能计算的开源云平台性能评估 3585 环境中向用户提供可定制的HPC环境以适应不同应用负载 的需要等。 “云计算”概念目前已被大量运用到生产环境中,各种 “云计算”的应用服务范围正日渐扩大,影响力也无可估量。 相比之下,在云环境中实施高性能计算的应用还相当有限。 随着云计算的深入应用,为用户提供高质量的远程高性能云 服务成为当前研究的热点,在云中“HPC as a Service”的思想 [8】 formance impact of Xen on MPI and process execution or HPC sys-f tems[C]//VTDC 2006:Proceedings of the 2nd International Workshop on Virtualization Technology in Distibutred Computing. Washington,DC:IEEE Computer Society,2006:1. MERGEN M F,UHLIG V,KRIEGER O,et a1.Vitrualization for high—performance computing[J].ACM SIGOPS Operating system Review,2006,40(2):8—11. NOS C,HILL C N.Cloud computing for parallel scien— EVANGELI已经鼓励了高性能计算延伸到更广泛的科学和工业社区,随 着高性能计算和云计算关键技术的深入研究,两者之间的结 合将越来越紧密,势必会对未来超级计算中心产生显著的影 响。 6 结语 本文在不同的基于KVM的开源云平台中,采用 FutureGrid Test—bed,通过标准的欧氏距离相似性度量,比较了 HPC Challenge基准测试的性能,结果显示针对HPC应用, OpenStack具有较好的性能;随后用HPC应用实际负载进行 评估,验证了此结论;最后通过扩展性评估,显示OpenStack 是比较适合计算密集型的高性能应用的云平台。所以,它是 开源云平台以实施HPC应用的一个好的选择。 但仍需要更多的工作去完全评估这个结论的有效性,如: 从服务器整合、隔离性和迁移性方面进一步评估;除此之外, 我们还将对上述实验数据中的异常部分作进一步的分析。短 期之内,我们将致力于适合HPC环境的有效云平台的研究和 HPC虚拟集群的性能分析。在云环境中.由于虚拟化技术,L/ O性能严重下降,I/O密集型的HPC应用更是云环境中实施 高性能计算的瓶颈,针对不同的技术研究如何优化在高性能 计算云中实施I/O密集型的HPC应用也是我们将来所面临 的一个重要研究内容。长期来看,我们将在各种云基础设施 环境中对HPC的任务调度、容错和QoS予以研究。 参考文献: 【1】 VOUK M A.Cloud computing—issues,research and implementa- tions【C】//ITI 2008:Proceedings of the 30th International Con ̄r- ence on Information Technology Interfaces.Piscataway:IEEE, 2o08:31—4O. [2] YOUNGE A J,HENSCHEL R,BROWN J T,et a1.Analysis of vir- tualization technologies for high performance computing environments [C]//CLOUD’1 1:Proceedings of the 201 1 IEEE 4th International Conference on Cloud Computing.Washington,DC:IEEE Computer Society.2011:9—16. [3】DIAZ J,von LASZEWSKI G,WANG F,et a1.Towards cloud de- ployments using FutureGrid[R】.Bloomington:Indiana University, 2011. [4】 KEAHEY K,FOSTER I,FREEMAN T,et a1.Virtual workspaces in the d[C】//Proceedings of the 11th International Euro—Par Conference,LNCS 3648.Berlin:Springer-Verlag,2005:421— 431. 【5] ZHANG X,KEAHEY K,FOSTER I,et a1.Virtual cluster work— spaces for d applications,ANL/MCS—P1246—0405[R/OL】. [2013—03—161.http://www.nimbusproject.org/files/VWClus- terTRANL——_MCS—P1246-0405.pdf. [6] ADABALA S,CHADHA V,CHAWLA P,et a1.From virtualized resources to virtual computing gnds:the In—VIGO system【J】.Fu— ture Generation Computer Systems,2005,21(6):896—909. [7】 YOUSEFF L,WOLSKI R,GORDA B,et a1.Evaluating the per- 【9] tiifc HPC applications:feasibility of running coupled atmosphere・-o- ce卸climate models on Amazon’s EC2【C】//CCA 2008:The 1st Workshop on Cloud Computing and its Applications.Chicago:[s. 1f.】,2008:1—6. 【10】 GAVRILOVSKA A,KUMAR S,RAJ K,et a1.High-performance hypervisor architectures:vitrualization in HPC systems[C/OL]// Proceedings of the 1 st Workshop on System—level Vitrualization for High Performance Computing[2013一O5一O6】.http://www. esm.orn1.gov/srt/hpevirt07/papers/paperl0.pdf. EKANAYAKE J,FOX G.High performance parlalel computing with clouds and cloud technologies【C】//Cloud Computing,Lec— ture Notes of the Institute for Computer Sciences,Social—Ifnormat— ics and Telecommunications Engineering 34.Berlin:Springer-Ver- lag,2010:20—38. [12】 LUSZCZEK P,MEEK E,MOORE S,et a1.Evaluation of the HPC Challenge benchmarks in virtualized environments【C]// Euro—Par'1 1:Proceedings of the 201 1 International Conference on Parallel Processing.Berlin:Springer—Verlag.201 1:436—445. ¨3】 KUDRYAVTSEV A,KOSHELEV V,PAVLOVIC B,et a1.Virtu— alizing HPC applications using modern hypervisors[C】//Federat- edClouds’12:Proceedings of the 2012 Workshop on Cloud Serv- ices,Federation,and the 8th Open Cirrus Summit.New York: ACM,2012:7—12. [14】 HPC Challenge[EB/OL】.[2013—05—23】.http://ic1.as.utk. edu/hpee/. 【15】 LUsZCZEK P,BAILEY D,DONGARRA J,et a1.The HPC Chal— lenge(HPCC)benchmark suite【C】//SC'06:Proceedings of the 2006 ACM/IEEE Conference on Supereomputing.New York: ACM,2006:Article No.213. [16】 NAS Parallel Benchmark【EB/OL].【2013一O5—03】.http:// www.nas.nasa.gov/publications/npb.htm1. 【17] FutureGrid[EB/OL】.[2013—03—23].https://porta1.future一 d.org/about. 【18] LI C Y,XIE J Z,ZHANG X J.Performance evaluation based on open source cloud platforms for high performance computing[C】// ICINIS 2013:The 6th International Conference on Intelligent Net— works and Intelligent Systems.Shengyang:【s.n.],2013. [19】 KOH Y,KNAUERHASE R C,BRETT P,et a1.An analysis of performance interference effects in vitrual environments[C】//IS- PASS 2007:IEEE International Symposium on Performance Analy— sis of Systems and Software.Piscataway:IEEE.2007:200—209. [20] BARHAM P,DRAGOVIC B,FRASER K,et a1.Xen and the art of virtualization[C]//SOSP'03:Proceedings of the Nineteenth ACM Symposium on Operating Systems Principles.New York: ACM.164一l77. [21】 HUANG W,LIU J X,ABALI B,et a1.A case for high perform- ance computing with vitrual machines[C】//ICS'06:Proceedings of the 20th Annual International Conference on Supercomputing. New York:ACM.2006:125—134. 

因篇幅问题不能全部显示,请点此查看更多更全内容

Copyright © 2019- haog.cn 版权所有 赣ICP备2024042798号-2

违法及侵权请联系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com

本站由北京市万商天勤律师事务所王兴未律师提供法律服务