随着数据中心规模的增长,其能耗也随之增加。服务器是数据中心的主要能耗来源,因此了解服务器能耗至关重要。
服务器能耗的规模化影响
服务器能耗通常用瓦特 (W) 来衡量。服务器的能耗会随着服务器数量和类型的增加而增加。例如,一台 100 瓦的服务器与 10 台 10 瓦的服务器具有相同的总能耗。
以下公式可以计算服务器集群的总能耗:
“`总能耗 = 服务器数量 单个服务器能耗“`
例如,如果一个服务器集群有 100 台服务器,每台服务器的能耗为 100 瓦,那么集群的总能耗为
通过实施这些措施,数据中心可以显着降低其服务器能耗,从而降低运营成本并减少对环境的影响。
结论
服务器能耗是数据中心运营中的一个重要考虑因素。随着数据中心规模的增长,了解和优化服务器能耗至关重要。通过实施各种措施,数据中心可以显着降低其服务器能耗,从而降低运营成本并减少对环境的影响。
【DaaS描绘 新一代数据中心蓝图】新一代数据中心
当你的数据中心拥有一两万台服务器的时候,你会发现自己对数据中心的看法和以前截然不同。
数据中心规模越大,对数据中心绿色节能、可靠性、面向业务的灵活性等方面的体验就越深刻,对服务器托管、存储计算、网络带宽、能源消耗、数据安全、管理维护等方面的需求也会发生变化。
为此,从本期开始,企业计算栏目将对全新的企业级数据中心展开系列调查式报道,期待读者深入关注企业级数据中心的变化。
第一期报道从世纪互联开始,在向DaaS(Datacenter as a Service)业务模式演变过程之中,世纪互联迈向了新一代数据中心。
世纪互联创建于1996年,是目前中国规模最大的电信中立互联网基础设施服务提供商之一,主营业务包括互联网数据中心服务(IDC)、互联网内容分发/加速服务(CDN)以及全方位的增值服务和完整的行业解决方案。
现在,世纪互联在国内已经部署了10个以上的绿色独立机房,全网处理能力超过250Gbps,在北京拥有超过一万平方米的电信级数据中心,在华南、华东及全国其他城市也拥有超过五万平方米的大型电信级数据中心。
据记者日常接触的不少全球500强企业用户反映,他们中有不少企业把自己的数据中心托管在了世纪互联。
这些企业的业务需求是国际化的,对数据中心基础架构的灵活性、可靠性、连续性等方面的要求还在不断提升。
因此,这一方面要求世纪互联数据中心的建设标准和服务水平向国际看齐;另一方面,也要求世纪互联在绿色节能、虚拟化资源、自动化管理等方面提升应用水平。
DaaS的驱动力 互联网数据中心的未来业务模式是DaaS,也就是数据中心向公用化发展。
这种业务发展模式要求数据中心必须走全面的资源虚拟化和管理自动化的技术路线,系统必须能够最大限度地进行高可用性和容灾设计,并且向大规模集中化发展。
虚拟化与自动化的技术路线 要实现DaaS模式下数据中心的公用化,必须利用虚拟化和自动化等技术整合网络、存储和计算等资源,并全面提供整个技术环境的IT资源公用化。
另外,互联网数据中心之间的竞争也日趋激烈,利用虚拟化和自动化提供高水平的服务,也成为了互联网数据中心之间的重要竞争手段。
据世纪互联的工作人员介绍,在早期的数据中心里,企业必须为很多应用系统分别部署冗余的服务器资源、冗余的存储资源和带宽资源,用于应付企业应用系统的峰值现象,这就造成数据中心里服务器等资源利用率低下的现象。
现在,只要实现初步的服务器虚拟化,就可以打破不同应用系统之间的隔阂,让不同应用共享虚拟化的冗余资源,应付峰值问题。
在互联网数据中心层面,服务器和存储资源虚拟化了,就可以实现跨数据中心的资源冗余、资源调动和异地容灾,这就进一步提高了数据中心资源的利用率,提高了业务的灵活性和可靠性,并降低了数据中心的运营成本。
在世纪互联的客户中有不少“”公司,以这些公司的网站为例,网站的所有服务在虚拟化之后都按需使用、按需支付。
过去,网站新业务的开展往往意味着一系列资源(服务器、带宽、存储以及与之相关的外围设备等)的成本投入。
而在DaaS的业务模式下,构建在虚拟化和自动化等技术基础上的新一代IDC,客户无需关注资源的物理位置,无需对任何物理设备进行配置、管理和维护,只需通过统一接口根据自身需要提交各项“任务”即可获得快速的、可定制的互联网数据中心服务。
从某种意义上讲,这非常接近IBM曾经提出的“On Demand”模式。
据世纪互联数据中心董事长助理任江介绍,世纪互联并不做单一服务器上的简单虚拟机业务,而看重跨数据中心的全面虚拟化。
目前,世纪互联正处于进入数据中心虚拟化阶段,也就是将服务器资源、存储资源和带宽资源等虚拟化资源作为资源池,通过统一的接口供上层应用按需调用。
世纪互联基于虚拟化的ICS服务与云存储服务已经进入了规模测试阶段,在近期即将推出。
“这样就有效地屏蔽了数据中心的底层复杂性,客户只需去关心商业模式、网站的服务内容,而我们要做的是从技术上、资源上,包括资本投入方面来提供支持。
”任江说:“站在客户的角度来看,这可为用户实现业务的灵活性以及更短的应用部署时间;从IDC的角度来说,资源利用率大大提高而成本却明显降低。
” 世纪互联在实现虚拟化方面已经积累了自己的独特经验。
任江指出,虚拟化的投入和回报并不是一条笔直的斜线,而是一条曲线。
虚拟化的规模有一个平衡数值,虚拟化的规模太小价值会有限,虚拟化的规模太大也并不经济,因为虚拟化是有性能开销的。
“抓住了虚拟化规模的平衡数值就可以得到最大的资源利用率,超过了这个数值,效率就会下降。
此外,实现虚拟化,也是在业务上实现SOA的基础。
就像SaaS的概念一样,DaaS是我们的业务目标,就是把服务器、存储和带宽资源虚拟化,把数据中心作为一种服务来向用户提供。
”任江在介绍虚拟化情况时说道。
容灾不如避灾 任何企业都不希望自己的关键业务系统宕机,也不希望自己的业务数据发生丢失。
在虚拟化基础上实现服务器的高可靠性并不困难,数据保护和快速恢复成为了业务可靠性的关键环节。
世纪互联要向托管的企业承诺服务质量,势必要在容灾和避灾方面下足工夫。
否则,一旦托管客户业务中断,其损失是无法估量的。
关于数据备份方面的服务,任江介绍到,世纪互联对于其关键业务引进了一套避灾系统。
一般来讲,初级数据备份和进一步的灾难备份是一般用户的备份手段,但是这些都是在发生了数据损失之后进行恢复。
因此,这些备份方法还是对业务的连续性有影响,只是程度不同而已。
世纪互联目前与供应商合作,运行了一套避免数据损失的“避灾”存储系统。
这套存储系统已经经过国外一些航空航天系统的运行测试,它把数据在存储的时候切分成碎片,以20%左右的冗余度分散存储在不同数据中心的多个存储服务器上,因而没有单点失效的问题。
这一技术进步源于网络带宽和存储成本的降低。
在目前数据中心非常发达、高速网络成本越来越低的情况下,这样把数据切碎后分散放置,既保护了企业的隐私,其成本上升也能接受,还大大增加了数据的安全性。
IDC能源问题凸显 在很多国外的企业数据中心里,管理维护成本居首位,设备采购成本是第二位,能源成本位列第三位。
在国内的大型数据中心,由于规模效益以及国内人员成本略低,管理维护成本退居第二位。
如果数据中心的设备以用户托管为主,那么设备采购成本也不是首位。
能源成本已经高居国内众多大型数据中心成本首位,世纪互联也是如此。
如今,在能源价格急剧攀升的严峻形势下,能源成本日益受到世纪互联的重视。
对于一般的企业数据中心而言,电力成本高低无关企业核心竞争力。
但在IDC行业,能源成本已经成为世纪互联树立核心竞争力的重要手段。
因此,从数据中心建设环节开始,世纪互联就格外注重绿色环保。
采用多项技术降低能耗 由于世纪互联的大量客户来自国外跨国企业,这些企业对数据中心的标准有严格的要求,所以世纪互联数据中心的建设也严格遵循了国际上的相关标准。
近期全面投入使用的世纪互联2号数据中心是参照ANSI(美国国家标准协会)&TIA(美国电信产业协会)-942 T4级主要标准设计建设的,数据中心所在的楼为五层建筑,按抗震8级设计,其中一层和二层用于数据中心。
在供电方面,世纪互联2号数据中心采用双路冗余电力系统,同时,还采用了柴油发电机组,可在公共电网断电时支持机组满载运行24小时。
在制冷方式上,2号数据中心采用的是水冷式空调系统。
据统计,通常情况下,在一个6000平方米的机房中所需的总冷量约为6000kw,以此为基数计算,风冷空调系统的电源输入总功率比水冷系统的电源输入总功率高33%,也就是功耗高33%。
水冷式空调不仅单位冷量所耗费的电力比风冷空调要低,并且机房内的回风还会送回到空调重新进行冷却处理,不会对周围环境造成影响。
当然,水冷式空调系统的结构要比风冷式空调复杂。
在世纪互联2号数据中心使用的水冷式空调系统中,包括冷冻水生产系统(冷水机组+冷却塔)和水冷型精密空调,以及监控冷水机组的控制系统,此外还有较为复杂的传送冷水的管路系统。
世纪互联2号数据中心还有另外一个节能秘笈――板式换热器。
板式换热器是利用冬天室外的冷空气为数据中心散热的。
在北京,每年冬天室外温度低于5℃的时间有3个月以上,这是板式换热器发挥作用的绝佳时期。
据测算,在6000平方米的机房中,如果使用板式换热器,在室外温度低于5℃时,可以关掉冷水机组,此时,风冷空调系统比水冷系统的电源输入总功率高215%。
此外,世纪互联2号数据中心还使用了湿膜加湿器。
精密空调当然可以为机房加湿,但代价要大得多,而湿膜加湿器的功率消耗仅是空调加湿器的5%左右。
根据使用经验,3000至5000平方米以上的机房用水冷空调较为合算;如果机房较小,用水冷式空调就不太划算了,因为其系统较为复杂。
设计和管理决定节能成败 机房设计和建造中的许多细节也可以对节能起到巨大作用。
例如,在世纪互联2号数据中心机房中就采用了冷热走廊设计,即机柜是面对面、背对背安装的,所有冷风从地板下吹出来,送到服务器的正面,经过服务器后的热空气吹到热通道,然后传输到天花板的热风口,最后经天花板上面的空间送到空调的回风口。
这就减少了冷热空气混合的机会,大大提高了制冷效率。
此外,世纪互联还自己设计机柜,增大机柜门上的通风网孔,以提高通风率;机柜的前后门和侧板均可快速拆卸,这样,在功率高于每机柜4KVA时,可拆除机柜的后门,并安装将空气水平吸入柜内的抽风组件(ARU)。
还有地板也是节能设计的一个关键环节。
世纪互联2号数据中心机房的地板高度远高于我国2000年修订的机房建设标准中规定的300毫米,这就减少了空调冷风传送过程中的阻力;同时其还使用了通风率可调节的高压铸铝地板,并且可以根据机柜负荷的高低来调节通风地板的面积。
除了在硬件上采购绿色节能的基础设施以外,在管理上世纪互联也充分考虑了如何提高节能效率、可靠性和高可用性。
使用机房监控系统,把机房管理带向精确化和自动化,也是节约机房运维费用的一个良方,因为数据中心的成本不仅包括电力,人员成本同样是重要的费用支出项目。
并且,使用机房环境监控系统可以更全面、更及时地监控机房中的各种安全因素。
世纪互联2号数据中心机房使用的机房监控系统,通过安置在热点上的传感器,可以对安防系统、消防系统、综合布线和机房内各种设备(包括UPS、配电柜、PDU、发电机组、精密空调等)的运行状态进行监控,包括漏水、漏油、温湿度、机柜电流、配电柜等各项参数的情况,这为数据中心的运维管理提供了极大的帮助。
比如,机柜断电以前要靠人为巡视发现,现在监控系统会在第一时间自动报警,并会把信息发送到值班运维人员的手机上。
再比如,机柜需要的冷量和通过的电流成正比,使用带电流显示的PDU之后,可以根据电流大小来调节出风口的大小,以达到节能效果。
据了解,世纪互联的其他自有机房的绿化改造也在按照计划积极开展。
任江表示,从更长远来看,未来数据中心的发展趋势是集中化,向大型规模化的数据中心发展才能实现更绿色,分散的数据中心将被淘汰。
IBM专家点评 世纪互联是我国较早建设大型数据中心的企业,存在典型的早期大型数据中心特性,这些数据中心的通病就是缺乏对绿色节能的考虑。
伴随着业务的高速扩展,电力消耗、机房散热和有效利用空间成为了企业越来越急需解决的严重问题。
具有国内领先的数据中心运营经验和水平的世纪互联,对未来数据中心的建设有着领先的认识。
“全新企业级数据中心”理念在其新数据中心的建设中得到了充分的体现。
首先,“全新企业级数据中心”是绿色设计的数据中心,也就是所谓的“Green by Design”。
世纪互联认识到数据中心的“绿色”是从设计到实施再到综合治理才能实现的。
他们采用了诸如水冷式空调、板式换热器、冷热走廊和提高机房地板等设备和设计,以此来有效地提高电能利用率,并降低散热效率。
IBM在绿色数据中心建设方面,也有着全面的解决方案和领先的技术,尤其是绿色数据中心节能服务和高性能虚拟化技术产品引领行业节能减排技术的发展。
其次,世纪互联在数据中心如何利用虚拟化技术实现降低成本、提高利用率,并灵活和快速应用部署方面有着很高的认识和前瞻性,这与IBM不谋而合。
“全新企业级数据中心”所谈及的未来虚拟化技术,已经不再是简单的单机上的虚拟化,而是整个数据中心,乃至跨数据中心的虚拟化。
所有服务器、存储和网络等均被虚拟化作为共享资源。
所有计算资源的虚拟化,不仅更进一步提高资源的利用率,并降低运营成本,同时,任何应用均被配置了相应的服务器、存储和网络资源,可以被快速地部署实施。
数据中心也因此转变为高效的服务实体(即所谓的公用化),以灵活快速地响应市场变化。
不仅如此,世纪互联根据其自身的业务特点,兼顾到数据中心的安全可靠性,利用国外先进成熟的技术和方案,为实现“全新企业级数据中心”打下了坚实的基础。
总之,世纪互联由于其领先的实践和高瞻远瞩的理念,其数据中心的建设正朝着正确的方向,引领国内高端数据中心建设的发展。
如何估算机柜服务器的功耗与重量
评估机柜服务器的功耗是数据中心设计师的最大挑战,没有绝对的答案,也没有简单的解决方案。
在设计服务器总功耗时,千瓦每机柜的方案远比瓦特每平方英尺来的有用,但这个方法还没有经过多年的验证。
想得到良好的评估,不仅需要采用好方法,还取决于你对现有的运作以及可能的增长趋势有何种程度了解。
创建有代表性的设备分组作为容量单位,但不需要太精细。
大型、独立而牢不可破的系统可能由单个容量单位组成,但在10,000平方英尺的数据中心里,普通机柜容纳8到12个容量单位应该十分充裕。
不需要为每个机柜开发单独的容量单位,因为IT设备也不可能完全按照理想设计来安装。
意义在于开发切合实际、满足通用需求的,可以推广到整个空间的设计方案。
不要高估能量消耗。
IT设备铭牌编号上的备注毫无用处,它们可能导致离谱的高估。
如果可能,就采用硬件制造商在线配置方案的结果。
最终手段,采用服务器供应商电源额定功率值——一个300瓦电源的服务器绝对不可能达到800瓦的功耗。
根据实际需求负载来判断供电系统符合。
双路设备为IT设备增加了硬件冗余,也共享了电力负载。
如果一个双路服务器有两个300瓦电源,在能耗设计里,它依旧不会超出300瓦,因为每个电源都需要能够承载服务器的满负荷状态能耗(不包括电源效率计算)。
估算服务器功耗的另一种方法是采用行业标准。
除非有承载高性能计算,大概可以判断分为三级密度:低密度机柜运行在3.5至5千瓦;中密度运行在5到10千瓦;高密度运行在10至15千瓦。
每个机架类型分配量级取决于你的运营策略。
一般来说,数据中心承载着大约50%的低密度机柜,35%的中等密度机柜以及15%的高密度机柜。
当你采用这些方法后,需要做个全面检查,将现有的不间断电源供电总量除以现有的机柜数,得到一个平均值。
然后将你计划部署的机柜数与总估算的部署服务器用电负荷总数相除。
要记得,很少服务器部署能够真正接近设计师的初始估计负载最大值。
如果你的预测值大于实际平均值1.5倍,就需要进一步查看这些数字了。
如果你预期密度将显著增加,那么这样的预测没有问题,比如新业务需求或者增加虚拟化引入刀片服务器等。
但如果没有理由来证明密度增长的预测,重新审视设计吧。
服务器一天能用多少电?
服务器一天能耗的电量并不是一个固定的数值,它受到多种因素的影响,包括服务器的型号、配置、负载情况、运行环境以及电源效率等。
因此,无法给出一个具体的数字来回答这个问题。
不过,我们可以通过一些方法和例子来大致估算服务器一天的耗电量。
首先,服务器的型号和配置是决定其耗电量的重要因素。
不同型号、不同配置的服务器在功耗上会有显著差异。
例如,一台高性能的服务器可能拥有多个处理器、大容量内存和高速存储设备,这些都会增加服务器的功耗。
相比之下,一台低功耗的服务器可能采用更为节能的处理器和组件,从而在保证性能的同时降低耗电量。
其次,服务器的负载情况也会影响其耗电量。
当服务器处理的任务较多、负载较重时,其CPU、内存等组件的使用率会上升,从而导致耗电量增加。
反之,如果服务器处于空闲状态或者负载较轻,其耗电量则会相对较低。
此外,服务器的运行环境和电源效率也是影响耗电量的因素。
服务器所处的环境温度、湿度等条件会影响其散热效果和运行效率,进而影响耗电量。
同时,电源的质量和效率也会直接影响服务器的能耗。
高效的电源能够提供更稳定的电流和电压,降低服务器的能耗。
综上所述,虽然无法给出服务器一天确切的耗电量,但我们可以通过了解服务器的型号、配置、负载情况、运行环境和电源效率等因素,来大致估算其一天的能耗。
在实际应用中,我们可以通过使用功率计等工具来测量服务器的实际耗电量,以便更好地了解其能耗情况并进行相应的优化。
例如,一些大型数据中心通常会采用能效比来衡量其整体能效水平。
PUE是数据中心总能耗与IT设备能耗的比值,它反映了数据中心在提供相同IT服务能力时所消耗的能源效率。
通过优化数据中心的布局、提高冷却效率、采用高效电源等措施,可以降低数据中心的PUE值,从而减少服务器的整体能耗。
这些措施不仅有助于降低运营成本,还能为环境保护做出贡献。