最新公告

  欢迎国内外新老客户来电来函洽谈合作,真诚期待与您携手 共创美好明天!     

       深圳市迪士通科技有限公司

联系我们

深圳市迪士通科技有限公司
深圳总部 :
电 话:0755-25885663 82348845   24小时服务热线:13543315215    
邮 箱:distong8@163.com
地 址:深圳市福田区八卦四路10号中浩大厦21层2113室

龙岗办事处:
电 话:0755-28931617
地 址:深圳市龙岗区深惠路摩尔城

惠州办事处:
电 话:13928378919
地 址:惠州市仲恺高新区金茂路北二街伊顿公馆A栋11层


 

新建数据中心2019的变化——PUE值1.3,也许只是另一场游戏的开始
 

新建数据中心2019的变化——PUE值1.3,也许只是另一场游戏的开始

 DISTONG  今天

不久前,上海出台了更苛刻的政策。《上海市推进新一代信息基础设施建设助力提升城市能级和核心竞争力三年行动计划(2018-2020年)》的通知中关于基础设施的要求:推进数据中心布局和加速器体系建设。统筹空间、规模、用能,加强三角区域协同,布局高端、绿色数据中心,新建机架控制在6万个,总规模控制在16万个。推动数据中心节能技改和结构调整,存量改造数据中心PUE值不高于1.4,新建数据中心PUE值限制在1.3以下。开展计算资源布局规划和资源配置方案研究,实施技术试验及模式研究。依托数据中心布局,建设基于中央处理器(CPU)、图形处理器(GPU)等的计算中心,面向人工智能的计算加速资源占新增数据中心机架总量的50%。

  这些年来,从PUE值1.5到1,4,再到这次的1.3。北京、上海陆续交替出台的限制政策,折射出当地政府对于数据中心发展的微妙态度。

  之所以说这次的要求更“苛刻”,是因为PUE的优化可不是一纸发文就能搞定的,它的背后牵扯到数据中心产业链的方方面面。甚至可能会在不久的将来深刻改变产业格局。

  据笔者了解,大部分国内正在运营的超过5年以上的数据中心PUE值都在2.0以上。少部分新建数据中心可以达到1.4甚至1.3的水平。(可参考旧文:十年过去了,PUE,现在还剩下多少利用价值?)不过请大家注意,这里的数字是在特定情况下的测量数据。是有很大的“水分”在里面,比如冬天测试,气温低不需要花费很多能耗用来给服务器降温;比如业务还没上线,大部分设备都在空转甚至关机。据公开资料显示,三年前阿里在张北建造的数据中心,设计PUE值也才1.25。而张北的年平均气温(2.6℃)足足比上海(17℃)低了十多度。

  由此可见这个1.3的标准有多大难度了。当然,如果只是要求最低PUE值的话,还是有很多办法可以做到的。


PUE这个东西到底受到哪些因素的制约?
1

是电路传输的损耗。从市电进入数据中心开始,为了保证服务器不宕机不断电,一般市电输入会接到UPS系统上,经过UPS的二次转换(交流到直流,直流再到交流),再把电流输送给服务器等IT设备。而UPS本身在能量转换过程中是有损耗的,目前一般的高效UPS转换效率在90%~96%之间,实际运行效率通常在85%~95%之间。取个平均值,按90%的效率计算。不考虑其他因素,即便只使用UPS系统,那数据中心本身的PUE值是1/0.9=1.11。如果没有采用新的供电方式,还是使用主流的UPS供电,那么是不可能做到1.1以下的。除非在测试时作弊。也许有人会说某某家数据中心的高压直流(HVDC)可以做到啊,但别忘了,互联网的方案是“市电直供+高压直流”,市电(效率几乎100%)承担了一半甚至全部的负载,而高压直流设备本身的转换效率并不会比UPS高。

2

制冷的损耗。服务器工作会发热,必须使用空调等设备给服务器降温,否则服务器会因为温度过高而宕机。数据中心使用的电能中,很大一部分都是用来给服务器制冷用的。如果去除服务器本身工作的耗电,剩下的电费中大概有七成都是被空调等制冷设备消耗掉了。所以高效的制冷系统可以很大程度上减少能源损耗。风冷空调、水冷空调、蒸发冷却、自然冷却(也翻译成免费冷却)、服务器液冷都是目前,但通常来说,更高效的制冷方式也意味着更高的建设成本。

3

选址和气候方面的影响。建在内蒙的数据中心肯定比建在深圳更节能,因为北方平均气温低,不需要太多的能耗用于给设备降温。

4

还有建设方式的影响。比如模块化数据中心(微模块、MDC、预制数据中心)目前就是大家公认的一种可以节省能源、减少建设时间的数据中心建造方式。


那么,这个新政策又会带来哪些影响?

1模块化数据中心这种方式成为新建数据中心标配。

  苛刻的PUE,必然会导致大家都选择采用微模块或者说密闭通道+近端制冷的方式来建设数据中心。因为只有这样才能在架构上最大程度实现低PUE值的诉求。由此会必然产生一系列的连锁反应:

  单一设备生产商的生存空间进一步被压缩。对于设备生产商来说,不管是主动还是被动,只有“被集成”到微模块的整体方案里,才有可能参与竞争,价格会进一步被拉低。除了原有的传统(其实也就不到10年)微模块生产商,越来越多的厂商、集成商、甚至资本方都会来“插一脚”,价格战只会更加激烈。

  差异化成为厂商救命稻草。对大多数中小微模块玩家来说,既做不到财大气粗的自己垫资建机房,也做不到从IT到风火水电甚至云平台的垂直整合方案,拼成本也不会比自有工厂的机柜、配电厂商更低。那么就只有在差异化新特性上面想办法了,比如比别人更多的使用空间、更炫酷的外观设计、增加诸如容量管理、资产管理、灯光色彩管理等新功能。这些新特性新亮点都会成为价格战之外打击对手的“控标”手段。


2数据中心产业加速向二三线城市过渡。

 

  事实上,从近年来北京、上海陆续出台对新建数据中心的限制政策,可以很明显的看出:一线城市政府已经对数据中心(大数据、云计算)这些新名词没那么热衷了,高科技华丽外表的背后其实是高能耗的现实。

  但对更多的二线三线城市和省份来说,因为有贵州、内蒙等成功案例在前,数据中心、大数据、各种产业园区概念,还是可以作为新的增长点,对当地经济发展做出贡献。我们可以推测:

  IDC的产业区域化。像曾经的制造业一样,数据中心也在加快从北上广深向周边区域扩散。目前已经可以看到形成的通州、怀来、内蒙等地的环北京产业圈;形成江苏、浙江等地的环上海产业圈;以及坐落在东莞、佛山、深汕合作区;广州外围城市的环珠三角产业圈。而未来这个扩散趋势只会更快。

  各地政务型数据中心主导。对远离一线城市的内地二三线城市来说,当地并没有众多的大型互联网企业,大型企业,来作为对数据中心的需求方。所以笔者认为还是会以雪亮工程、智慧城市、政务云等政府类项目所需要的配套数据中心建设为主。在满足自身需要的同时,对外招商引资。但除了低廉的租金和电价之外,因人才缺乏、网络时延等问题,对巨头们吸引力有限。


3新的温控方式、制冷技术会加快推广。

  很多更加节能的新型制冷方式这些年大家已经屡见不鲜,但之所以没有推广开来,除了技术成熟度之外,更多的还是成本原因。

  事实上,更先进的制冷系统往往意味着更高的建设成本,更可靠的供电系统往往意味着更多系统冗余和能耗。所以互联网的市电直供再节能,金融企业也不会采用;液冷的效率再高,也不能打动中小企业租户。

  能耗、安全、价格三者之间的平衡代表了各方的博弈。PUE是政府部门对运营方提出的要求,而用户更关心安全和价格。能降低成本的技术才是好技术。如果新技术的初期投入过大,而对使用成本的降低帮助有限,那么势必很难普及。有人提出用湖水制冷、海水制冷,甚至数据中心建在船上,不过目前来看都还不能大规模普及。

  建设成本的增加会体现在最终用户价格上(机柜租赁、云服务等),如果能切实减少运营成本(比如电费),通过几年的时间可以在短期内收回初期投资,使得整体TCO更低,让用户看到更实际的好处(低价),新的技术才有希望得到大规模推广。


4节能改造、节能认证相关行业会更受青睐。

 

  随着政府的重视,数据中心的节能工作毫无疑问会受到更多的关注。比如机房的节能认证、PUE认证会逐渐成为新建数据中心的“准生证”。而相关的工程改造、节能认证行业也会因此收益。

  据笔者了解,目前不少行业组织和协会均可以提供测试认证,比如电子节能技术协会、绿色网格、信息通信研究院等。而绿色网格(中国)还在去年专门推出了针对微模块的PUE测试认证。

  公开数据显示,业内有厂家可以做到全年PUE值1.245的数据,不过要说明的是,这是基于北京地区温度数据计算出的结果。如果是在上海,仅仅依靠微模块本身,不借助其他手段,几乎不太可能做到年平均PUE值在1.3以下。更不用说广州、深圳等南方地区了,能做到1.4就不错了。


5边缘计算的新机会点。

  在大家都在讨论大型数据中心的PUE限制时,似乎很少有人注意到下面这条:推进边缘计算资源池节点规划布局。

  啥意思?大的不让建了,可以搞小型微型的嘛。数据中心基础设施的那点事,无非就是集中还是分散、零存还是整取。什么分布式电源、末端制冷,就是这么被大家折腾出来的。

  而随着5G建设被运营商提上日程,随之而来的边缘计算需求也会快速爆发。笔者预计,2019年,作为边缘计算资源池的载体—一体化机柜或者可以叫微微模块(miniDC)将会迎来更大的发展。对厂家来说,这是个好消息。

 
[ 点击数:] [打印本网页] [关闭本窗口]  
 
相关内容
查无记录
 
深圳市迪士通科技有限公司 网站管理