original

阿里巴巴对外开源自研液冷数据中心技术,未来3-5年将实现风冷、液冷互换|钛快讯

秦聪慧

秦聪慧

· 2020.01.07

阿里巴巴大概会花3-5年的时间,让阿里巴巴部署的所有数据中心能够做到风冷、液冷互换的状态。即任何部署有风冷的区域都可以部署液冷,最后阿里会逐步淘汰风冷技术,把更节能的液冷变成数据中心的默认配置。

播放 暂停

阿里巴巴对外开源自研液冷数据中心技术,未来3-5年将实现风冷、液冷互换|钛快讯

00:00 04:02

阿里巴巴服务器正在使用液冷方案降温

阿里巴巴服务器正在使用浸没式液冷方案降温

日前,阿里巴巴宣布将“浸没式液冷数据中心技术规范”向全社会开放,该规范旨在用一套标准流程为下一代绿色基地型数据中心的建设提供设计依据。阿里巴巴开源的整套规范,涵盖了数据中心的设计、施工、部署、运维等各个环节,打破了我国液冷数据中心建设无标准可采用的空白。

浸没式液冷是相对于传统风冷而言的,它是将服务器放置在特殊绝缘冷却液中,以达到为服务器降温的目的。这种方案使得服务器运算产生的热量可被直接被吸收进入外循环冷却,全程用于散热的能耗几乎为零。这种形式的热传导效率比传统的风冷要高百倍,节能效果超过70%。

PUE是评价数据中心能源效率的通用指标,数据中心的PUE值越接近1,就表明该数据中心绿色化程度越高。从2010年开始,我国相关部门开始发布绿色数据中心的相关政策。2017年,工信部首次将数据中心纳入国家新型工业化产业示范基地创建范畴,并提出了评选国家新型工业化产业示范基地(数据中心)的绿色条件。据中国信通院云大所所长何宝宏介绍,该评选的硬性指标是,大型数据中心的年均PUE要≤1.5,且IT负荷要达到40%以上;中小型数据中心,年均PUE≤1.7,且IT负荷要达到50%以上。

钛媒体了解到,采用了阿里巴巴浸没式液冷数据中心技术规范建设的数据中心,PUE值将会逼近理论极限值1.0,单机柜功率密度也会提升30%以上。采用液冷技术之后,IT部件故障率将会大幅降低,减轻了运维难度,在部署上效率也更快。

通俗来讲,阿里巴巴是将自己建设浸没式液冷数据中心集群的各方面经验公布了出来。“浸没式液冷数据中心集群的硬件建设,阿里巴巴实际上付出了研发成本、时间成本、金钱成本,现在我们把这个这个规范开源以后,最终用户可以享有我们在这个过程探索出的各种成果。”阿里巴巴基础设施首席架构师&IDC总经理高山渊在接受媒体采访时表示。

以光模块为例,浸没式液冷数据中心集群建设的过程中,阿里巴巴花了近一年的时间与各个厂商做多版本的光模块的改版。在规范开源之后,业界可以直接采用阿里巴巴的探索成果。

高山渊还透露,阿里巴巴大概会花3-5年的时间,让阿里巴巴部署的所有数据中心能够做到风冷、液冷互换的状态。即任何部署有风冷的区域都可以部署液冷,最后阿里会逐步淘汰风冷技术,把更节能的液冷变成数据中心的默认配置。

据了解,2016年,阿里巴巴就推出了全球首台浸没式液冷服务器,将服务器被浸泡在特殊的绝缘冷却液里,目前,阿里巴巴张北浸没式液冷数据中心集群已经投入使用。

会议当天,阿里巴巴联合ODC(开放数据中心委员会),与英特尔、希捷、西部数据、3M、思科等多家产业链内供应商共同发布了浸没式液冷数据中心技术开源规范,这些供应商将按照该规范生产出一批商业化产品。

本文系作者秦聪慧授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
本文观点仅代表作者本人,钛媒体平台仅对用户提供信息及决策参考,本文不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

”支持原创,赞赏一下“
钛粉61539 钛粉60785 在天空中自由翱翔的百灵鸟 钛粉14772 单晶冰糖啦啦啦 钛友趣641500
541人已赞赏 >
541换成打赏总人数541人赞赏钛媒体文章
关闭弹窗

挺钛度,加点码!

  • ¥ 5
  • ¥ 10
  • ¥ 20
  • ¥ 50
  • ¥ 100

支付方式

确认支付
关闭弹窗

支付

支付金额:¥6

关闭弹窗
sussess

赞赏金额:¥ 6

赞赏时间:2020.02.11 17:32

关闭弹窗 关闭弹窗

注册邮箱未验证

我们已向下方邮箱发送了验证邮件,请查收并按提示验证您的邮箱。

如果您没有收到邮件,请留意垃圾邮件箱。

更换邮箱

您当前使用的邮箱可能无法接收验证邮件,建议您更换邮箱

账号合并

经检测,你是“钛媒体”和“商业价值”的注册用户。现在,我们对两个产品因进行整合,需要您选择一个账号用来登录。无论您选择哪个账号,两个账号的原有信息都会合并在一起。对于给您造成的不便,我们深感歉意。