开云下载安全

通讯/机箱机柜

重磅发布 2024看得见的未来:数据中心行业十大发展趋势

时间: 2024-04-01 13:01:06 |   作者: 通讯/机箱机柜

详细介绍

  2023年,我们见证了人工智能(AI)的爆发,它正在改变人们的工作、生活、以及与技术交互的方式。以ChatGPT为代表的生成式AI也因其显著的进步和广泛的应用,在去年引起了极大的关注。随着人工智能的持续不断的发展和成熟,将有可能彻底改变从医疗保健、金融、生产制造到交通、娱乐等众多行业。市场对AI的巨大需求推动了新的芯片与服务器技术的发展,这些变化将对数据中心的建设、电力需求、水资源消耗、供配电和制冷技术与架构带来颠覆性的挑战。怎么样应对这些挑战,将在新的一年成为行业非常关注的议题。

  作为数据中心、行业关键应用领域基础设施建设和数字化服务的全球领导者,自2018年起,施耐德电气已连续第7年在年初发布《看得见的未来数据中心行业的新趋势与新突破》系列洞察,开创了行业趋势前瞻解读先河,并持续引领未来变革方向,为数据中心行业注入强劲发展动力。立足深刻的行业洞察和实践,施耐德电气致力于揭示新一年数据中心行业会发生哪些变化,这些变化和趋势对数据中心运营商的价值和意义,以及对这一些行业变化的看法和价值主张。以下是施耐德电气全球数据中心科研中心对2024年发展的新趋势的预测。

  过去十年,云计算一直是推动数据中心建设与发展的主要驱动力,目的是为社会提供数字化转型所需的通用算力。但是,AI的爆发带来了巨大的算力需求,为满足AI大模型的训练和应用推理,我们应该建设大量的智算中心。

  施耐德电气根据全球数据中心的用电量,GPU芯片和AI服务器未来的出货量等数据,估算出全球智算中心目前的电力需求为4.5 GW,占数据中心总57 GW的8%,并预测到2028年它将以26%-36%的年复合增长率增长,最终达到14.0 GW至18.7 GW,占总93 GW的15%-20%。这一上涨的速度是传统数据中心年复合增长率(4%-10%)的2到3倍。算力分布也会由现在的集中部署(集中vs.边缘为95%:5%)向边缘迁移(50%:50%),这在某种程度上预示着智算中心将引领数据中心建设的潮流。根据工信部的规划,我们的祖国智能算力的占比将在2025年达到35%,年均复合增长率在30%以上。

  相较于传统数据中心,智算中心的建设需要在确保高能效和高可用的前提下,实现可持续发展和更具前瞻性,也就是最小化对环境的影响,尤其需要提高适应性来满足未来IT技术(高功耗的芯片与服务器)的需求。

  机柜功率密度对数据中心的设计与造价具有较大的影响,包括供配电、制冷以及IT机房的布局等,一直都是数据中心比较关注的设计参数之一。

  Uptime过去几年的调研结果为,服务器机柜的功率密度正在稳步但缓慢地攀升。机柜的平均功率密度通常低于6千瓦,大多数运营商没有超过20千瓦的机柜。造成这一趋势的原因包括摩尔定律使芯片的热设计功耗维持在相比来说较低的水平(150瓦),同时高密服务器通常被分散部署在不同的机柜以降低对基础设施的要求,但AI的爆发将改变这一趋势。

  用于训练的AI机柜功率密度可以高达30-100千瓦(取决于芯片的类型与服务器的配置)。而造成这一高密的原因是多方面的,包括快速提升的CPU/GPU热设计功耗,CPU为200-400瓦,GPU为400-700瓦,未来还会促进升高;AI服务器的功耗通常在10千瓦左右,由于GPU是并行工作的,AI服务器需要以集群的方式紧凑部署,以降低芯片和存储之间的网络时延。机柜功率密度的陡增将给数据中心物理基础设施的设计带来非常大挑战。

  风冷一直都是数据中心IT机房冷却的主流方式,如果设计得当,可支持十几个千瓦甚至更高的机柜功率密度。但随着对AI训练性能的不断追求,研发人员逐步的提升芯片的热设计功耗,对这些芯片进行风冷变得不切实际。虽然一些服务器供应商通过重新设计芯片的散热器、增加服务器风量以及进出风温差,以不断突破风冷技术的极限,配置40-50千瓦风冷型的AI机柜,但这会使风扇的功耗呈指数级增加。例如,AI服务器风扇可以消耗高达25%的服务器功率,但传统服务器的典型值只有8%。

  芯片的冷却才是液冷的主要驱动力,20千瓦机柜功率密度是风冷和液冷相对合理的分界线。当AI机柜功率密度超过这一数值时,应重点考虑采用液冷服务器。

  相较于风冷,液冷还带来了诸多好处,包括处理器可靠性和性能提升、能源效率提升、用水量减少以及噪音水平降低等等。目前,对于高密的AI服务器,供应商通常提供风冷和液冷两种方案,但对于下一代GPU,液冷将是唯一选择。

  对于传统数据中心,不同工作负载同时达到峰值的概率极低。比如,典型的大型数据中心峰均比通常在1.5-2.0或更高。但在智算中心,由于AI训练负载缺乏变化(峰均比接近1.0),工作负载可以在峰值功率下,运行数小时、数天甚至数周。其结果是增加了上游大型断路器脱扣的可能性,以及宕机的风险。同时,由于机柜功率密度的升高,需要采用更高额定电流值的断路器、列头柜、小母线等。而在电阻变小的同时,可以通过的故障电流也就更大,这在某种程度上预示着IT机房出现拉弧的风险也会升高,保证该区域工作人员的安全是一定要解决的难题。

  在设计阶段采用模拟软件对电力系统来进行弧闪风险评估,分析可产生的故障电流,并且对可靠性做多元化的分析,以便为特定场地设计最佳解决方案。

  这项研究必须从中压开关柜分析至机柜层面,同时建议如果新建数据中心IT机房的AI训练工作负载超过60-70%,应该要依据下游各馈线断路器的总和来确定主断路器的大小,设计时不再考虑同时系数。

  冷板式液冷和浸没式液冷是数据中心液冷的两种主流方式。究竟选择哪种液冷方式和怎么来实现快速部署一直都是行业热议的话题。

  随着慢慢的变多AI服务器采用冷板式液冷,冷板式液冷也更加容易与传统的风冷系统兼容,受到很多数据中心运营商的青睐。但是服务器厂家液冷的设计方式多种多样,快速接头、盲插和Manifold的兼容性存在诸多问题,IT与基础设施的责任边界也模糊不清,这大大限制了液冷在数据中心的接受度和推广。

  相较于冷板式液冷,采用碳氟化合物流体的浸没式液冷不仅价格相比来说较高,而且很多碳氟化合物属于对环境有害的人工合成类化学物质,面临慢慢的变多的行业监督管理与政策压力。因此,浸没式液冷除了采用油类冷却液,可用的碳氟化合物流体将越来越少。

  IT厂家提供更为标准化的设计的具体方案,包括流体的温度、压力、流量、设备的接口等,并提供更加明确的责任边界。

  施耐德电气将在第一季度发布液冷白皮书,来帮助数据中心更好地部署液冷技术。

  水资源短缺正在成为许多地区的严重问题,了解和减少数据中心的水资源消耗慢慢的变重要。此前,数据中心水资源消耗未被重视的一个重要原因是用水成本相对用电通常是微不足道的,甚至很多数据中心通过消耗更多的水来提高能效。但是,数据中心的用水已经引起了很多当地政府的关注,尤其在水资源匮乏的地区,政府正在出台各项政策来限制和优化数据中心的用水。这这中间还包括将WUE作为数据中心的设计指标,采用水电双控政策。因此,减少用水量将成为许多数据中心运营商未来关注的重点领域。

  数据中心的WUE值在 0.3-0.45 L/kWh之间是一个相对优秀的数值。施耐德电气建议根据数据中心所在地域水资源情况、气候情况和数据中心类型,寻找用电与用水之间的平衡。

  行业能够使用绝热蒸发、间接蒸发冷却、液冷等各种技术创新,由此减少直接用水量。数据中心运营商应将WUE作为可持续发展目标的一部分,报告用水量/节水量,同时关注用电所带来的间接用水量。

  在智算中心,随着机柜功率密度的提升以及AI机柜的集群化部署,IT机房的配电面临额定容量偏小的挑战。比如,过去一个300 kW的配电模块能支持几十台甚至是上百台机柜。而如今,同样配电模块的电量甚至无法支持一个最低配置的NVIDIA DGX SuperPOD AI集群(单排358 kW的10个机柜,每机柜36 kW)。配电模块规格太小,使用多个配电模块不仅浪费IT空间,也变得不切实际。与单个大容量配电模块相比,多个配电模块还会增加成本。回归配电的本质,提高配电容量的主要手段就是增大电流。

  在设计时应选择规格足够高的配电模块,实现弹性部署,从而适应未来的配电需求,以至少支持一整排集群为准。

  比如,在标称电压下,800 A的配电模块是目前适用于所有三种配电类型(PDU,RPP和母线)的标准容量尺寸,可提供576 千瓦(降容后为461 千瓦)。对于末端配电能够正常的使用小母线 A额定电流的机柜PDU。在空间允许的情况下,能够正常的使用多个标准化的机柜PDU作为过渡。

  数据中心通过提供AI算力推动人类社会向着自动化、数字化和电气化等更加可持续的方向演进,赋能交通、制造和发电领域减少对环境的影响。反过来,AI也可以赋能数据中心能源的优化,来减少其自身对环境的影响。

  比如,AI和机器学习技术能用于数据中心冷源系统和空调末端的控制,通过对历史数据的分析,实时监测数据中心气流分布,并基于数据中心IT负载的变化,实时匹配合适的冷量输出。通过自动调节末端精密空调及风机的运转方式,以此来实现动态地按需制冷,以减少热点并且降低机房的能源消耗与运维成本。

  AI技术在机房空调群控系统中的应用,能轻松实现机房内部环境参数的智能监测和控制,并通过自动调节与优化来提高能效和系统的可靠性,进而达到节能减排的目的。

  随着AI技术的持续普及,以及国家对数据中心节能降耗的持续要求,无论是新建还是改造项目,AI技术在数据中心空调群控系统中均将得到更多的关注与应用。

  在数据中心设计中,追求IT机房面积占比的最大化,即尽可能减少辅助设备间的占地面积,一直都是数据中心设计的主要诉求之一。对于传统的数据中心,IT机房的面积与配电室的面积之比通常为1.5:1左右。随着AI驱动IT机柜的高密化,慢慢的变多的IT机房采用液冷方式,液冷IT机房的面积与配电室的面积之比将发生逆转,在0.6:1左右。这时,配电室的占地面积将引起数据中心设计人员的更多关注,优化配电室的占地面积也必将成为行业的一个发展方向。

  比如,减小UPS系统的占地面积,包括采用更高功率电源模块的模块化UPS,实现兆瓦级单柜功率;同时采用锂电池取代铅酸蓄电池,可以将电池间的占地面积减少40-60%。集中部署供配电设备(比如:电力撬块)也能够大大减少配电间的占地面积;采用体积紧凑的模块化配电柜和池化柴油发电机等应急电源也是有效的手段。

  UPS系统在实现数据中心电能质量治理和不间断供电方面一直发挥着重要的作用。随着数据中心运营商面临着提高可持续性和财务绩效,同时保持或增强供配电系统的可靠性和弹性的压力,新的能源存储和发电技术提供了新的可能性,但也对传统数据中心运营模式和电气架构提出了挑战。电池和燃料电池等分布式能源技术能够有效产生或存储清洁能源。

  储能系统除提供传统UPS系统功能外,还能够最终靠在用电高峰时释放存储的能量来管理电力需求高峰,实现扛峰增载;通过削峰填谷,降低数据中心用电成本,来实现能源成本优化;同时参与电网的需求响应,实现创收。

  数据中心实现可持续发展,需要降低能源成本,充分的利用搁浅的资产,减少对柴油发电机的依赖,并保持独立于电网的业务弹性,这些需求为储能系统在数据中心的采用创造了更多有效的应用场景与价值。

  随着锂电池储能系统价格的不断下降和电气架构的创新,数据中心能够最终靠微网系统提供对能源供应的更大控制权和自主权;在没有微网的情况下,也能够最终靠部署储能系统来获得竞争优势。

  进入2024年,数据中心行业的重点将从传统数据中心建设转向智算中心建设,通过不断的技术创新来实现智算中心的可持续发展与适应下一代IT技术是关键所在。

  以上对新兴趋势的预测来自施耐德电气全球数据中心科研中心,该部门设立于上个世纪九十年代。科研中心始终以“探索数据中心行业的技术和发展的新趋势,倡导最佳实践”为团队使命,通过发表通俗易懂的白皮书和权衡工具助力数据中心用户提高可用性和优化能效,赋能数据中心的可持续发展,最大化数据中心的商业经济价值。截至2023年,施耐德电气科研中心团队已经发表白皮书230余篇,每年有超过40万的下载量;权衡工具30个,每年有超过2万用户在线使用。所有白皮书和权衡工具都免费提供给整个行业学习和使用,在推动数据中心行业的发展的同时充分印证了施耐德电气在数据中心行业思想领袖的地位。

推荐产品