芯片功耗持续提升,液冷散热成为主流选择
根据《智算中心基础设施演进白皮书》,智算训练需要建立高度集中化的GPU集群,而智算中心GPU芯片的算力在不断提升,H100/H200/H800等芯片TDP设计功耗已达700W,2024年3月GTC大会发布的B200达1000W,GB200已达到1200W功耗。GB300的TDP预计提升至1400W,而英伟达下一代RubinUltraGPU功耗有望达到2300W。
资料来源:观研天下数据中心整理
根据观研报告网发布的《中国液冷散热行业发展趋势研究与未来前景分析报告(2026-2033年)》显示,随着服务器核心计算芯片的更新换代,服务器单芯片功耗不断增加,风冷散热能力有限,能源问题愈发突出。为缓解这一问题,我国政府部门多次发布政策,鼓励企业采用新技术、新工艺、新设备,降低数据中心能耗。而具备优秀节能效果的液冷服务器成为国家重点支持行业之一。国家发展改革委、国家数据局等部门于2023年12月发布的《关于深入实施“东数西算”工程加快构建全国一体化算力网的实施意见》,明确表示要推进数据中心用能设备节能降碳改造,推广液冷等先进散热技术。
数据中心能耗主要相关政策
| 时间 | 政策名称 | 主要内容 |
| 2021年11月 | 《贯彻落实碳达峰碳中和目标要求推动数据中心和5G等新型基础设施绿色高质量发展实施方案》 | 到2025年,全国新建大型、超大型数据中心平均电能利用效率降到1.3以下,国家枢纽节点进一步降到1.25以下,绿色低碳等级达到4A级以上。 |
| 2022年1月 | 《关于严格能效约束推动重点领域节能降碳的若干意见》 | 鼓励重点行业利用绿色数据中心等新型基础设施实现节能降耗。新建大型、超大型数据中心电能利用效率不超过1.3。到2025年,数据中心电能利用效率普遍不超过1.5。 |
| 2023年4月 | 《绿色数据中心政府采购需求标准(试行)》 | 数据中心相关设备和服务应当优先选用新能源、液冷、分布式供电、模块化机房等高效方案。 |
| 2023年12月 | 《关于深入实施“东数西算”程加快构建全国一体化算力网的实施意见》 | 推进数据中心用能设备节能降碳改造,推广液冷等先进散热技术。 |
| 2024年7月 | 《数据中心绿色低碳发展专项行动计划》 | 2025年底,全国数据中心平均PUE降至1.5以下,可再生能源利用率年均增长10%,整体上架率不低于60%;新建大型和超大型数据中心优先布局国家枢纽节点,新建数据中心逐步提升单位算力能效。 |
| 2025年7月 | 《2025年度国家绿色数据中心推荐工作通知》 | 推荐的绿色数据中心PUE不高于1.30,需达《数据中心能效限定值及能效等级》2级及以上;服务器能效符合《塔式和机架式服务器能效限定值及能效等级》节能要求。 |
资料来源:公开资料整理
液冷是一种采用液体吸收热量的散热技术,通过冷却液体替代传统空气散热,充分利用了液体的高导热、高热容特性替代空气作为散热介质,同传统风冷散热对比,液冷具有低能耗、高散热、低噪声、低成本等优势,适用于需提高计算能力、能源效率、部署密度等应用场景,已成为一种新型制冷解决方案,是解决数据中心散热和节能压力的主要选择。
液冷技术的优势
| 优势 | 优势分析 |
| 低能耗 | 液冷散热技术传热路径短、换热效率高、制冷能效高 |
| 高散热 | 液冷系统常用介质有去离子水、醇基溶液、氟碳类工质、矿物油/硅油等,这些液体的载热能力、导热能力和强化对流换热系数均远大于空气;单板、整柜、机房整体送风需求量大幅降低,允许高功率密度设备部署;同时,单位空间ICT设备布置数量上升,提高数据中心空间利用率 |
| 低噪声 | 液冷散热技术利用泵驱动冷却介质在系统内循环流动并进行散热,解决发热/高功率器件散热问题;能降低冷却风机转速或者采用无风机设计,从而具备极佳的降噪效果 |
| 低成本 | 液冷技术具有极佳的节能效果,液冷数据中心PUE可降至1.2以下,每年可节省大量电费,能够极大的降低数据中心运行成本。 |
资料来源:公开资料整理
当前液冷技术包括冷板式、浸没式、喷淋式等类型。其中,冷板式液冷因其技术成熟度高、兼容性强、改造成本低等优势,已成为当前液冷市场主流应用形式。
(1)冷板式
利用工作流体作为中间热量传输的媒介丫将热量由热区传递到远处再进行冷却。
冷板式散热效率高,由于液体比空气的比热大,散热速度远大于空气,因此制冷效率远高于风冷散热。无泄漏风险,冷却液体不与电子器件直接接触,减少了泄漏对硬件的风险。噪声更低,服务器内部实现无风扇设计,降低了运行噪音。功率密度高,单机柜功率密度可达较高水平,适用于高密度服务器环境。
(2)浸没式
在浸没式液体相变冷却系统中,将服务器主板、CPU、内存等发热量大的元器件完全浸没在冷媒中,在工作状态下,各发热部件会产生热量,引起冷媒温升。
沉浸式传热效率高,利用液体相变将热量直接带走,减少了传热过程的热阻,相比冷板式液冷具有更高的传热效率。节能环保,能够更有效地回收热能,提高能源利用效率。噪音极低,由于服务器内部无风扇等机械部件,噪音极低。可靠性高,由于散热效果优越,硬件的寿命更长,故障率更低。
(3)喷淋式
通过喷淋模块将冷却液直接喷洒在服务器的发热器件上,利用液体的高比热容和强制对流换热特性,有效地将发热器件产生的热量带走。
喷淋式液冷技术能够降低数据中心的制冷能耗,提高能效比。由于服务器内部无风扇等机械部件,机房内部环境更加安静。喷淋式液冷技术能够更有效地保护硬件免受高温损害,提高硬件的可靠性和寿命。
由于液体的比热容与导热系数远高于空气,液冷系统能直接、高效地带走高功率芯片产生的热量,轻松应对单芯片kw级乃至整机柜数十千瓦的散热挑战。同时,液冷系统能够通过减少甚至取代高能耗的风扇群,并利用高温液体制冷实现自然冷却,将数据中心的PUE显著降至1.2以下,实现制冷环节高达30%以上的节电效果,符合各国现行PUE政策要求。
中美欧数据中心PUE的要求
| 国家和地区 | 政策要求 |
| 中国 | 我国《数据中心绿色低碳发展专项计划》规定,到2025年底,全国数据中心整体上架率不低于60%,PUE降至1.5以下;新建及改扩建大型和超大型数据中心PUE降至1.25以内,且国家枢纽节点数据中心项目PUE<=1.2。 |
| 美国 | 美国通过数据中心优化计划(DCOI)从联邦层面规范能源消耗,根据DCOI,现有联邦数据中心需在2018年9月30日前达到PUE<=1.5,新建项目需<=1.4,且要求强制安装数据中心基础设施管理软件,实现能耗实时监控。 |
| 欧洲 | 德国要求2027年7月起,现有数据中心需满足PUE<1.5,2030年进一步降至<1.3;2026年7月起,新建数据中心PUE需<1.2。 |
资料来源:公开资料整理
全球数据中心呈现高增长态势,有望驱动液冷行业高增长
2023年6月,中国移动、中国电信、中国联通三家基础电信运营企业发布了《电信运营商液冷技术白皮书》,计划2023年开展技术验证;2024年开展规模测试,新建数据中心项目10%规模试点应用液冷技术;2025年开展规模应用,50%以上数据中心项目应用液冷技术。按上述计划,2025年起,运营商50%以上的新建数据中心将应用液冷技术。根据工信部、国家网信办等发布的公开资料显示,预计到2027年,中国新建液冷数据中心规模将突破1100MW,增速将高于数据中心整体规模增长水平,且2027年后每年新增规模有望保持千兆瓦以上,整体呈现高速增长态势。
资料来源:观研天下数据中心整理
人工beplay下载软件 发展势头强劲,算力需求旺盛,不断推动液冷服务器成为“刚需”硬件,预计到2027年,我国液冷服务器市场规模达到450亿元,保持高速增长态势。
资料来源:观研天下数据中心整理
北美市场方面,头部云厂商资本开支强劲增长并持续上调指引。2025年1月21日,美国总统宣布OpenAI、软银和甲骨文将共同投资建设的AI基础设施项目“星际之门”,计划在未来4年内投资5000亿美元。目前,该计划已确定将在美国新建5个AI数据中心,未来三年内投资将超过4000亿美元,最终目标是实现近7千兆瓦的算力容量。数据中心是数字经济的核心基础设施,其发展规模与增速直接反映了全社会算力需求的旺盛程度。全球来看,2025年全球数据中心市场规模达到4000亿美元,预计到2033年市场规模有望突破万亿美元。
资料来源:观研天下数据中心整理
当前液冷仍然处于发展早期,国内汽车热管理企业纷纷跨界布局
当前液冷技术尚处于产业发展朦胧时期,产业标准尚未明确,市场参与者呈多元化态势,交付模式上包括一体化交付与解耦交付。一体化交付模式下,液冷整机柜由厂商自定标准进行集成设计开发,整机柜由同一服务器厂商一体化交付;解耦交付模式下,液冷机柜与服务器之间遵循用户统一制定的接口设计规范,机柜与服务器解耦,可由不同厂商交付,最终由下游客户自己去完成整体集成。
一体化交付模式存在服务器与非原厂设备不适配的兼容性问题,但责任界面清晰。解耦交付模式下,下游客户的选择自由度更高,有利于于促进竞争,推动机柜整体成本的下降,但存在运维管理中责任不清等问题。由于液冷技术路线尚处于产业发展初期,行业标准、技术规范等仍待完善,当下两种交付方式并存,未来液冷技术路线的标准化会推动解耦交付模式的发展。
液冷产业生态涉及产业链上中下游,其中:上游为零部件,主要包括冷却液、CDU、接头、电磁阀、TANK、manifold等;中游为液冷数据中心,可分为浸没式和冷板式;下游应用于互联网、金融、电信、能源等领域。
资料来源:观研天下数据中心整理
近年来,液冷行业出现了多家汽车热管理公司跨行进入。汽零公司多以汽车热管理(三花、银轮等)及汽车管路(凌云、川环、飞龙等)起家并顺产业研发进而入局,产品多为液冷上游零部件泵、阀、管路、快接头、Manifold 等,有望凭借多年技术积累及精密制造优势快速打开市场。
国内部分汽车热管理公司液冷业务布局
| 公司 | 产品 | 客户 |
| 拓普集团 | 液冷泵、温压传感器、各类流量控制阀、气液分离器、液冷导流板等 | 已经向华为、A 客户、NVIDIA、META 及各企业客户和各数据中心提供商,对接推广相关的产品 |
| 三花智控 | 阀、泵、转换器、控制器等产品由热管理向液冷拓展中 | 产品及客户积极拓展中 |
| 比亚迪电子 | 数据中心液冷产品 | 已通过行业领军企业认证 |
| 银轮股份 | 兆瓦级浸没一体式液冷设备、精密空调+冷却塔、服务器液冷/风冷CDU+芯片冷板模组+Manifold、柴油发电机液冷模块等 | 部分品类已进入逐步放量阶段,部分品类处在验证阶段 |
| 敏实集团 | 公司正重点布局和推动 AI 液冷相关产品开发和落地 | \ |
| 凌云股份 | 公司子公司凌云阔丹及亚大集团专注于管路产品,目前已成功开发并获得储能、充电站、数据中心等场景所需液冷产品订单;公司子公司凌云胶管公司提供定制化液冷管路系统,已打入全球供应链 | 向国内数字能源高科技领军企业 H 客户批量供货,为全球知名液冷厂家 CoolerMaster、AVC、宝德华南等散热龙头批量供应液冷管路,液冷产品系统还被英维克、申菱环境等企业用于自主可控液冷方案 |
| 中鼎股份 | CDU(冷液分配装置),未来根据实际需要,逐步将浸没式技术运用到超算中心热管理中 | 目前公司正在加速与客户对接 |
| 锦富技术 | 公司控股子公司已向某台湾客户交付小批量液冷板部件,该液冷板部件用于 B200 服务器的散热模组中 | \ |
| 祥鑫科技 | 液冷解决方案(并继续拓展算力服务器的关节部件(液冷模组、快接头、CDU、机柜等) | 目前公司正与算力服务器的国内外头部企业接洽 |
| 川环科技 | 服务器管路产品已达 V0 级标准,并成功取得美国 UL 认证 | 目前已经进入了 CoolerMaster、AVC、英维克、中航光电、飞荣达、宝德华南等供应商体系,正按照客户的流程进行开发工作;液冷相关接头产品已完成初样研制,正处于客户推广阶段 |
| 飞龙股份 | 电子泵系列产品和温控阀系列产品为主 | 目前公司液冷领域主要客户及建立联系的达 80 家,有超 120 个项目正在进行中,部分项目已经量产 |
| 腾龙股份 | 已实现电子水泵产品及橡胶管、尼龙管产品分别用于数据中心和储能电柜领域液冷的小批量量产 | \ |
| 溯联股份 | 目前公司已完成了 UQD 产品的主要性能试验验证工作,正着手研发配套的液冷组件和独立的系统化性能解决方案 | 已与国内主要服务器制造商以及国际化的领先热管理系统集成商建立了业务联系和技术交流 |
| 立中集团 | 公司研发的高导热可钎焊压铸铝合金并正在积极拓展储能、算力中心液冷系统领域的应用 | \ |
资料来源:公开资料整理(ym)
【版权提示】观研报告网倡导尊重与保护知识产权。未经许可,任何人不得复制、转载、或以其他方式使用本网站的内容。如发现本站文章存在版权问题,烦请提供版权疑问、身份证明、版权证明、联系方式等发邮件至kf@chinabaogao.com,我们将及时沟通与处理。









