通信行业深度从可选到必选之路,A
报告出品方:国盛证券
以下为报告原文节选
------
1.液冷工艺多样,冷板式有望率先推广
1.1液冷有直接和间接两大类技术路线
液冷系统可以根据液体与硬件之间的接触方式分为直接液冷和间接液冷。直接液冷系统中,液体与需要冷却的硬件组件进行接触,即冷却液体直接流经硬件表面,吸收并带走硬件产生的热量。直接液冷系统的液体与热源之间没有中介,散热效率更高,热量能够更直接地传递到液体中,主要用于对散热效率要求较高的场景,直接冷却包括浸没式和喷淋式,其中浸没式根据冷却介质是否发生相变又可分为单相浸没式和相变浸没式。间接液冷系统中,液体不直接与硬件接触,而是通过一个中介组件(散热器或冷却块)与硬件接触,而冷却液体则与中介组件接触,通过其中介组件将热量带走,间接冷却一般为冷板式液冷,根据冷却介质是否发生相变又可分为单相冷板式和两相冷板式。此外,还存在混合液冷的散热方式,即核心部件用液冷板散热,非核心部件仍采用传统风冷,或者将间接液冷与直接液冷混合成一套系统。
1.1.1浸没式液冷
单相浸没式液冷:单相指的是液冷剂保持液态,类似于传统的液冷系统。设备或组件被完全浸泡在液体冷却剂中,液体在吸收热量后被泵送到一个热交换器中,然后通过换热器散发热量,将冷却剂重新送回设备进行循环。两相浸没式液冷/相变浸没式液冷:两相/相变指的是液冷剂在循环中经历液态和气态两个相态。当液冷剂接触到热的组件表面时,它会迅速蒸发成气体,吸收热量,随后这个热蒸汽被移动到一个冷凝器或换热器中,重新变为液态,并被送回到设备以继续循环。两相浸没式液冷系统通常能够提供更高的散热效率,蒸发相变可以在更短的时间内有效地吸收大量的热量。
1.1.2喷淋式液冷
喷淋式液冷通过将液体冷却剂以喷淋或喷射方式直接应用到电子设备表面,实现高效降温。这一系统通过液冷剂吸收热量,促使其发生相变或升温,并通过喷嘴释放,从而在设备周围形成冷却层,适用于高功率密度设备和要求精密散热的领域。喷淋式液冷具备承重和占地少、用液冷低、冷却液价格低等优势,且安装简单,可根据设备的实际热量分布进行定向冷却。
1.1.冷板式液冷
冷板式液冷的核心是通过一种特殊的冷板或冷却块来实现对电子设备的有效冷却。冷板通常是一块直接安装在需要冷却的硬件组件(如CPU或GPU)上的金属或其他高导热性材料的板料,其内部含有通道可以让液体流动,通过冷板的管道,液体被泵送到需要冷却的硬件上,并通过冷板与硬件间接接触,液体吸收硬件产生的热量,然后被泵送到一个散热器或冷却单元,随后借助风扇或其他散热设备辅助散热。冷板式液冷也可以根据冷却液在吸收或释放热量过程中,是保持液相或者发生气液相转化而分为单相冷板式和两相冷板式,其中两相冷板式实际中应用较少。
1.1.4混合液冷
混合液冷常见的混合冷却方法是风冷+冷板,也有技术难度较高的冷板+液冷混合模式。风冷+冷板的混合模式指的是针对高功率和高热密度的元器件采用冷板,而对于低功率元件则使用风冷方式,比如在CPU/GPU或内存模块上安装液冷冷板,同时采用风冷对其他元器件进行散热;混合液冷也有采用冷板+浸没式的模式,如英伟达在年5月获得美国能源部拨款的COOLERCHIPS液冷系统,就是将服务器部件全部浸泡在冷却液中,同时高功率芯片上增加冷板加强冷却,该系统目前尚在研发中,在4年会进行组件测试。
1.1.5液冷技术路线对比
实际应用中,冷板式液渗透率相对较高,两相浸没式液冷效果更好。不同液冷技术在散热性能、维护难易度、建设成本度等方面呈现出较大差异,目前产业内应用较多的是不需要改造服务器且运维成本较低的间接液冷-冷板式液冷:
?散热性能:相变浸没式液冷表现最优,其通过冷却液体相变吸热,具有极高的汽化潜热载热能力,因此在散热性能上领先。冷板式液冷次之,而单相浸没式液冷使用的氟化液/油类冷却介质,由于介质比热容及流速有限,导致散热密度相对一般。?维护难易性:冷板式液冷相对简便,液冷不直接接触服务器,日常维护便捷。单相浸没式液冷维护较为困难,需要通过专用机械吊臂,并且液体需要处理干净后进行维护。相变浸没式液冷的维护难度较大,但在实际应用中通过刀片式服务器设计,支持热插拔,可实现单个刀片独立下架维护,因此操作相对简便。?建设成本:冷板式液冷技术工艺成熟,不需改变现有服务器的形态,加工难度低,冷却介质采用乙二醇水溶液,成本较低。浸没单相式液冷技术整体部署成本较高,而浸没相变式液冷技术对系统密封性及控制要求高,设计成本偏高,综合成本最高。
1.2冷板式液冷构件繁多
冷板式液冷系统通常由多个组件和部件构成。冷板式液冷技术设计相对较为简单且更容易地适应各种设备和硬件配置,因此相对较早开始应用,产业链成熟度和技术稳定性方面优势相较于浸没式液冷更为明显,一套典型冷板式液冷系统的主要构成部分包含了冷板、热交换器、管路、泵、冷却液、控制系统等,越靠近热源的组成部分,技术和工艺难度越高。冷板式液冷系统中,液冷板属于服务器内部电子散热环节,定制化特征显著。冷板的设计和材料选择直接影响到散热效果和整个系统的性能,通常情况下服务器厂商会自己设计冷板并交付给液冷厂商生产制造,普遍呈现定制化特点。此外,快接头涉及密封和插拔技术,也具备定制化特征。从数量上来看,冷板与芯片通常可以维持在一比一对应关系,而快接头通常一个机柜具备进水口和出水口共两套(每套包含公母两个接头),因此叠加数量综合考虑,冷板和快接头在数据中心中的成本占比较高。CDU工艺难度较高,单机器价值量较冷板和接头更高。1.2.1冷板:可定制化的核心组件
冷板是冷板式液冷系统的核心组件之一,可根据下游要求进行定制设计。冷板通常由高导热性材料(如铜或铝)制成,以确保热量能够迅速传递到液冷剂,现阶段出于安全性和稳定性考虑,通常采用铜制冷板。冷板在外观上并非平面的一层“板状物”,而是更类似块状物体,液冷冷板包括进液接头、出液接头、上盖板与底板,底板是散热模块,除了设计各家会有不同以外,液冷冷板的外形、尺寸也可以要求定制。
冷板又可细分散热模块和固定模块,散热模块为核心组件。固定模块是扣压在散热模块上方的铜/铝块,与散热模块初步构成密闭的盒状形态,需要具备相当的扣合力和抗压性。从散热模块与固定模块的连接方式上,冷板可以分为两类:
?分体式液冷冷板,即冷板的散热模块与固定模块通过螺钉或其他方式连接,可根据需要进行拆卸和组装;
?一体式液冷冷板,则是冷板的散热模块与固定模块不可拆卸与组装。根据密封形式的不同,可以进一步分为密封圈组装式或焊接密封等。
冷板内部设计是影响散热效果的重要因素,定制化特性显著,不同厂商对冷板内部的设计方案各有不同。冷板内部流道通常包含几类构造,如沟槽、扣合翅片、铲齿、折叠翅片等,面对一些功耗较高的电子元件,流道还会被设计成更复杂的微通道结构,通过增加接触面积,进一步提高冷板的散热性能。
1.2.2CDU:冷却液“调度官”
CDU担任液冷系统中的“调度官”角色,具备调节和分配能力。CDU指的是冷量分配单元,是液冷系统的一个关键组件,主要作用是隔离一次侧与二次侧回路,并在其内部提供一次侧与二次侧的热交换能力,分发和调节冷却液以有效地冷却计算设备或其他热源:
?冷却液分发:CDU负责将冷却液分发到需要冷却的目标设备,例如服务器、计算机集群或其他高功率密度设备;
?温度调节:CDU可以根据需要调整冷却液的温度,确保其在达到目标设备时具有适当的温度,以最大限度地提高冷却效率;
?流量控制:CDU可以控制冷却液的流量,确保足够的冷却液能够流经设备,吸收热量,并将其带回冷源进行重新冷却;
?压力调节:CDU可以调节液冷系统中的压力,以确保液体在整个系统中保持稳定的流动,并避免因为过高或过低的压力而引起故障;
?监控和报警:CDU通常配备有传感器,用于监测液体温度、流量、压力等参数,在系统出现异常情况时,CDU会触发报警以及时采取措施防止潜在问题。
CDU在不同的应用场景中形态不同,主要分为机架式、机柜式和平台式。CDU主要由换热器/冷凝器、循环泵、过滤器、储液罐、传感器等组成,在实际应用中对CDU类型的选取通常由数据中心/服务器的具体架构、设备密度以及对冷却需求的特定要求决定。?机架式CDU:机架式CDU是设计成可安装在标准机架中的冷量分配单元,通常以机架单元(U)为单位进行尺寸规格,便于安装在数据中心的机架中。机架式CDU一般适用于小型数据中心,或需要在有限空间内进行液冷部署的场景,设计较为紧凑以更少占用机房空间。?机柜式CDU:机柜式CDU是专门设计为安装在整个机柜内部的冷量分配单元,相较机架式CDU,机柜式CDU更注重对整个机柜内设备的全面冷却,可以更直接地与机柜内的设备集成,提供更均匀和全面的冷却效果。机柜式CDU通常适用于需要在每个机柜中提供独立冷却的情况,在高功率密度和热散热不均匀的情况下通常采用机柜式CDU。?平台式CDU:平台式CDU通常被安装在冷通道或热通道的末端,被放置在机柜行之间,是为了提供对整个机柜行的冷却支持,而不是仅限于单个机柜。平台式CDU通常通过地板上的冷却水管网连接到冷源,适用于需要在大型数据中心中提供区域性或整体性冷却的场景。
数据中心的CDU最常用于一二次侧隔离,既可安装在机架内也可以外置。在机房液冷系统中,CDU将设施冷却系统(机房外散热侧,即二次侧)与机柜冷却系统(机房内散热侧,即一次侧)分开,从而避免将IT冷却组件暴露在设施冷却系统中,进一步提高整个散热系统的稳定性。CDU可以安装于机架内,将液体分配到单个机架内的设备,也可以安装在外部,呈现为一台较大的落地式整机形态,将液体分配到多个机架。1.2.其他部件:部分可定制,匹配度是关键
快接头(可定制):液冷快速接头通常是指液冷循环系统中各器件之间的连接件,比如用于连接Manifold与液冷冷板的进液接头与出液接头,能实现各器件之间的快速连接和断开且无泄漏,提高效率,减少排液注液带来的不必要的工作量,可以在带压状态下自由插拔,接口方式可以定制,一般分为手动插拔和盲插款。在二次侧流体回路中,快换接头是保证服务器具备在线插拔维护性能的关键部件,技术难度主要在于防泄漏。快换接头是公/母配置(插头/插座、插件/主体等)配对使用的,断开时,集成在快换接头内部的用于密封流体流动的自封阀芯会断开流体的连接,以保护周围设备不受影响,因此每次断开时冷却工质的泄漏量是设计快接头时的重点考量因素。Manifold(集水分歧管):Manifold作为液冷系统的集流器,承担将冷却液体引入机架并传递到机架外侧的关键任务,直接影响整个液冷系统的热管理,确保冷却液体顺畅流动,高效吸收和带走系统中产生的热量。Manifold有均流分配、耐腐蚀性强、强度高等特点,广泛应用于数据中心,根据使用需求,有单管和双排管之分,单管主要用于快插连接,双排管用于盲插连接,两管路位置精度高,属于超精密制造。管路:管路在液冷系统中扮演着连接各个组件的重要角色,负责将冷却液体从Manifold传输到快接头、电磁阀、单向阀以及液冷冷板等关键部件,管路的设计要求高度精确,以确保冷却液体的稳定流动,避免泄漏,保持整个系统的运行效率。电磁阀与单向阀:电磁阀和单向阀在流动控制方面发挥着关键作用,电磁阀通过开闭状态调节冷却液体的流量,实现对热量的精确控制,单向阀防止液体逆流,确保液体在设定的方向上流动,防止漏液,维护系统的稳定性和安全性。
温度传感器:温度传感器实时检测进出水的温度,通过监测温度差,实现对电磁阀门的精确控制,有助于调节进出水流量,确保冷却液体的温度和流量相匹配,提高系统的效率。控制系统:控制系统整合了各个组件,监测系统状态,自动调控冷却液体流量和温度,直接关系到整个液冷系统的自动化程度和稳定性,确保系统在不同工作负载下始终保持高效运行。
2.两大边际变化推动液冷地位和空间双抬升
2.1变化一:AIDC驱动液冷从“可选”变为“必选”
主要矛盾:有限的风冷冷却功耗,与显著提升的AI服务器功耗。液冷概念与技术提出已久,但实际应用中风冷依旧是最普及的冷却技术,其“不变”的本质是在传统CPU芯片发展速度下,风冷尚能覆盖服务器功耗,液冷是“可选”的优化项;边际变化主要发生在大模型兴起后的AI时代,并行计算网络下GPU+CPU等的异构架构成为主流,服务器功耗大幅提升,风冷难以满足温控需求,液冷设备成为“必选”:
?显著提升的AI服务器功耗:AI服务器通常采用异构架构,使用大量高功率的CPU、GPU芯片,整机功率随之大幅走高,如用于训练ChatGPT的英伟达AI服务器(NVIDIADGXAGB)包含8颗GPU(NVIDIAAGBTensorCoreGPU)和2颗CPU处理器(AMDRome);H服务器同样包含8颗GPU和2颗CPU。单芯片来看,NVIDIAASXM芯片单卡功耗W,8卡AI服务器单论GPU的热功耗就有.2kW;HPCIe5.0芯片单卡功耗更是高达W,假设满配8卡,单台H服务器仅内部GPU所需的功耗就达到5.6kW(且不论CPU、存储和额外的整机散热)。对比来看,传统通用服务器以HC为例,RG6服务器处理器最大功率为85W。从几百瓦的CPU服务器到几千瓦的GPU异构服务器,热功耗提升超数十倍。?有限的风冷冷却功耗:根据《冷绿色数据中心创新实践--冷板液冷系统设计参考书》,采用风冷技术通常可以解决12kW以内的机柜制冷,但随着服务器单位功耗增大,原先尺寸的普通服务器机柜可容纳的服务器功率往往超过15kW,相对于现有的风冷数据中心,这已经到了空气对流散热能力的天花板,以英伟达H服务器为例,单台服务器的系统功耗最高达10.2KW,风冷却难以承载更多的服务器散热需求,而液冷数据中心单机柜可支持0kW以上的散热能力,液冷方案从“可选”升级成“必选”。
实操痛点:AI智算中心,理论机柜密度与实际机柜密度差距较大,导致利用率低且PUE高。理论上按照计算,一台标准机柜的尺寸可以满配7台标准服务器,但实际上机柜服务器的密度取决于机柜可提供的最大冷却功耗,传统机柜安装AI服务器存在严重的机柜空缺:
?理论机柜密度:数据中心常用的标准机柜的高度通常为42U或45U(1U等于44.45mm),宽度通常为标准的19英寸,深度范围从mm到mm不等;假设常用标准机柜是19英寸*42U机柜,即宽48.2厘米*高.7厘米,以英伟达A服务器为例,高26.4厘米、宽48.2厘米、长(深度)89.7厘米,单从机柜尺寸角度出发,标准机柜最多可以放7个A服务器,单机柜最大功率可达到45.5KW。?实际机柜密度:当前数据中心单机柜功率以6kw、8kw为主,假设放入A服务器,仅GPU功耗就有.2KW,考虑到冗余,理论上8kw的机柜最多只能摆放两台A服务器,如果摆放H服务器,仅能容纳1台,机柜其余部分均处于空余状态,密度大幅下降,风墙使用效率极低且PUE较高。
2.2变化二:政策端推动和产业端需求形成合力
从单一政策驱动,到政策+需求双驱动,液冷的推广和应用在政策端和产业应用端形成合力。液冷技术由来已久,前期主要受到政策推动和数据中心PUE值(能效指标)等因素的驱动,PUE值成为了评估数据中心能效的关键标准,液冷系统相对于传统的空气冷却系统在能效方面具有明显的优势,更加绿色节能,因此前期拉动液冷落地的主导因素来自政策端。但伴随AIGC的进一步发展,大模型应用对算力需求不断攀升,摩尔定律下算力呈指数级增长,AI服务器和智算数据中心的热量功耗已经超过传统风冷散热的阙值,液冷成为实际应用中的最佳选项,产业自身的需求逐渐成为主导因素,液冷技术不仅仅是出于政策和能效考虑,更是源于数据中心自身对于更先进、高效散热方案的迫切需求,政策端与产业端的合力形成,液冷实际落地进展有望加速。2.2.1政策驱动:PUE管控日趋严格
数据中心耗电量庞大,PUE管控成为刚需,政策端对PUE值的限定越来越严格。IDC历来就是能耗大户,包含大量的IT设备、供电与制冷设备,属于高耗能产业,为保持数据中心的可持续发展,绿色低碳成为必选,PUE值成为数据中心重要生存指标之一,阙值不断缩小。年工信部发布《关于加强“十三五”信息通信业节能减排工作的指导意见》中指出,到0年,数据中心PUE达到1.4以下;年工信部、国管局和国家能源局发布《关于加强绿色数据中心建设的指导意见》中指出,到2年,PUE达到1.4以下,改造使电能使用效率值不高于1.8;1年工信部发布《新型数据中心三年行动计划(1-)》中指出,到1年底,新建数据中心PUE降低到1.5以下,到年底降低到1.以下,严寒和寒冷地区力争降低到1.25以下;同年国家发改委等部门发布《贯彻落实碳达峰碳中和目标要求推动数据中心和5G等新型基础设施绿色高质量发展实施方案》中指出,到5年,全国新建数据中心PUE降到1.以下,国家枢纽节点进一步降到1.25以下;2年工信部、发改委、财政部等六部门联合发布《工业能效提升行动计划》中指出,到5年,新建大型、超大型数据中心PUE优于1.;“东数西算”工程中,要求内蒙古、贵州、甘肃、宁夏4处枢纽设立的数据中心集群PUE控制在1.2以内;京津冀、长三角、粤港澳大湾区、成渝4处枢纽设立的数据中心集群PUE控制在1.25以内。
2.2.2产业驱动:运营商、设备商、互联网共振
(1)运营商:发布白皮书进一步明确液冷推进节奏
三大运营商共同发布白皮书,规划25年液冷渗透率达50%以上。年6月5日,在第1届中国国际信息通信展览会上,中国移动、中国电信、中国联通三家基础电信运营企业,邀请液冷产业链的相关代表企业,共同面向业界发布《电信运营商液冷技术白皮书》。白皮书提出三年发展愿景,三大运营商将于年开展技术验证;4年开展规模测试,新建数据中心项目10%规模试点应用液冷技术;5年开展规模应用,50%以上数据中心项目应用液冷技术。
三大运营商不断进行实践,助力液冷技术落地。中国移动积极开展液冷系统试点应用,-1年分别在河北、山东、江苏、浙江组织液冷试点,并在年于呼和浩特智算中心项目中启动液冷规模试点。中国电信在5GBBU站点及数据中心机房积极进行液冷试点应用,0年就启用首个试验点(5GBBU站点),上线2个液冷机柜,满负载率条件下PUE值约1.15;同时在高密度机房开展数据中心液冷试点,年在广州即开展冷板式液冷试点,PUE值约1.2,年计划在京津冀、安徽、广州分别开展多个液冷机柜项目,包含冷板式机柜和浸没式机柜。中国联通1年在德清云数据基地投产的冷板式液冷已稳定运行近两年,1年在在郑州开展5GBBU设备液冷喷淋测试,配置一套10kW液冷机柜,PUE值约为1.16。三大运营商积极探索实践液冷技术,加速推进液冷技术落地。
(2)设备商:新锐与传统服务器厂商纷纷布局液冷
主流IT设备厂商加大研发力度并加快液冷产品迭代速度。根据IDC数据显示,从厂商销售额角度来看,上半年在市场占比前三的液冷服务器厂商是浪潮信息、宁畅和超聚变,占据了七成左右的市场份额。?浪潮信息:在IPF生态合作伙伴大会提出“Allin液冷”,并于2年6月即发布全栈液冷产品,包括通用服务器NFM6,高密度服务器i24LM6,整机柜服务器ORSS,AI液冷服务器NFLA5、NFLM6等,NFLA5是业界首款液冷开放加速计算服务器,最高支持W,PUE最低可至1.1。?宁畅:新锐服务器厂商,已覆盖从冷板式液冷到浸没式液冷的多种形态,液冷技术已应用于通用、高密度计算、人工智能等多种类型服务器,以高密度计算服务器为例,从B5LP冷板式液冷到B0浸没式液冷,宁畅服务器产品计算性能和散热密度提升,整体PUE降至1.05。根据IDC数据,宁畅的液冷服务器(高密度计算)和液冷服务器(标准机)市占率分别达到79%和1.9%。?超聚变:全力投入液冷技术研究,在液冷服务器领域深耕10余年,推出FusionPoDforAI整机柜液冷服务器,可以进行高密智算部署,单机柜最大支持8×8GPU节点服务器,提供64个GPU;单机柜pPUE低至1.06(含液冷门);%原生液冷设计。?其他传统服务器厂商:中兴通讯积极布局液冷,不断投入研发并推出新品,于2年发布《中兴通讯液冷技术白皮书》推进液冷技术发展,于年11月世界互联网大会展出通讯冷板式液冷方案,方案覆盖冷源、CDU、机柜、服务器、管路、水处理和群控,可以实现液冷和风冷设备的统一控制管理;中科曙光、紫光股份、锐捷网络也均具备液冷布局,近期伴随算力推动进一步加速落地。
()互联网企业:加速落地液冷
互联网巨头早已积极布局液冷技术,AIGC发展有望拉动互联网企业液冷规模化布局加速落地,进一步提高液冷市场空间。阿里巴巴从年就开始大规模部署液冷技术试点,年建成首个互联网液冷数据中心,0年投产首个5A级绿色液冷数据中心(杭州云计算数据中心);百度在1年发布《天蝎4.0液冷整机柜开放标准》,积极布局冷板液冷方案;京东在1年即采用整机柜液冷技术,并规模投入“双11”机房中;伴随液冷技术的进一步成熟、国家PUE指标趋严、AIGC大模型发展对算力需求日益提高,互联网大厂液冷规落地进程有望加速。
2.液冷空间破百亿
液冷市场空间构成可以按照增量和存量分为两大类别,增量空间是由算力新需求带来的,AI大模型训练需要用到GPU为主的异构服务器,新增AI服务器需求旺盛且不断增长,由此带来的液冷需求直线上升;存量空间是传统通用算力出于进一步降低PUE诉求,而逐步提高液冷渗透率带来的,液冷市场空间可以从两类大方向分别进行预测,加总统计后5年市场空间有望超过亿元。
2..1增量市场:AI大模型带来增量空间
由AI大模型训练和推理带来的液冷市场空间增长迅速,根据我们的预测,在5年增量市场空间有望破百亿。预测逻辑主要是,先以AI服务器出货量为大前提,假设液冷渗透率,再细分以冷板式液冷和浸没式液冷的比例,假设出对应功耗的价格和服务器功率需求,根据我们的测算,AI服务器对应液冷的市场空间在5年有望超亿元。服务器核心假设:
?出货量:根据中商产业研究院的数据预测,2//4年中国AI服务器出货量分别为28.4/5.4/42.1万台,以此为基础预测AI服务器出货量。?功率:根据前文已知AI服务器功率较高,如英伟达A单台服务器的系统功耗最大可达到6.5KW,实际应用中服务器型号不同对应的功率有所差异,以此为假设AI服务器功耗,且假设伴随代际更新,芯片能力的提高,服务器功耗每年有所提升。液冷核心假设:
?渗透率:截至目前,我国已有部分数据中心的液冷渗透率达到50%以上,例如通讯龙头企业中兴通讯建设的全液冷数据中心项目中,液冷散热的比例已经达到了70%,龙华新型工业智算中心整体液冷应用占比超过50%,根据曙光数创判断,年液冷行业的市场渗透率仅为5%-8%,因此我们推断年AI服务器液冷整体渗透率远高于全行业。另外,据国家信息中心,未来80%的场景都将基于人工智能,所占据的算力资源将主要由智算中心承载,由前文可知,风冷难以满足AI服务器和智算数据中心的散热需求,所以随着智算中心建设加快,我们认为AI服务器液冷需求有望迎来爆发式增长。基于以上判断,我们预测-5年AI服务器的液冷渗透率分别为20%、50%、80%。?间接和直接液冷比例:根据IDC,年H1我国冷板式液冷服务器比例为90%左右,浸没式液冷渗透率为10%。浸没式液冷技术具有更好的散热能力和节能效果,但造价和成本均较间接液冷更高,因此我们预计浸没式液冷整体渗透率呈现缓慢提升状态,预计5年浸没式液冷比例上升至20%。?液冷价格:根据《基于价值工程的数据中心液冷与风冷比较分析》,目前浸没式液冷价格为元/kw;根据中国电子院数据,目前冷板式液冷价格为-0元,假设冷板式液冷价格为0元,浸没式液冷价格为0元,并假设每年下降5%(此处指同款液冷板、未考虑芯片制成升级后的液冷价格也会相应提升)。
---报告摘录结束更多内容请阅读报告原文---
报告合集专题一览X由定期整理更新
(特别说明:本文来源于公开资料,摘录内容仅供参考,不构成任何投资建议,如需使用请参阅报告原文。)
精选报告来源:报告派科技/电子/半导体/
人工智能
Ai产业
Ai芯片
智能家居
智能音箱
智能语音
智能家电
智能照明
智能马桶
智能终端
智能门锁
智能手机
可穿戴设备
半导体
芯片产业
第三代半导体
蓝牙
晶圆
功率半导体
5G
GA射频
IGBT
SICGA
SICGAN
分立器件
化合物
晶圆
封装封测
显示器
LED
OLED
LED封装
LED芯片
LED照明
柔性折叠屏
电子元器件
光电子
消费电子
电子FPC
电路板
集成电路
元宇宙
区块链
NFT数字藏品
虚拟货币
比特币
数字货币
资产管理
保险行业
保险科技
财产保险
转载请注明:http://www.abuoumao.com/hyfw/9167.html