AI服务器散热黑科技:让芯片“冷静”提速

发布于:2025-02-20 ⋅ 阅读:(27) ⋅ 点赞:(0)

AI 服务器为何需要散热黑科技

在人工智能飞速发展的当下,AI 服务器作为核心支撑,作用重大。从互联网智能推荐,到医疗疾病诊断辅助,从金融风险预测,到教育个性化学习,AI 服务器广泛应用,为各类复杂人工智能应用提供强大算力。

然而,AI 服务器在运行时面临着严峻的散热挑战。随着人工智能技术的不断发展,对 AI 服务器的计算能力要求越来越高,这使得服务器的功率密度急剧增加 。以 GPT-4 的训练为例,它需要大量的 GPU 芯片协同工作,而这些芯片在运行过程中会产生巨大的热量。据相关数据显示,一块英伟达 A100 GPU 功耗为 400 瓦,GPT-3 训练用到了 1024 块 A100 芯片,而 GPT-4 更攀升至 25000 块 ,如此庞大的芯片数量和高功耗,使得散热问题成为了 AI 服务器运行的关键难题。

传统散热方式难以满足 AI 服务器高散热需求,以风冷散热为例,靠风扇吹冷空气散热,随着 AI 服务器功率密度提升,其效率不足,还存在噪音大、散热不均等问题。此时,散热黑科技至关重要,成为保障 AI 服务器稳定运行与提升性能的关键。

风冷技术的局限

在了解 AI 服务器的散热黑科技前,先看传统散热方式及其困境。风冷是常见散热方式,广泛用于电子设备。其系统由散热器、风扇、散热风道和温度传感器等组成。设备运行产热传导到散热器,风扇引入外界空气,空气流经散热器吸热后排出,实现设备冷却。

AI 服务器发展早期,风冷因结构简单、成本低、维护方便,能满足一定散热需求。但随着 AI 技术发展,AI 服务器功率密度剧增,风冷局限性凸显。如主流 AI 服务器内 GPU 芯片多,单颗芯片功耗攀升,像英伟达 H100 芯片热设计功耗达 700W,高功率密度产热多,风冷散热能力有限。

风冷散热能耗也高,风扇高速运转耗电,传统风冷散热数据中心中,冷却系统电力能耗占比达 40%,仅次于 IT 设备能耗,且风机转速超 4000 转时,转速增加对散热改善不明显,还会增能耗和噪音。

此外,风冷散热易在服务器机架和内部产生局部热点。因缺乏合适空气流量控制系统,空气流动不均,导致部分区域热量难散发,形成局部高温,影响服务器硬件性能,加速硬件老化损坏,降低可靠性和稳定性。

对 AI 服务器性能的制约

过热对 AI 服务器性能有多方面制约。硬件性能会下降,芯片过热自动降频,像深度学习训练时 GPU 芯片过热降频,会使计算速度大降,拖慢工作效率和项目进度;还会影响硬件寿命,高温加速芯片内电子元件老化,内存、硬盘等硬件性能和寿命也受影响,有数据读写错误、数据丢失风险;甚至可能引发硬件故障导致数据丢失,给依赖 AI 服务器运营关键业务的企业造成巨大经济损失和客户信任危机。

液冷技术:散热新宠

面对 AI 服务器散热挑战,液冷技术成为散热新宠。它用液体替代空气作冷媒为发热部件换热散热。与传统风冷比,液冷有散热效率高、控温精准、温度均匀、噪音低、兼容性强等优势。目前主要有冷板式、浸没式、喷淋式三种液冷类型,各有独特工作原理和应用场景。

冷板式液冷:兼容性与维护性的优势

冷板式液冷是常见液冷技术,工作原理是将液冷冷板固定在 CPU、GPU 等主要发热器件上,液体流经冷板带走热量,冷板由铜、铝等高导热金属构成,冷却液在封闭管路循环,将热量散发到外部环境。

冷板式液冷在兼容性和维护性上优势明显。兼容性方面,改造成本低,无需大规模改造机房及机柜,适用服务器部件与风冷一致,运维模式、机房承重也和风冷场景基本一致,能快速应用于 AI 服务器散热。维护性方面,易开展维护设计,可在线维护,冷却液不与设备直接接触,降低液体泄漏损坏设备风险,风机转速降低,噪声约 70dB,比传统风冷噪音明显降低。

在标准高密度数据中心,冷板式液冷应用广泛,解决了服务器散热问题,提高运行效率和可靠性。2021 - 2022 年,冷板式液冷数据中心市场占液冷数据中心市场比例超 90%,预计 2027 年占比约 89% ,未来五年仍将是行业主流。

浸没式液冷:超高密度数据中心的首选

浸没式液冷将服务器发热元器件浸没在冷却液中,借冷却液对流或相变带走热量,按冷却介质是否相变分为单相和双相。单相常用高沸点液体,如碳氢化合物、硅基油,吸热后保持液态,无需气密封装。双相冷却液受热会相变,能利用相变潜热高效散热,常用氟化液。

浸没式液冷散热效率高,能满足超高密度数据中心需求,像英伟达 DGX A100 服务器,传统风冷难散热,浸没式液冷成 “必选”,可全方位散热,提升服务器性能和可靠性。

不过,它也有潜在风险,冷却液质量不佳或泄漏会损坏电子元件,维护维修较复杂。但随着技术发展,问题正逐步解决,如研发优质冷却液,优化系统设计提升可维护性。

喷淋式液冷:特定场景下的应用前景

喷淋式液冷是将冷却液通过喷淋的方式淋在服务器的散热元件上,带走服务器产生的热量 。它的原理类似于人工降雨,在发热元件上方储液、开孔,通过动力设备对发热元件全体喷淋,有些沸点低的液体甚至会 “自我牺牲”(蒸发)带走热量,没有被蒸发的液体则顺流回到外部冷却系统降温后准备再次施招 。

喷淋式液冷在特定场景下具有一定的应用前景。它能够实现对服务器所有元件的全面散热,散热效果明显提升,具有 “AOE 伤害(范围散热)” 的特点,所有元件都能 “雨露均沾” 。在一些对散热要求较高且空间相对较大的场景中,喷淋式液冷可以发挥其优势,有效地降低服务器的温度。然而,喷淋式液冷也面临着一些挑战。目前,喷淋式液冷技术的成本相对较高,需要投入较大的资金用于设备购置和维护。而且,要实现均匀喷淋,对设备的设计和调试要求较高,需要考验各家的技术功力 。此外,喷淋式液冷还可能会出现冷却液飘溢问题,影响机房及设备环境,需要采取相应的措施加以解决。

数据中心的节能与性能提升

散热黑科技对数据中心节能与性能提升效果显著。该图是我们自主研发的服务器,就采用了液冷技术,搭载了英伟达4090 24G 显卡和一颗英特尔至强 8352V  CPU,以及定制的全塔式液冷机箱,能耗上,传统风冷散热的数据中心冷却系统电力能耗占比达 40%,采用这款液冷服务器的数据中心冷却系统能耗大幅降低,价格也不贵,实现了绿色节能。算力密度上,液冷技术使数据中心能容纳更高功率密度服务器,超算中心采用液冷技术后,单机柜功率密度从 20KW 提升至 40KW 以上,满足更多复杂计算任务需求,为相关领域发展提供强大算力支持。经济效益上,液冷技术等初期投入高,但长期运营成本低,可减少冷却能耗和服务器硬件损坏率,降低维修成本,采用液冷技术的数据中心在服务器使用寿命周期内可节省约 30% 运营成本 ,提升企业竞争力。


网站公告

今日签到

点亮在社区的每一天
去签到