/ 币百科

AWS 为 Nvidia AI 芯片打造定制冷却技术

发布时间:2025-07-10 13:00:51
欧意最新版本

欧意最新版本

欧意最新版本app是一款安全、稳定、可靠的数字货币交易平台。

APP下载  官网地址
本站报道:

亚马逊的云计算部门亚马逊网络服务 (AWS) 设计了一套定制的冷却系统,以控制 Nvidia 强大的新型人工智能 (AI) 芯片的温度。

周三, AWS宣布它开发了行内热交换器 (IRHX),这是专为配备高性能 Nvidia GPU 的数据中心设计的定制液体冷却系统。

这类芯片用于训练大型人工智能模型,例如如今非常流行的聊天机器人或图像生成器,是世界上最耗电的硬件之一。它们在人工智能工作负载中的日益普及,给传统的冷却解决方案,尤其是空气冷却带来了压力。

亚马逊没有将可扩展的冷却解决方案留给市场,而是发挥创造力,解决了这个问题。IRHX 适用于数据中心改造和新建应用,无需进行大规模重新设计。它通过在服务器排附近循环冷却液来实现这一点,从而为紧密排列的 GPU 散热。

AWS 计算和机器学习服务副总裁 Dave Brown解释标准冷却解决方案无法满足他们的需求。他说,这些方案会浪费太多数据中心占地面积并且用水效率低下。虽然此类系统可能适用于小型供应商的几个机柜,但他指出,这些系统缺乏支持 AWS 规模所需的液体冷却能力。

AWS 推出搭载 Nvidia Blackwell GPU 的 P6e 实例

AWS 也刚刚介绍P6e 实例利用 Nvidia 的 GB200 NVL72,这是一个密集的超级计算平台,包含 72Blackwell GPU将它们整合到一个机架中。这些设计旨在应对大型 AI 模型和生成 AI 任务的计算密集型特性。

迄今为止,只有微软和 CoreWeave 等公司提供这种新一代 GPU 集群。现在,AWS 客户可以访问云端最新、最先进的定制 GPU 机器学习训练基础设施,该基础设施由最新一代水冷式 NVIDIA A100 Tensor Core GPU 提供支持。

IRHX 将这些集群保持在安全的温度,从而提供最佳性能,避免过热。通过将 IRHX 直接融入其数据中心设计,AWS 无需等待改造整个结构以进行液体冷却,也无需支付昂贵的建设费用。

布朗在 P6e 发布会上指出,通过将 GB200 NVL72 系统与亚马逊的 IRHX 相结合,客户可以大规模利用无与伦比的计算能力。它还将使开发人员、研究人员和公司能够比过去更快、更高效地训练更大规模的 AI 模型。

亚马逊巩固其在云基础设施领域的领先地位

在正在建设的数据中心中,亚马逊力推内部部署冷却技术,这进一步揭示了亚马逊为拥有更多基础设施而采取的更广泛举措。近年来,AWS 投入巨资开发芯片、存储系统和网络设备为其云服务提供支持。

这些进步使亚马逊能够进一步减少对第三方供应商的依赖,并在运营绩效和成本之间取得平衡。

这一策略已初见成效。2025年第一季度,AWS 创下了自成立以来的最高营业利润率,如今已成为亚马逊整体盈利的主要引擎。IRHX 的推出拓展了 AWS 在云行业的创新领导力和基础设施布局。

其他科技巨头也在采取类似举措。例如,微软就打造了自己的AI芯片和定制冷却系统Sidekicks。谷歌和Meta也在研究构建针对AI工作负载的硬件和系统的方法。

然而,亚马逊拥有一个关键优势——其遍布全球的数据中心,以及多年来大规模构建和部署定制硬件的经验。IRHX 可以通过精简其 AI 就绪型基础设施,使其更加高效、可持续和可扩展,从而进一步增强其优势。

KEY 差异线帮助加密货币品牌快速突破并占据头条新闻

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com