用心打造
VPS知识分享网站

HPE的Neil MacDonald:在公共云中运行AI将“压垮”IT预算

惠普企业执行副总裁 Neil MacDonald 表示,HPE 人工智能私有云相较于公共云具有巨大的 GenAI 优势,他宣称这将“粉碎”企业的 IT 预算。

HPE 计算、HPC(高性能计算)和 AI 总经理 MacDonald 表示:“HPE 人工智能私有云的目标客户是那些希望拥抱生成式人工智能的企业客户,他们认识到在公共云中大规模运行人工智能工作负载将严重压垮他们的 IT 预算。”

HPE的Neil MacDonald:在公共云中运行AI将“压垮”IT预算

HPE 计算、HPC(高性能计算)和 AI 总经理 MacDonald 在 HPE Discover 前的新闻发布会上表示:“这款产品(HPE Private Cloud for AI)的目标客户是那些希望拥抱生成式 AI 的企业客户,他们认识到在公共云中大规模运行 AI 工作负载将严重压缩他们的 IT 预算。 ”

MacDonald 表示:“人工智能是我们这一代数据和计算最密集的工作负载,而对这些数据的管理、围绕它的治理以及对这些数据和知识产权的保护,使得许多企业想要拥抱生成式人工智能,但却希望以私有云模式来实现。”

Nvidia 企业计算副总裁 Manuvir Das 出席了 HPE 关于全新 Nvidia AI Computing By HPE 产品组合的新闻发布会,他表示,他也看到了私有云为客户带来的成本优势。

他说:“这是一个古老的争论,如果你有足够的资金来建立自己的基础设施,那么你就可以获得比依赖云服务更优越的总体拥有成本。”

此外,Das 表示,对于希望将私人数据保留在本地的客户来说,这样做也有好处。“人工智能工作负载特别有趣,因为它完全由数据驱动,”他说。“如果你考虑一家企业公司,你实际上访问的是公司的私人数据,这些数据实际上代表了公司的秘密武器,即公司的知识产权。所以问题是,你是愿意将所有这些数据发送到云端,还是愿意将它们全部控制在自己的手中?”

最后,Das 表示,将数据从本地迁移到公有云存在延迟问题。“如果您拥有 PB 级的企业数据,现在要从中提取见解,您想将数据迁移到计算中吗?还是想将计算移动到数据所在的位置?所以我认为这些就是私有解决方案非常理想的原因。当然,您知道这两种选择都存在,每个客户都会自己决定他们更喜欢哪种选择。”

麦克唐纳还对其他一些问题进行了评估,包括为什么 HPE 在 Nvidia AI Computing By HPE 产品组合上全力与 Nvidia 合作,而不是与 AMD 合作,以及为什么 HPE 在液体冷却方面比竞争对手更具优势。

以下是新闻发布会上与麦克唐纳问答环节的摘录。

为什么 HPE 决定全力与 Nvidia 合作,而不是与 AMD 合作?

如果你考虑企业 AI 的成功,那么生成式 AI 不仅依赖于加速器芯片,还依赖于结构、系统设计、模型、软件工具以及运行时对这些模型的优化。因此,我们很高兴能够与 Nvidia 紧密合作,利用强大的功能,让我们的企业客户能够在企业 [AI] 之旅中更快地前进。

值得注意的是,HPE 私有云 AI 并不是一种参考架构,它不会将负担转嫁给客户,让他们通过拼凑各个部分(无论这些部分是 GPU、软件还是不同的连接)来组装自己的 AI 基础设施。

HPE 和 Nvidia 为客户完成了许多艰苦的工作,例如共同开发只需三次点击即可启动并运行的交钥匙 AI 私有云。这远远超出了加速器的问题。

Nvidia AI Computing By HPE 的目标客户是谁?

因此,该项目的目标客户是那些寻求拥抱生成式人工智能并认识到在公共云中大规模运行人工智能工作负载将压垮其 IT 预算的企业客户。

人工智能是我们这一代人数据和计算最密集的工作负载,而对数据的管理、围绕数据的治理以及对数据和知识产权的保护,使得许多企业想要拥抱生成人工智能,但却选择在私有云模式下进行。

因此,HPE Private Cloud AI 的目标客户是世界各地的那些正在努力了解如何在运营中获得生成式 AI 的生产力优势,并希望以更高的效率和更好的控制在本地进行这一操作的企业。

HPE Private Cloud For AI 是否与 HPE GreenLake for LLMs 公共云集成?

在 HPE,我们目前通过 GPU 即服务为少数客户提供支持,该服务支持大型语言模型工作和其他 AI 工作负载。这涵盖了我们通过云向客户提供的数千个 GPU。目前,这是一项面向部分试点客户的服务。我们正在努力完善该服务,并将在今年晚些时候分享更多详细信息。

所有 Nvidia AI Computing By HPE 产品组合机架式服务器是否都采用液体冷却?

还没有。加速器硅和 CPU 硅的能量和热强度的增长仍在继续加速。因此,在我们的产品组合和服务器中,我们目前提供各种系统,包括传统风冷、70% PLC 系统和 100% PLC 系统。随着我们不断前进,我们将继续围绕液体冷却技术不断发展。

但随着这些系统加速器越来越多,因此在散热和能源方面面临的挑战也越来越大,部署部分直接液冷或在性能最高的系统中采用 100% 直接液冷变得越来越普遍。因此,在当今的产品组合中,我们拥有所有这些,随着我们继续与 Nvidia 合作开发未来系统和未来硅片,您将看到直接液冷的使用越来越多。

这是直接对芯片进行液体冷却,而不是后门热交换器吗?此外,这是单相还是两相冷却?您是否希望采用浸没式[冷却]?

所以你提到了最左边的 [幻灯片] 上的后门热交换器技术。还有先进的系统,用于在风冷系统周围再循环空气,并利用供水作为热交换器,而无需不同的服务器技术。这也在幻灯片的左侧 [手边]。

幻灯片中间是经典的直接液体冷却,液体将系统中的热量带走,然后流向外部 CDU 作为系统中的交换点,然后在右侧,你可以看到同样的技术,但规模更大,100% DLC [直接液体冷却],完全不依赖空气冷却。因此,我们今天在批量运送给世界各地客户的产品中都采用了这些技术,并且我们在整个领域拥有数十年的直接液体冷却经验。

我们继续在冷却领域进行创新。这包括所有形式的先进冷却技术,我们将继续评估这些技术并将其纳入产品组合。我们非常熟悉并知道浸没式底座技术(单底座和双底座)可以做什么和不能做什么,而目前该范围内设计点的最佳解决方案仍然是您面前看到的解决方案。

您现在提供的直接液体冷却是单相的吗?

我们继续提供过去一直提供的单相直接液体冷却。

讨论为什么液体直接冷却对于 GenAI 系统如此重要,特别是对于 Nvidia AI Computing By HPE 产品组合而言。

本质上,当您处理 100% 直接液体冷却时,您会使用液体提取所有热量,并且您会非常非常详细地设计系统,以便通过将液体拉过系统和所有散热点来做到这一点。

因此,这是我们大规模开展的工作,为已交付的世界上两个百亿亿次级系统奠定了基础。同样的技术在我们更广泛的产品组合中也越来越重要。今天,我们已经部署了系统,利用我们的服务器来处理 AI 工作负载。利用您眼前看到的所有冷却方式,包括 100% 直接液体冷却……是 HPE 的一项非常强大的功能。

直接液体冷却不仅仅是设计一台服务器,更是设计一个整个系统,包括与所有循环、CPU、控制系统等的集成。

赞(0)
未经允许不得转载;国外VPS测评网 » HPE的Neil MacDonald:在公共云中运行AI将“压垮”IT预算
分享到