用心打造
VPS知识分享网站

IBM推出新芯片,旨在推动AI应用

IBM 在年度 Hot Chips 大会上发布了其 Telum II 处理器和 Spyre 加速器芯片,并承诺当这些芯片于 2025 年应用于 Z 和 LinuxOne 时,将为合作伙伴和解决方案提供商提供新的工具,让人工智能用例成为现实。

这家总部位于纽约州阿蒙克的科技巨头将这些芯片定位为帮助用户采用传统 AI 模型、新兴的大型语言模型 (LLM) 以及使用将多个机器学习 (ML) 和深度学习 AI 模型与编码器 LLM 相结合的集成 AI 方法。会议将于周二在加利福尼亚州斯坦福举行。

IBM Z 和 LinuxOne 产品管理副总裁 Tina Tarquinio 在接受采访时表示:“将这种 AI 功能带入这种企业环境 —— 这实际上只有 IBM 才能做到。”

IBM推出新芯片,旨在推动AI应用

新的 IBM 芯片

总部位于加州曼哈顿海滩的解决方案提供商网络解决方案提供商首席执行官菲尔沃克 (Phil Walker) 在接受采访时表示,他希望扩大其 IBM 业务并利用该供应商的 AI 产品组合。

Walker 表示:“WatsonX 将成为商业建议和推荐的关键。”他相信 IBM 将成为“中端市场业务增长的关键推动者”。

Tarquinio 告诉我们,IBM 继续看到大型机因其在可持续性、网络弹性以及 AI 方面的能力而受到强烈需求。她表示,大型机已帮助客户满足各种数据主权法规,例如欧盟的《数字运营弹性法案》(DORA)和《通用数据保护条例》(GDPR)。

“我们现有的客户正在更多地利用该平台并获得更大的容量,这是令人欣喜的事情,”她说道。她补充道:“我们的合作伙伴越能理解我们带来的东西,并开始与他们的最终客户讨论用例”,就越好。

IBM 的 Telum II 处理器

Telum II 处理器拥有八个高性能内核,运行速度为 5.5 千兆赫 (GHz),每个内核有 36 兆字节 (MB) 二级缓存。据 IBM 称,片上缓存容量总计为 360MB。

IBM 称,三星代工厂负责生产该处理器和 Spyre 加速器。Telum II 的每个处理器抽屉的虚拟四级缓存为 2.88 GB,与上一代处理器相比,其容量有望增加 40%。与上一代相比,Telum II 的每个芯片的计算能力也有望增加四倍。

Telum II 芯片集成了输入/输出 (I/O) 加速数据处理单元,旨在通过提高 50% 的 I/O 密度来提高数据处理能力。

IBM 表示,DPU 旨在简化系统操作并提高关键组件性能。

IBM 研究员兼系统开发首席技术官 Christian Jacobi 在接受采访时表示,欺诈检测、保险索赔处理以及代码现代化和优化是新芯片技术和 LLM 的一些常见用例。

Jacobi 表示,IBM 客户可能需要处理数百万行代码。IBM 正在开发更具体的 AI 模型(以及通用模型),这些模型应该会吸引依赖 COBOL 的 IBM 客户。

“每个人都看到了人工智能的影响,”他说。“每个人都知道,‘人工智能正在颠覆我的行业,如果我不涉足这个领域,我就会被颠覆。’”

IBM 的 Spyre 加速器

Spyre 加速器(目前处于技术预览阶段)拥有高达一兆字节(TB)的内存,可在常规 I/O 抽屉的八张卡上工作。

IBM 将 Spyre 作为 Telum II 的附加补充,用于扩展架构并支持集成 AI 方法。

Jacobi 表示,加速器可以帮助提高准确性。当 Telum II 模型“具有一定程度的不确定性(例如,我只有 80% 的把握这不是欺诈行为)时,您会将交易发送到 Spyre 加速器,在那里您可以运行更大的模型,从而提高准确性。”

“你可以从小型模型的速度和能源效率中获益。然后……你可以使用更大的模型来验证这一点,”他说。

Spyre 配有一个 75 瓦的外围组件互连 Express (PCIe) 适配器。该加速器应支持整个主机的 AI 模型工作负载,同时每张卡的功耗不超过 75 瓦。据 IBM 称,每个芯片都有 32 个计算核心,支持 int4、int8、fp8 和 fp16 数据类型。

赞(0)
未经允许不得转载;国外VPS测评网 » IBM推出新芯片,旨在推动AI应用
分享到