(资料图)

编程客栈() 8月11日消息:不到一年时间,生成式人工智能已经成为企业计算的主导影响力,因此处理器创新也需要快速推进。英伟达在宣布其新的 GH200 超级芯片(DGX GH200 超级计算系统的基础)不到三个月后,已经对 GH200 进行了「提升」。

英伟达联合创始人、总裁兼首席执行官黄仁勋在本周 SIGGRAPH 2023 上发布了该芯片的「下一代」版本,具备更强大的内存功js能。

黄仁勋在演讲中说:「经过 12 年来对人工智能的研究和开发,一个巨大的事情发生了:生成式人工智能时代来临了,这是 AI 领域的 iPhone 时刻。现编程客栈在我们可以在很多不同应用中享受人工智能技术。革命性的 Transformer 模型使我们能够从大量数据中学习跨越广阔空间和时间范围内找到模式和关系,并学习几乎任何有结构物体... 我们可以生成几乎任何有结构物体,并用自然语言指导它。」

他补充道:「数十亿美元正在投资于追求基于生成式人工智能想法的各行各业公司。」许多由越来越大的 AI 模型推动的发展,将需要更高的内存性能。

尽管英伟达在今年 5 月的 Computex 上宣布并已投产 GH200 Grace Hopper 超级芯片具备 HBM3 内存处理器,但最新版本预计将于 2024 年第二季度开始生产,并配备更快速的 HBM3e 处理器。黄仁勋在 SIGGRAPH 的主题演讲中表示:「我们将使用全球最快速度的内存——HBM3e 来提升这款处理器。」

HBM3e(其中「e」代表「进化」)是基于多家公司正在推进的 HBM3 Gen 2 技术而开发出来,据信未来几年将被广泛采用以满足不断增长的 AI 模型对内存需求。事实上,在英伟达发布此消息仅两周后,美光科技就宣布了一项关于 HBM3 Gen 2 内存更新方面的消息。当时英伟达负责超大规模和高性能计算部门副总裁 Ian Buck 也发表了评论:「我们与美光有着长期合作历史,在各种产品上都进行过密切合作,并且很愿意与他们共同推动 HBM3 Gen2 以加速人工智能创新。」

当被问及英伟达是否直接与美光合作使得下一代 GH200 搭载 HBM3e 时,该公司发言人通过电子邮件回答说:「我们与领先的内编程客栈存供应商密切合作。我们今天不会透露具体的供应商。」

黄仁勋表示,HBM3e 内存比当前的 HBM3 快 50%,提供总共 10TB/s 的组合带宽,使新款 GH200 平台配备 282GB HBM3e 内存能够运行比之前版本大 3.5 倍的模型,并且通过更快速度的三倍内存带宽提高性能。

GH200 还可以通过 NVIDIA NVLink 与其他 Superchijsp 连接在一起,以部署用于生成式人工智能的巨型模型。根据公司声明,在双配置下,这种高速、协同技术使 GPU 完全访问 CPU 内存,提供 1.2TB 快速内存组合。新版本与 5 月份在 Computex 上发布的NVIDIA MGX 服务器规范完全兼容,这意味着制造商可以轻松地将其添加到许多不同的服务器版本中。

推荐内容