攻略资讯

博通推出新芯片,瞄准英伟达,AI 之战愈演愈烈

2025-07-16 02:00:36来源:发米下载 作者:zhoucl

本站报道:

博通芯片部门周二推出了一款新的网络处理器,旨在增强需要数百个计算单元紧密协调的人工智能工作负载。

这一声明标志着博通与 AI 芯片制造领头羊英伟达的竞争中又一次爆发。这款最新的博通设备被称为战斧超级,充当交通控制器,在单个服务器机架内的数十甚至数百个硅芯片之间传送大量数据。

Tomahawk Ultra直接挑战Nvidia

AI 训练和推理依赖于“扩展”计算,即将芯片紧密聚集在一起,以极快的速度共享数据。到目前为止,Nvidia 的 NVLink 交换机在该领域占据主导地位,但博通声称其新产品可以在单个网络中连接多达四倍的处理器数量。

Ultra 并不依赖专有互连,而是利用以太网的涡轮增压版本,以实现低延迟和高吞吐量。拉姆·维拉加博通高级副总裁兼核心交换事业部总经理告诉记者,这款芯片可以管理比 Nvidia 竞争对手产品多得多的单元之间的通信,同时使用广泛支持的协议。

“Tomahawk Ultra 是创新的证明,凝聚了数百名工程师多年的努力,他们重新构想了以太网交换机的各个方面。”

维拉加。

Velaga 补充道:“这凸显了博通致力于投资推进以太网以实现高性能网络和 AI 扩展的承诺。”

博通已经向谷歌等客户提供芯片制造服务,帮助这家搜索巨头组装自己的人工智能加速器,作为Nvidia GPU秒。

随着 Tomahawk Ultra 的上市,该公司希望通过为数据中心架构师提供能够以相似或更快的速度扩展到更大集群的交换机,进一步削弱 Nvidia 的主导地位。

Broadcom 工程师花了大约三年时间开发

这些处理器将由台湾半导体制造股份有限公司采用其5纳米工艺制造,该工艺也是全球许多最快芯片背后的先进工艺。Velaga指出,博通的工程团队花了大约三年时间进行开发,最初瞄准的是高性能计算市场,后来转向蓬勃发展的生成式人工智能领域。

首席半导体分析师 Kunjan Sobhani 表示:“AI 和 HPC 工作负载正在融合到紧密耦合的加速器集群中,这些集群需要超级计算机级的延迟,这对于推理、可靠性和网络内智能至关重要。”彭博行业研究.

“证明开放标准以太网现在可以提供亚微秒交换、无损传输和片上集合,标志着朝着满足人工智能扩展堆栈的需求迈出了关键一步,预计几年内将达到数十亿。”

索巴尼。

在传统的横向扩展设置中,服务器分布在多个机架上,并通过标准网络连接,这会增加延迟。相比之下,纵向扩展将计算单元限制在一个狭窄的物理空间内,通常是一个机架,因此比特的往返时间以微秒为单位。这种速度在训练大规模神经网络或运行实时推理时至关重要。

随着人工智能模型规模不断扩大,设计能够处理 EB 级参数、同时保持成本效益和能效的基础设施的竞争也愈演愈烈。通过采用以太网这一易于理解的开放标准并不断突破其性能极限,博通希望为数据中心运营商提供一条更便捷的途径来扩展其人工智能农场,而无需被单一供应商的生态系统所束缚。

随着Tomahawk Ultra现已交付客户,全球AI引擎供应商的竞争正进入一个更加激烈的新阶段。在这个阶段,开放性和规模性可能与芯片本身的性能一样,决定着最终的胜负。这也使博通走上了成为AI行业一股不可忽视的力量的道路。

这 公司据报道,该交易由台积电提出,并有望在第一季度与台积电、Nvidia 和 AMD 共同成为持有并运营英特尔工厂的主要公司之一。

KEY 差异线:加密货币项目用来获得媒体报道的秘密工具

最新资讯

精品游戏