一家芯片公司,猛追英伟达

文章来源:半导体行业观察
来源:内容编译自nextplatform。

当前的 AI 训练和一些 AI 推理集群有两个网络。


后端网络将计算引擎组(通常是 GPU 加速器,通常是 Nvidia 的加速器)相互连接,以便它们可以共享工作和数据。前端网络将计算引擎的 CPU 主机相互连接、连接到存储以及连接到外部世界。
InfiniBand 已逐渐成为后端网络的主导,而以太网则倾向于用于前端网络。Arista Networks 和 Cisco Systems 等公司也希望在升级前端网络的同时,在后端占有一席之地。
思科在其最近的财务报告中表示,其 Silicon One ASIC 在后端 AI 集群网络试验中得到了一定程度的应用,但它也看到企业在准备部署 AI 训练和推理系统时升级其系统和前端网络。
Arista 现在在其客户中看到了类似但略有不同的模式,因为它正在等待 2025 年 AI 网络的以太网热潮。过去两年来,Arista 一直在重新调整其产品线,以迎接这一热潮,并且像思科一样,它是超级以太网联盟的创始冠军,该联盟的明确目标是让以太网取代AI集群中的InfiniBand——这或许是一种意想不到的副作用,在传统的HPC模拟和建模以及数据分析和存储集群中也是如此。

参考链接
https://www.nextplatform.com/2024/08/21/arista-banks-on-the-ai-network-double-whammy/

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

作者

ByteAILab

发布于

2024-08-25

更新于

2025-03-21

许可协议