CoreWeave推出NVIDIA GB200 Grace Blackwell系统规模化服务

初始客户包括IBM、Mistral AI和Cohere

CoreWeave,AI超级云服务商™,今日宣布Cohere、IBM和Mistral AI成为首批获得NVIDIA GB200 NVL72机架级系统和CoreWeave全栈云服务的客户——这一组合旨在推动AI模型的开发与部署。图片{ width=60% }


全球的AI创新者们现在可以访问专为推理和自我主张(agentic)AI设计的先进网络和NVIDIA Grace Blackwell超级芯片,这彰显了CoreWeave始终在先进AI云解决方案市场中的先行者角色。

“CoreWeave的构建目标是更快——我们一次又一次地证明了这一点,成为第一个在规模上实现最先进系统的企业,”CoreWeave联合创始人兼首席执行官Michael Intrator表示。“今天标志着我们的工程能力和响应速度的又一次证明,以及我们对推动下一代AI的始终不渝的关注。我们非常高兴看到有远见的公司在我们的平台上取得新的突破。通过提供最先进的计算资源,CoreWeave使企业和AI实验室客户能够更快地进行创新和部署曾经遥不可及的AI解决方案。”

“全球的企业和组织正在竞相将推理模型转变为将改变人们工作和生活方式的自我主张AI应用,”NVIDIA超大规模及高性能计算部副总裁Ian Buck表示。“CoreWeave快速部署NVIDIA GB200系统,为实现AI工厂的现实提供了AI基础设施和软件。”

CoreWeave提供先进的AI云解决方案,同时优化效率并突破性能记录。该公司在最近的MLPerf v5.0结果中,以NVIDIA GB200 Grace Blackwell超级芯片实现了AI推理的新行业记录。MLPerf推理是用于衡量机器学习在现实部署场景中性能的行业标准套件。

去年,该公司率先提供了NVIDIA H100和NVIDIA H200 GPU,也是首批展示NVIDIA GB200 NVL72系统的企业之一。

CoreWeave的云服务组合经过优化,适用于NVIDIA GB200 NVL72,提供性能和可靠性,包括CoreWeave Kubernetes服务、基于Kubernetes的Slurm(SUNK)、CoreWeave任务控制等。CoreWeave的NVIDIA Blackwell加速实例可扩展至高达110,000个Blackwell GPU,并配备NVIDIA Quantum-2 InfiniBand网络。

除了IBM、Mistral AI和Cohere外,CoreWeave近期还与ChatGPT的创建者OpenAI签署了为期多年的合同。


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

CoreWeave推出NVIDIA GB200 Grace Blackwell系统规模化服务

https://www.gptnb.com/2025/04/21/2025-04-20-auto3-v98an6/

作者

ByteAILab

发布于

2025-04-21

更新于

2025-04-21

许可协议