AMD Instinct MI300X加速器在OCI上可供要求严苛的AI应用程序使用
Customers including Fireworks AI are powering their AI inference and training workloads with new OCI Compute instances
OCI Supercluster leads among cloud providers with support for up to 16,384 AMD Instinct MI300X GPUs in a single ultrafast network fabric
AMD(NASDAQ:AMD)今日宣布,Oracle Cloud Infrastructure(OCI)选择了搭载 ROCm™ 开放软件的 AMD Instinct™ MI300X 加速器,用于推动其最新的 OCI Compute 超级集群实例,名为 BM.GPU.MI300X.8。{ width=60% }
针对可能包含数千亿参数的AI模型,搭载 AMD MI300X 的 OCI Supercluster 支持在单个集群中最多达到 16,384 个 GPU,通过利用 OCI 上其他加速器所使用的相同超快速网络布线技术。OCI 裸金属实例旨在运行苛刻的 AI 工作负载,包括需要高吞吐量、带有领先的内存容量和带宽的大型语言模型(LLM)推理和训练,这些实例已经被包括 Fireworks AI 在内的公司采纳。
“AMD Instinct MI300X 和 ROCm 开放软件继续在成为供电最重要 OCI AI 工作负载的信赖解决方案方面走得更远,”AMD 数据中心GPU业务企业副总裁和总经理 Andrew Dieckmann表示。“随着这些解决方案进一步扩展到不断增长的AI密集市场,这一组合将使 OCI 客户受益于高性能、高效率和更大的系统设计灵活性。”
“AMD Instinct MI300X 加速器的推理能力增强了 OCI 大量高性能裸金属实例的选择范围,摆脱了通常用于 AI 基础设施的虚拟化计算开销,” Oracle Cloud Infrastructure 软件开发高级副总裁 Donald Lu 表示。“我们很高兴为寻求以竞争性价格加速AI工作负载的客户提供更多选择。”
为AI训练和推理带来值得信赖的性能和开放选择
AMD Instinct MI300X 经过了深入测试,OCI 对其进行了验证,着重强调了其AI推理和训练能力,用于服务延迟最佳用例,甚至使用更大的批次大小,以及在单个节点中容纳最大的LLM模型的能力。这些 Instinct MI300X 的性能结果引起了AI模型开发人员的关注。
Fireworks AI 提供了一个快速平台,旨在构建和部署生成式AI。Fireworks AI 利用了在 OCI 上使用 AMD Instinct MI300X 所获得的性能优势,拥有超过100种模型。
“Fireworks AI 帮助企业在各种行业和用例中构建和部署复合AI系统,” Fireworks AI CEO 林乔表示,“AMD Instinct MI300X 和 ROCm 开放软件上可获取的内存容量使我们能够将服务规模扩展到我们的客户,随着模型的不断增长。”
在 AITechPark 探索最新的人工智能、物联网、网络安全、人工智能技术新闻和来自行业专家的见解!
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。
AMD Instinct MI300X加速器在OCI上可供要求严苛的AI应用程序使用
install_url
to use ShareThis. Please set it in _config.yml
.