Red Hat和Run:ai优化混合云中的AI工作负载

Run:ai在Red Hat OpenShift AI上帮助组织最大化GPU资源并简化AI工作流程

Red Hat,全球领先的开源解决方案提供商,以及AI优化和编排领域的领导者Run:ai今天宣布合作,将Run:ai的资源分配能力引入Red Hat OpenShift AI。图片{ width=60% }


通过优化AI操作并优化基础设施,这种合作使企业能够充分利用AI资源,在建立、调整、部署和监控规模化AI应用程序和模型的可信MLOps平台上最大化人类和硬件驱动的工作流。

GPU是推动AI工作流的计算引擎,可实现模型训练、推断、实验等。然而,这些专门的处理器在跨分布式训练作业和推断时可能成本高昂。Red Hat和Run:ai正致力于满足这种对GPU资源优化的关键需求,Run:ai在Red Hat OpenShift AI上的认证OpenShift Operator帮助用户在AI工作负载所在位置进行扩展和优化。Run:ai在Red Hat OpenShift AI上的基于云原生的计算编排平台帮助:

  • 通过专用工作负载调度程序解决AI工作负载的GPU调度问题,更轻松地优先处理关键任务工作负载,并确认分配了足够的资源来支持这些工作负载。
  • 利用分数GPU和监控功能,根据预设的优先级和策略动态分配资源,提高基础设施效率。
  • 获得对共享GPU基础设施的改进控制和可见性,为IT、数据科学和应用开发团队提供更轻松的访问和资源分配。

Run:ai的认证OpenShift Operator现已推出。将来,Red Hat和Run:ai计划继续在这一合作基础上构建,为Run:ai在Red Hat OpenShift AI上增加额外的集成功能。这旨在支持更无缝的客户体验,并进一步加快将AI模型移入生产工作流程,实现更一致的推动。

Red Hat峰会
加入Red Hat峰会主题演讲,了解来自Red Hat高管、客户和合作伙伴的最新动态:

  • 云是混合的。AI也是如此。- 星期二,5月7日,上午8点至10点MDT(YouTube、LinkedIn)
  • 为AI时代优化IT- 星期三,5月8日,上午8:30至9:30 MDT(YouTube、LinkedIn)

支持引用
Steven Huels,Red Hat AI业务部门副总裁兼总经理:“AI的增加采用和对GPU的需求要求企业优化其AI平台,以充分利用操作和基础设施,无论其位于混合云的何处。通过与Run:ai的合作,我们使组织能够在规模上最大化AI工作负载,而不会牺牲AI/ML平台的可靠性或宝贵的GPU资源,无论需要的地方。”

Omri Geller,Run:ai首席执行官兼创始人:“我们很高兴与Red Hat OpenShift AI合作,增强AI运营的力量和潜力。通过利用Red Hat OpenShift的MLOps优势与Run:ai在AI基础设施管理方面的专业知识,我们正在为企业AI设定一个新标准,提供无缝的扩展性和优化的资源管理。”

其他资源
了解更多关于AI在Red Hat的信息
了解更多关于Red Hat OpenShift AI
了解更多关于Run.ai
了解更多关于Red Hat峰会
在Red Hat峰会新闻中心查看本周所有Red Hat的新闻公告
在Twitter/X上关注@RedHatSummit或#RHSummit以获取活动特定更新

与Red Hat联系
了解更多关于Red Hat
在Red Hat新闻中心获取更多新闻
阅读Red Hat博客
在Twitter/X上关注Red Hat
在Instagram上关注Red Hat
观看YouTube上的Red Hat视频
在LinkedIn上关注Red Hat



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Red Hat和Run:ai优化混合云中的AI工作负载

https://www.gptnb.com/2024/05/08/2024-05-07-auto3-uFwx0I/

作者

ByteAILab

发布于

2024-05-08

更新于

2025-03-21

许可协议