Weights & Biases宣布与NVIDIA NIM集成
Fully Connected –Weights & Biases,AI开发平台,今天宣布扩展与NVIDIA NIM微服务的集成,以帮助企业构建定制AI应用程序,并针对生产进行推理优化。{ width=50% }
在上个月NVIDIA GTC上宣布的首次NIM集成基础上,今天宣布的额外定制功能(目前处于私人预览阶段)为使用Weights & Biases平台的开发人员提供了更全面和可访问的方式,以定制和部署针对特定领域的企业级AI应用程序。
“当今企业希望使用LLM部署在自己数据上训练的定制应用程序,比如客服代理快速准确地回答客户问题,”Weights & Biases的CEO Lukas Biewald说。“我们与NVIDIA NIM的扩展集成将为我们的客户提供他们想要的更高LLM性能,使用其业务数据进行微调和优化的模型,以获得更好的性能和低延迟。由于我们正在缩小训练和推理之间的操作鸿沟,企业AI也变得更快部署。”
“在各行业中,企业正在寻求一个引擎来加速其生成式AI战略,”NVIDIA的企业计算副总裁Manuvir Das说。“Weights & Biases与NVIDIA NIM的集成标志着为那些将企业级生成式AI纳入运营的公司的AI开发和部署效率大幅提升的开端。”
使用Weights & Biases和NVIDIA NIM加速开发和部署
Weights & Biases AI平台提供了一整套用于机器学习实验跟踪、模型优化和自动化模型管理的工具,具有模型谱系和数据集版本控制。NVIDIA NIM微服务构建在这些能力之上,提供了超过两十多种流行的NVIDIA和其合作伙伴生态系统的AI模型上的优化推理,使开发人员能够在云端、数据中心、工作站和个人电脑上运行定制AI模型。
Weights & Biases AI平台与NVIDIA NIM功能相结合,为开发人员提供了一条更全面和简单的路径,以构建具有企业级支持、安全性和稳定性的生成式AI应用程序。NIM已纳入NVIDIA AI Enterprise软件平台,用于开发和部署生产级生成式AI应用程序。
Weights & Biases的W&B Launch是AI开发平台的一部分,提供了部署AI工作负载到计算集群的无缝能力,允许用户在不受基础设施限制或权限扩散的情况下扩展培训。W&B Launch支持获取构建和部署AI模型所需的高性能计算,可在AWS、Google Cloud和Microsoft Azure上运行。
Weights & Biases与NVIDIA NIM集成的私人预览使开发人员能够定制更广泛的AI模型,包括NVIDIA AI Foundation和定制模型。它确保无缝、可扩展的AI推理,无论在本地还是云端,都可以利用业界标准API。
Weights & Biases与NVIDIA NIM之间的这一新集成将使企业开发人员能够:
- 创建定制的优化模型NIM并部署在客户基础设施中
- 跟踪优化模型的谱系进行版本控制
- 通过领域适应和优化增强LLM性能,以获得更优异的性能和更低的延迟
- 通过缩短训练和推理流程之间的差距加速部署时间表
- 实施企业级安全措施,确保数据保护和合规性,即使使用定制模型也是如此
- 访问多样化的部署选项-由于Weights & Biases和NIM都是基础设施不可知的,支持云和本地高性能计算环境
可用性
要了解更多关于Weights & Biases AI开发平台及其与NVIDIA NIM的新集成(目前处于私人预览阶段)的信息,请在wandb.me/nim注册。
Weights & Biases AI开发平台实现了与NVIDIA微服务的无缝集成,也可供开发人员在ai.nvidia.com上进行实验。对于希望在领先的云平台上部署生产级NIM微服务的企业,可通过NVIDIA AI Enterprise进行访问,确保在Weights & Biases生态系统内提供增强性能和兼容性。
感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB。
感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB。
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。
Weights & Biases宣布与NVIDIA NIM集成