Numenta发布NuPIC2.0
AI的突破,NuPIC让企业能够轻松在通用CPU上部署强大的生成式AI应用
Numenta Inc.,在CPU上部署大型AI模型的全球领导者,宣布推出其旗舰产品NuPIC™的2.0版本。{ width=60% }
NuPIC赋予公司在CPU上部署大型语言模型(LLMs)的能力,提供了一种高效、可扩展和安全的解决方案。
NuPIC专注于灵活性和实际应用,使企业能够轻松选择并部署适合特定任务的正确模型。无论客户是想运行现有模型,使用他们的专有数据对模型进行微调,还是利用预优化模型进行即时部署,NuPIC均旨在简化流程,帮助企业开发和驱动其生成式AI应用。
Numenta的CEO Subutai Ahmad表示:“谁还想要部署GPU呢?通过最新版本的NuPIC 2.0,我们巩固了CPU作为生成式AI部署的理想架构,为企业赋予了空前的灵活性和简易性。无论是在单台服务器上运行数百个模型还是调整模型以满足性能需求,客户可以利用NuPIC上的万物AI技术(如RAG)构建生成AI应用。最重要的是,他们可以在CPU上完全地就在NuPIC中构建和部署模型,且工作量很少。”
解锁CPU上的生成式AI推理
通过利用NuPIC优化的模型和CPU固有的灵活性的结合,NuPIC实现了在CPU上运行大规模生成式AI模型(如Llama-2)的可能性。无需批处理,且能够在本地部署,NuPIC提升了AI应用的效率,并解决了与基于云解决方案相关的隐私和安全问题。
借助NuPIC,企业可以获得以下好处:
在CPU上构建和扩展生成式AI应用,无需深度学习专业知识。
利用强大的GPT功能,从优化的GPT模型到微调支持再到能够携带自己的GPT模型。
选择适合其用例的理想模型,无论是需要GPT、嵌入式模型还是两者的结合。
在其现有基础架构中集成NuPIC,可在本地或通过私有云进行。任何数据都不会离开公司墙壁。
在Intel Xeon处理器上获得最佳性能,结果可显著超越GPU。
轻松访问Numenta的专家团队,帮助识别瓶颈并指导他们穿越复杂的AI领域。
NuPIC客户使用案例
NuPIC正受到广泛行业采用。合作伙伴和客户包括AI Singapore、Cequence、F5、Finch AI、Gallium Studios和Intel。
F5与Numenta合作,使生成式AI应用更易于构建且更经济。通过将NuPIC集成到F5分布式云平台中,可以安全地交付多云应用的LLM工作负载,而不受部署复杂性的影响。
F5产品管理副总裁Pranav Dharwadkar表示:“Numenta使F5客户能够在现有的基于x86的CPU上运行LLMs,其性能可达到GPU级别或更高。这项合作对我们的客户来说是开创性的,因为他们不再需要等待GPU,可以从在F5 App Stack上运行LLMs中受益,从而在边缘推理中保持其机密数据私有并使用RAG。与GPU相比成本更低且减少复杂性,F5和Numenta降低了生成AI应用对任何大小任何公司的准入门槛。”
Cequence正在使用NuPIC开发专门训练的唯一模型,专门针对客户合同档案进行训练。这些模型将在合同管理中提供无与伦比的专业知识,并向用户提供了解其独特需求和要求的强大工具。Cequence首席营收官Martin Ragan表示:“我们很高兴与Numenta合作,共同努力推动AI在合同管理中的应用。此次合作将使我们能够向法律专业人员和采购团队提供更智能、更高效和用户友好的解决方案。”
编辑注意
Numenta将在5月21日和22日在“Enterprise Generative AI Summit West Coast”上展示NuPIC 2.0。Numenta CEO Subutai Ahmad将于5月21日上午11:30-12:00在峰会上发表主题演讲。
探索NuPIC和申请演示
如果您有兴趣了解NuPIC如何帮助您在CPU上构建和扩展生成式AI应用,请访问我们的解决方案页面或在此处申请演示。
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。
Numenta发布NuPIC2.0