Stability AI发布划时代的多语言模型Stable LM 2
Stability AI最近推出了其Stable LM 2语言模型系列的最新成员:一个具有120亿参数的基础模型及其经指令调优的变体。这些模型覆盖了英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语,在七种语言中训练了两万亿个token。

120亿参数模型旨在平衡强大的性能、效率、内存需求和速度。它是Stability AI先前发布的Stable LM 2 1.6B技术报告的进一步发展。这一新发布不仅扩展了公司的模型范围,还为开发者提供了一个透明且强大的工具,用于AI语言技术创新。
此外,Stability AI还更新了其Stable LM 2 1.6B模型。这个更新的1.6B变体在保持极低系统需求的同时,改善了跨上述七种语言的对话能力。
Stable LM 2 12B被设计为一个高效的开放模型,专为多语言任务而优化,能在广泛可用的硬件上顺畅运行。据Stability AI介绍,这个模型能处理通常仅有更大模型才能完成的任务,而大型模型通常需要大量的计算和内存资源。
在与Mixtral、Llama2、Qwen 1.5、Gemma和Mistral等流行的强大语言模型进行性能比较时,Stable LM 2 12B在Open LLM排行榜概述的零射击和少射击任务中表现出色。
通过这次新发布,Stability AI将StableLM 2系列扩展到了12B类别,提供了一个开放且透明的模型,且不牺牲其强大的性能和准确性。公司相信这一发布将使开发者和企业能够继续发展未来,同时完全控制他们的数据。
开发者和企业现在可以通过Stability AI会员资格,将Stable LM 2 12B用于商业和非商业目的。
标签: AI
、人工智能
、开发
、语言模型
、Stability AI
、Stable LM 2
感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB。
感谢阅读!如果您对AI的最新发展感兴趣,可以查看更多AI文钊文章:GPTNB。
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。
Stability AI发布划时代的多语言模型Stable LM 2
install_url
to use ShareThis. Please set it in _config.yml
.