腾讯的AI困局
2024年已经逐渐步入了尾声,但国产大模型的内卷之战却还在继续着……
最近,腾讯终于有了新动作,在开源模型上卯足了劲。11 月 5 日,腾讯宣布开源 MoE 大语言模型混元 Large,腾讯称混元 Large 是业界参数规模最大、效果最好的开源 MoE 大语言模型,采用 7T 训练 tokens,总参数量 389B,激活参数量 52B,上下文长度高达 256K。
然而,从去年年初至今,在文本大模型的战场上,身为BAT三巨头之一的腾讯,却长久地处于被动的状态。
一个明显的表现是:在10月国内Web端AI助手的排行榜上,腾讯的AI产品元宝仅排在了第11位,月访问量不到200万,远不及百度的文心一言、与阿里的通义千问。
如今,在国内的AI应用上,要问起知名度最高的前三个,人们可能很难会想到腾讯的元宝。
问题来了:同样身为BAT三巨头之一,且有着微信这样一个超级入口,为何腾讯却在C端方面表现如此不堪?
一个重要的原因,恐怕并不是腾讯的元宝有多“差”,而是在于在众多国产大模型的AI产品中,元宝是一个十分四平八稳,平庸到毫无“特色”的存在。
而这样的平庸,对于腾讯这样的巨头而言,并不是一个及格的答卷。
01、及格边缘
基于腾讯混元大模型的的AI产品——元宝,目前在C端的体验究竟怎样?
在这里,我们以当前文本大模型最核心的几项能力,例如文本总结、撰写,深度推理等,将元宝与排名较前的一些大模型进行对比,或许就能从中得知其与目前一线模型的差距。
首先来看看文本总结。
在这里,我们先选取一篇关…
Continue reading on the original site
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。