腾讯的AI困局

2024年已经逐渐步入了尾声,但国产大模型的内卷之战却还在继续着……

最近,腾讯终于有了新动作,在开源模型上卯足了劲。11 月 5 日,腾讯宣布开源 MoE 大语言模型混元 Large,腾讯称混元 Large 是业界参数规模最大、效果最好的开源 MoE 大语言模型,采用 7T 训练 tokens,总参数量 389B,激活参数量 52B,上下文长度高达 256K。


然而,从去年年初至今,在文本大模型的战场上,身为BAT三巨头之一的腾讯,却长久地处于被动的状态。

一个明显的表现是:在10月国内Web端AI助手的排行榜上,腾讯的AI产品元宝仅排在了第11位,月访问量不到200万,远不及百度的文心一言、与阿里的通义千问。

如今,在国内的AI应用上,要问起知名度最高的前三个,人们可能很难会想到腾讯的元宝。

问题来了:同样身为BAT三巨头之一,且有着微信这样一个超级入口,为何腾讯却在C端方面表现如此不堪?

一个重要的原因,恐怕并不是腾讯的元宝有多“差”,而是在于在众多国产大模型的AI产品中,元宝是一个十分四平八稳,平庸到毫无“特色”的存在。

而这样的平庸,对于腾讯这样的巨头而言,并不是一个及格的答卷。

01、及格边缘

基于腾讯混元大模型的的AI产品——元宝,目前在C端的体验究竟怎样?

在这里,我们以当前文本大模型最核心的几项能力,例如文本总结、撰写,深度推理等,将元宝与排名较前的一些大模型进行对比,或许就能从中得知其与目前一线模型的差距。

首先来看看文本总结。

在这里,我们先选取一篇关…


Continue reading on the original site

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

作者

ByteAILab

发布于

2024-11-18

更新于

2025-03-21

许可协议