元宇宙泡沫破灭?以下是几个“数据真相”

近年来,科技界对“元宇宙”(metaverse)这一概念表现出了极大的热情。这一概念有望改变在线体验,提供身临其境的虚拟世界,我们可以在其中以前所未有的方式工作、娱乐和社交。


科技巨头和投资者为这一愿景投入了数十亿美元,Meta(前身为Facebook)是其中的佼佼者。然而,最近的数据表明,元宇宙泡沫可能已经破裂,让许多人对其未来产生了怀疑。

要了解目前的情况,我们需要退一步看看当初元宇宙承诺了什么。

Meta公司首席执行官Mark Zuckerberg成为这场运动的代言人,他重新打造了自己的公司,并在虚拟现实技术上投入巨资。

花旗银行的研究人员甚至预测,元宇宙可能吸引50亿用户,并发展成为一个13万亿美元的市场。

这些豪言壮语引发了一场淘金热,公司和个人争先恐后地在这一数字前沿领域抢占地盘。

01.元宇宙的急剧衰落

时至今日,情况已截然不同。

Meta雄心勃勃的元宇宙部门RealityLabs一直在大出血。仅在上一季度,它就亏损了45亿美元,自成立以来的总亏损额超过了460亿美元。这些数字与曾经设想的盈利未来相去甚远。

更能说明问题的是Horizon Worlds的命运,它是Meta面向成人的旗舰元宇宙平台。尽管在市场营销方面做了大量努力,但该平台仍难以吸引其目标受众。具有讽刺意味的是,它却意外地受到了儿童的欢迎,而这并不是它的设计初衷。

02.Crypto元宇宙的崩溃

元宇宙概念并不局限于传统的科技公司。

基于Crypto的虚拟世界出现了一个完整的生态系统,承诺提供去中心化的所有权和独特的数字资产。

这些建立在区块链技术基础上的平台被炒得沸沸扬扬,估值也达到了天文数字。然而,它们也经历了急剧下滑。

以The Sandbox为例,估值一度超过70亿美元的虚拟世界,但其日交易量却暴跌了99.9%。巅峰时期,它的交易额曾达到1.17亿美元,而现在平均每天的交易额仅能达到8000美元。

这并非个案。另一个开创性的Crypto元宇宙平台Decentraland的日交易量也出现了类似的99.9%的下降,从高峰时期的250万美元下降到现在的不足5000美元。

03.数字资产的衰落

在这些虚拟世界中,最引人注目的一点是可以拥有和交易数字资产,通常采用非同质化通证(NFT)的形式。这些通证可以代表任何东西,从虚拟房地产到游戏中的物品。

在元宇宙热潮的顶峰时期,这些资产的价格令人瞠目。现在,它们的价值几乎蒸发殆尽。

在Sandbox中,NFT的单日销售额曾达到1020万美元,而现在却很难超过10000美元。

这种模式在其他平台上也在重演,曾经是“边玩边赚”游戏典范的AxieInfinity的交易量从近10亿美元骤降至不足200万美元。

与这些“元宇宙”项目相关联的Crypto的表现也不尽如人意。MANA(Decentraland)、SAND(The Sandbox)和AXS(AxieInfinity)等通证的价值都比2021年11月的峰值暴跌了90%以上。

这种衰退并不只是个别项目的问题,整个元宇宙Crypto领域都大幅缩水,其总市值从500亿美元降至160亿美元。

04.哪些因素导致了这一崩溃?

有几个因素导致了这一迅速衰落。

首先,最初的炒作造成了不切实际的期望。提供真正身临其境的无缝虚拟体验所需的技术仍处于起步阶段。许多用户发现,与所承诺的愿景相比,目前的产品显得笨拙和令人失望。

此外,这一概念本身可能过于抽象,难以被主流采用。虽然技术爱好者们兴奋不已,但普通互联网用户却很难理解元宇宙将如何有意义地改善他们的数字生活。高昂的入门成本,无论是硬件还是学习曲线,都进一步限制了其采用。

更广泛的经济衰退和Crypto市场崩溃也起到了重要作用。随着投资资本越来越稀缺,风险偏好降低,许多元宇宙项目发现自己难以维持开发和用户增长。

尽管存在这些挫折,但现在就完全否定元宇宙概念还为时过早。

技术往往会经历炒作、幻灭和最终实际应用的循环。像Mark Zuckerberg这样的一些支持者,相信元宇宙的长期潜力,继续在元宇宙开发上投入巨资。

历史证明,即使在市场大幅调整之后,创新理念也会以更实用的形式重新出现。

正如亚马逊(Amazon)和易趣(eBay)等公司从网络泡沫中脱颖而出,成为科技巨头一样,一些元宇宙项目可能会找到自己的立足点,并以我们尚未想象到的方式实现价值。

原文来源于:
https://coinchapter.com/the-metaverse-bubble-has-burst-here-are-the-shocking-numbers/
中文内容由元宇宙之心(MetaverseHub)团队编译,如需转载请联系我们。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

元宇宙泡沫破灭?以下是几个“数据真相”

近年来,科技界对“元宇宙”(metaverse)这一概念表现出了极大的热情。这一概念有望改变在线体验,提供身临其境的虚拟世界,我们可以在其中以前所未有的方式工作、娱乐和社交。


科技巨头和投资者为这一愿景投入了数十亿美元,Meta(前身为Facebook)是其中的佼佼者。然而,最近的数据表明,元宇宙泡沫可能已经破裂,让许多人对其未来产生了怀疑。要了解目前的情况,我们需要退一步看看当初元宇宙承诺了什么。Meta公司首席执行官Mark Zuckerberg成为这场运动的代言人,他重新打造了自己的公司,并在虚拟现实技术上投入巨资。花旗银行的研究人员甚至预测,元宇宙可能吸引50亿用户,并发展成为一个13万亿美元的市场。这些豪言壮语引发了一场淘金热,公司和个人争先恐后地在这一数字前沿领域抢占地盘。

01.元宇宙的急剧衰落

时至今日,情况已截然不同。Meta雄心勃勃的元宇宙部门RealityLabs一直在大出血。仅在上一季度,它就亏损了45亿美元,自成立以来的总亏损额超过了460亿美元。这些数字与曾经设想的盈利未来相去甚远。更能说明问题的是Horizon Worlds的命运,它是Meta面向成人的旗舰元宇宙平台。尽管在市场营销方面做了大量努力,但该平台仍难以吸引其目标受众。具有讽刺意味的是,它却意外地受到了儿童的欢迎,而这并不是它的设计初衷。

02.Crypto元宇宙的崩溃

元宇宙概念并不局限于传统的科技公司。基于Crypto的虚拟世界出现了一个完整的生态系统,承诺提供去中心化的所有权和独特的数字资产。这些建立在区块链技术基础上的平台被炒得沸沸扬扬,估值也达到了天文数字。然而,它们也经历了急剧下滑。以The Sandbox为例,估值一度超过70亿美元的虚拟世界,但其日交易量却暴跌了99.9%。巅峰时期,它的交易额曾达到1.17亿美元,而现在平均每天的交易额仅能达到8000美元。这并非个案。另一个开创性的Crypto元宇宙平台Decentraland的日交易量也出现了类似的99.9%的下降,从高峰时期的250万美元下降到现在的不足5000美元。

03.数字资产的衰落

在这些虚拟世界中,最引人注目的一点是可以拥有和交易数字资产,通常采用非同质化通证(NFT)的形式。这些通证可以代表任何东西,从虚拟房地产到游戏中的物品。在元宇宙热潮的顶峰时期,这些资产的价格令人瞠目。现在,它们的价值几乎蒸发殆尽。在Sandbox中,NFT的单日销售额曾达到1020万美元,而现在却很难超过10000美元。这种模式在其他平台上也在重演,曾经是“边玩边赚”游戏典范的AxieInfinity的交易量从近10亿美元骤降至不足200万美元。与这些“元宇宙”项目相关联的Crypto的表现也不尽如人意。MANA(Decentraland)、SAND(The Sandbox)和AXS(AxieInfinity)等通证的价值都比2021年11月的峰值暴跌了90%以上。这种衰退并不只是个别项目的问题,整个元宇宙Crypto领域都大幅缩水,其总市值从500亿美元降至160亿美元。

04.哪些因素导致了这一崩溃?

有几个因素导致了这一迅速衰落。首先,最初的炒作造成了不切实际的期望。提供真正身临其境的无缝虚拟体验所需的技术仍处于起步阶段。许多用户发现,与所承诺的愿景相比,目前的产品显得笨拙和令人失望。此外,这一概念本身可能过于抽象,难以被主流采用。虽然技术爱好者们兴奋不已,但普通互联网用户却很难理解元宇宙将如何有意义地改善他们的数字生活。高昂的入门成本,无论是硬件还是学习曲线,都进一步限制了其采用。更广泛的经济衰退和Crypto市场崩溃也起到了重要作用。随着投资资本越来越稀缺,风险偏好降低,许多元宇宙项目发现自己难以维持开发和用户增长。

尽管存在这些挫折,但现在就完全否定元宇宙概念还为时过早。技术往往会经历炒作、幻灭和最终实际应用的循环。像Mark Zuckerberg这样的一些支持者,相信元宇宙的长期潜力,继续在元宇宙开发上投入巨资。历史证明,即使在市场大幅调整之后,创新理念也会以更实用的形式重新出现。正如亚马逊(Amazon)和易趣(eBay)等公司从网络泡沫中脱颖而出,成为科技巨头一样,一些元宇宙项目可能会找到自己的立足点,并以我们尚未想象到的方式实现价值。

原文来源于:
https://coinchapter.com/the-metaverse-bubble-has-burst-here-are-the-shocking-numbers/
中文内容由元宇宙之心(MetaverseHub)团队编译,如需转载请联系我们。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

高盛力挺英伟达:2025年盈利将显著超市场预期

文章来源:硬AI

高盛预计,英伟达将在Q2电话会上公布特定客户的ROI(投资回报率)以提振市场信心,预计其Q2营收和每股收益将分别达到297.69亿美元和0.68美元,分别较市场预期高出4.1%和5.9%,到2025年每股收益超市场预期11%。

作者 | 李笑寅
编辑 | 硬 AI

美国经济前景的不确定性正在考验投资者对科技股的信心,作为AI领头羊的英伟达,还能继续给“AI信仰”续费吗?

8月18日,高盛分析师Toshiya Hari、Anmol Makkar等发布最新研报称,受益于大型云服务提供商和企业客户的强劲需求,英伟达将继续保持在AI和加速计算领域的强势地位,继续维持对其的“买入”评级。


报告指出,虽然Blackwell系列GPU推迟出货给基本面带来了波动,但根据官方表态及供应链相关数据,对英伟达的盈利能力仍具信心,预计其在2025年的每股收益将达到4.16美元,较市场普遍预期高出11%。

股价前景方面,高盛向英伟达设定了135美元的12个月目标价,较上周五收盘价而言,仍有8.4%的上行空间。

01

AI需求仍强劲,主导优势显著

报告表示,之所以继续看好英伟达的增长前景,主要是考虑到对GPU等AI基础设施的需求仍将强劲。

作为供应链上游,台积电为英伟达、高通、AMD等芯片公司提供代工服务。以其为例,报告指出,二季度台积电HPC(高性能计算)业务占总营收比重首次过半,意味着AI需求强劲。

在财报后电话会上,台积电董事长兼总裁魏哲家还表示,预计CoWoS产能供应紧张的局面将延续到2025年,今、明年的CoWoS产能将至少翻一倍,同样显示出强劲的需求前景。

其次,英伟达还将受益于庞大的客户基数。报告表示,英伟达已建立了庞大并不断增长的采用量基础,竞争优势显著,随着GPU加速迭代,预计英伟达将继续保持并受益于该领域的主导地位。

8月28日,英伟达将公布2025财年Q2业绩报告。高盛认为,Q2财报将显示对英伟达H100 GPU的需求仍将强劲,且H200开始批量发货。

高盛预计,得益于数据中心营收增长和强劲的运营杠杆,英伟达Q2营收和每股收益均将超预期,分别达到297.69亿美元和0.68美元,分别较市场预期高出4.1%和5.9%。

其中H100、H200和Spectrum-X将成为Q2收入增长的关键驱动力,台积电CoWoS产能的阶梯式增长也可能从供给侧支撑营收增长。

数据中心部门方面,高盛预计到Q3,该部门收入将进一步增长,实现15%的环比涨幅;到2026年,数据中心收入将实现两位数的同比增长。

02

投资回报初现
或将公布ROI以提振信心

目前,市场的主要担忧集中于AI项目庞大的资本支出能否产生商业回报的问题上。

报告显示,预计2024和2025年全球云资本支出将同比增长60%、12%,较此前48%和9%的预期值均有所上调。

并且,出于对Blackwell系列芯片延迟交付和数据中心收入增长可持续性的担忧,近期英伟达的估值有所下滑,市盈率为42倍,比过去三年的中值水平还要低1%,处于历史较低水平。

不过,报告同时补充称,目前已有部分客户提供了一些初步数据,显示生成式AI在广告行业实现部分回报。高盛预计,在Q2财报后电话会上,英伟达将公布特定客户的投资回报率指标(ROI)以提振市场信心。

图片来源:由GPTNB生成

本文链接:https://www.aixinzhijie.com/article/6846488
转载请注明文章出处


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

手握15个大厂offer,我在大模型风口起飞

文章来源:雪豹财经社

Top 5%的人才争夺战

Fast Reading
■猎聘的一份报告显示,2024年一季度国内生成式人工智能的相关职位数同比增321.7%。其中,50万以上的年薪段增速最快,超过500%。


■大厂需要前5%的顶尖人才去完成“95%的人无法完成的事情”,并不惜为此开出丰厚报酬。
■生成式人工智能岗位急增300%以上,但相应领域的求职人数增速则超过了900%。岗位有限,求职依然面临着僧多粥少的问题.

作者 | 魏琳华

在“金三银四”的招聘季中,社交媒体上分享offer信息的“求助帖”比比皆是。帖子一般只披露公司名称和薪资区间,模糊具体岗位,作为判断是否值得去的衡量标准。
2024年毕业的985硕士生白丁(化名)一口气晒出了自己在秋招、春招拿到的15个算法相关岗位的offer。“赶上了大模型的风口,各家企业给的都很大方。”白丁在帖子里写道,他拿到了此前自己难以想象的薪资:最高的一个offer,年薪达到80万。
评论区里,有人质疑他的经历是编的;有回贴者是博士,对比下来觉得薪资“被倒挂”;还有人借机请教实习技巧。
“2024年,是最好进入大模型算法岗位的一年。”一条帖子的标题这样写道。少数人在下面赞同,多数人则抨击它“煽动焦虑”。
在乘着风口起舞的故事里,有人手握多个offer,才毕业就能拿到接近百万的年薪;有人一周投了400多份简历,却只接到零星的面试邀约。
一个两级分化的求职世界,正在向人们呈现它不那么理想的一面。

“在模型风口起飞的猪”
今年刚毕业的白丁戏称自己是一只“在模型风口起飞的猪”,回顾校招的种种经历,他把自己斩获大量offer的原因之一归结为运气。
白丁原本的择业方向是传统的算法应用岗位,比如搜索推荐。还在读研期间,白丁就清楚地知道自己的研究领域比较小众,很难找到对口工作。
ChatGPT的爆火改写了他的就业路径。


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

高盛力挺英伟达:2025年盈利将显著超市场预期

文章来源:硬AI

图片来源:由GPTNB生成

高盛预计,英伟达将在Q2电话会上公布特定客户的ROI(投资回报率)以提振市场信心,预计其Q2营收和每股收益将分别达到297.69亿美元和0.68美元,分别较市场预期高出4.1%和5.9%,到2025年每股收益超市场预期11%。

作者 | 李笑寅
编辑 | 硬 AI

美国经济前景的不确定性正在考验投资者对科技股的信心,作为AI领头羊的英伟达,还能继续给“AI信仰”续费吗?

8月18日,高盛分析师Toshiya Hari、Anmol Makkar等发布最新研报称,受益于大型云服务提供商和企业客户的强劲需求,英伟达将继续保持在AI和加速计算领域的强势地位,继续维持对其的“买入”评级。


报告指出,虽然Blackwell系列GPU推迟出货给基本面带来了波动,但根据官方表态及供应链相关数据,对英伟达的盈利能力仍具信心,预计其在2025年的每股收益将达到4.16美元,较市场普遍预期高出11%。

股价前景方面,高盛向英伟达设定了135美元的12个月目标价,较上周五收盘价而言,仍有8.4%的上行空间。

01

AI需求仍强劲,主导优势显著

报告表示,之所以继续看好英伟达的增长前景,主要是考虑到对GPU等AI基础设施的需求仍将强劲。

作为供应链上游,台积电为英伟达、高通、AMD等芯片公司提供代工服务。以其为例,报告指出,二季度台积电HPC(高性能计算)业务占总营收比重首次过半,意味着AI需求强劲。

在财报后电话会上,台积电董事长兼总裁魏哲家还表示,预计CoWoS产能供应紧张的局面将延续到2025年,今、明年的CoWoS产能将至少翻一倍,同样显示出强劲的需求前景。

其次,英伟达还将受益于庞大的客户基数。报告表示,英伟达已建立了庞大并不断增长的采用量基础,竞争优势显著,随着GPU加速迭代,预计英伟达将继续保持并受益于该领域的主导地位。

8月28日,英伟达将公布2025财年Q2业绩报告。高盛认为,Q2财报将显示对英伟达H100 GPU的需求仍将强劲,且H200开始批量发货。

高盛预计,得益于数据中心营收增长和强劲的运营杠杆,英伟达Q2营收和每股收益均将超预期,分别达到297.69亿美元和0.68美元,分别较市场预期高出4.1%和5.9%。

其中H100、H200和Spectrum-X将成为Q2收入增长的关键驱动力,台积电CoWoS产能的阶梯式增长也可能从供给侧支撑营收增长。

数据中心部门方面,高盛预计到Q3,该部门收入将进一步增长,实现15%的环比涨幅;到2026年,数据中心收入将实现两位数的同比增长。

02

投资回报初现

或将公布ROI以提振信心

目前,市场的主要担忧集中于AI项目庞大的资本支出能否产生商业回报的问题上。

报告显示,预计2024和2025年全球云资本支出将同比增长60%、12%,较此前48%和9%的预期值均有所上调。

并且,出于对Blackwell系列芯片延迟交付和数据中心收入增长可持续性的担忧,近期英伟达的估值有所下滑,市盈率为42倍,比过去三年的中值水平还要低1%,处于历史较低水平。

不过,报告同时补充称,目前已有部分客户提供了一些初步数据,显示生成式AI在广告行业实现部分回报。高盛预计,在Q2财报后电话会上,英伟达将公布特定客户的投资回报率指标(ROI)以提振市场信心。


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

手握15个大厂offer,我在大模型风口起飞

来源:雪豹财经社

Top 5%的人才争夺战

Fast Reading

  • 猎聘的一份报告显示,2024年一季度国内生成式人工智能的相关职位数同比增321.7%。其中,50万以上的年薪段增速最快,超过500%.
  • 大厂需要前5%的顶尖人才去完成“95%的人无法完成的事情”,并不惜为此开出丰厚报酬.
  • 生成式人工智能岗位急增300%以上,但相应领域的求职人数增速则超过了900%。

作者 | 魏琳华

在“金三银四”的招聘季中,社交媒体上分享offer信息的“求助帖”比比皆是。帖子一般只披露公司名称和薪资区间,模糊具体岗位,作为判断是否值得去的衡量标准.

2024年毕业的985硕士生白丁(化名)一口气晒出了自己在秋招、春招拿到的15个算法相关岗位的offer。“赶上了大模型的风口,各家企业给的都很大方。”白丁在帖子里写道,他拿到了此前自己难以想象的薪资:最高的一个offer,年薪达到80万.

评论区里,有人质疑他的经历是编的;有回贴者是博士,对比下来觉得薪资“被倒挂”;还有人借机请教实习技巧.

“2024年,是最好进入大模型算法岗位的一年。”一条帖子的标题这样写道。少数人在下面赞同,多数人则抨击它“煽动焦虑”.

在乘着风口起舞的故事里,有人手握多个offer,才毕业就能拿到接近百万的年薪;有人一周投了400多份简历,却只接到零星的面试邀约.

一个两级分化的求职世界,正在向人们呈现它不那么理想的一面.

“在模型风口起飞的猪”

今年刚毕业的白丁戏称自己是一只“在模型风口起飞的猪”,回顾校招的种种经历,他把自己斩获大量offer的原因之一归结为运气.

白丁原本的择业方向是传统的算法应用岗位,比如搜索推荐。还在读研期间,白丁就清楚地知道自己的研究领域比较小众,很难找到对口工作.

ChatGPT的爆火改写了他的就业路径.

这一年,似乎所有公司都在关注AI,而“每一家公司都缺少做大模型的人”.

走出校门的应届生,是大厂们掐尖的开始. 一些大厂早就对AI技术人才开设单独的招聘渠道,比如百度“AIDU计划”、美团“北斗计划”. 今年,腾讯“青云计划”也单独辟出AI大模型招聘,宣称扩招幅度超过50%;字节旗下豆包大模型团队设立“Top Seed”种子计划,把目标对准了应届博士生.

在大厂担任算法工程师的罗星(化名)也决定在今年换一份工作. 比起前年的“被迫跳槽”,这一次,他明显感觉到就业环境的回暖.

从岗位数量上来说,可供投递的岗位肉眼可见地变多了. 罗星告诉雪豹财经社,这些新的工作岗位大多来自大模型相关岗位. 罗星的一位师弟是今年的应届博士生,通过某大厂的人才计划,已经拿到了年薪近100万的offer.

自2022年底因ChatGPT的火爆刮起的AI旋风,催生了大量新的工作岗位.

猎聘大数据研究院发布的《2024年一季度就业大数据洞察报告》显示,当…

点击阅读全文

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

联合Science,面向青年学者,陈天桥推出AI驱动科学研究国际大奖

近日,天桥脑科学研究院(Tianqiao & Chrissy Chen Institute,简称研究院)与《科学》杂志联合宣布,推出一项 AI 驱动科学大奖,表彰全球范围内使用人工智能技术推动各个领域科学研究并取得突破性进展的青年科学家。

图片

近中国互联网大佬陈天桥,在脑科学领域深耕8年,全力投入新一代人工智能技术研发近两年,斩获颇丰,在此之际推出的这一国际大奖颇为引人瞩目。


聚焦全球化、跨学科、青年科学家

据研究院与《科学》杂志官网披露,此次评奖征集的内容为1000字左右的论文,对象是全球利用人工智能相关技术,在科研领域(自然科学,包括生命科学和物质科学)取得重要突破的青年科学家(获得博士学位10年以内)。大奖和优胜者得主将分别获得3万美元和1万美元的奖励,以及《科学》杂志数字版5年免费订阅,所有获奖论文将发表在《科学》杂志。

该奖项目前已经开放报名,截止时间为2024年12月13日,可点击以下链接了解进一步情况和申请。

链接:https://www.science.org/content/page/how-enter-chen-institute-science-prize-ai-accelerated-research

记者注意到,作为全球最大的私人脑科学研究机构之一,研究院和全球顶级学术杂志《科学》从2020年开始,每年合作举办一次脑科学高端国际论坛,主题涉及脑机接口、人工智能等前沿领域。2024年11月,双方将首次在中国上海举办人工智能与精神健康国际学术论坛。

研究院创始人雒芊芊介绍,早些时候,她和陈天桥与《科学》杂志总编辑见面提出合作办这个奖项,一拍即合。双方不仅一致看好AI对于科学研究的巨大推动,而且研究院的三大特色全球化、跨科学、青年科学家,和《科学》杂志同样高度吻合。

这次申报作品需要投稿一篇符合方向的千字论文,用这种相对低门槛的形式,鼓励更多的青年科学家参与。雒芊芊说,对于处于职业生涯早期的青年科学家来说,最看重的是在《科学》这样的世界顶级学术杂志上发表论文,希望这次大奖能为一些人圆梦。《科学》杂志资深编辑Yury V. Suleymanov则表示,非常期待这些成果,能被全球其他研究者借鉴,并为使用人工智能产生开创性的科学研究提供灵感源泉。

期待AI科学家成为诺奖主力

据透露,这个奖项的中文名称AI驱动科学大奖,是陈天桥本人定下来的。他认为,与推动、促进等词语相比,驱动这个词,能够更好地体现AI本身就是为科学研究提供不竭动力的强劲引擎,更贴切,也更具力量感。

从关注AI+脑科学,推出MindD计划资助中国科学家建设高质量脑科学数据集,到奖励AI赋能各项科学研究,合办AI驱动科学大奖,研究院在AI+科学领域的布局日趋丰富和深入。

雒芊芊透露,在与《科学》杂志总编辑会面尾声,陈天桥畅想说,非常期待在未来的诺奖得主中,涌现出越来越多的AI科学家,甚至在某一天,AI本身就能成为科学大奖得主。话音刚落,引来大家会心一笑。

关注甘于寂寞的AI科学家

全球AI奖项并不少,但是奖励AI驱动科学研究的凤毛麟角。陈天桥在2021年接受中国媒体采访时就呼吁,要更多关注和支持那些甘于坐学术冷板凳的AI科学家。

据了解,2023年以来,陈天桥在全球招募了一批优秀AI科学家、工程师,进入到非盈利机构天桥脑科学研究院工作,研究如何用人工智能助力脑机接口解码大脑奥秘,提升公众精神和心理健康,延缓认知衰老等。

陈天桥介绍:“我给这些AI工程师一样甚至高于同级别产业工程师的薪酬待遇,给他们足够的时间和资源,让他们和我们的神经科学家、认知科学家、神经和精神临床医生一起工作,用AI研究最酷、最前沿的科学。”他透露,研究院还在美国加州理工学院、瑞士日内瓦大学、日本东京大学、中国苏州冷泉港等地资助了AI+脑科学高端夏校,已经培养了200多位优秀青年学生。

陈天桥进一步指出,目前的人才还远远不够,AI驱动科学大奖就是一张英雄帖,同时,研究院正在建设一个全面服务于这些人才的社区,今后还会通过科学交流、培训指导、资金支持等更多的形式,持续招募、扶持有志于科学研究的AI人才。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

手握15个大厂offer,我在大模型风口起飞

图片来源:由GPTNB生成

Top 5%的人才争夺战

Fast Reading

  • 猎聘的一份报告显示,2024年一季度国内生成式人工智能的相关职位数同比增321.7%。其中,50万以上的年薪段增速最快,超过500%.
  • 大厂需要前5%的顶尖人才去完成“95%的人无法完成的事情”,并不惜为此开出丰厚报酬.
  • 生成式人工智能岗位急增300%以上,但相应领域的求职人数增速则超过了900%。

岗位有限,求职依然面临着僧多粥少的问题.

作者 | 魏琳华

在“金三银四”的招聘季中,社交媒体上分享offer信息的“求助帖”比比皆是。帖子一般只披露公司名称和薪资区间,模糊具体岗位,作为判断是否值得去的衡量标准.

2024年毕业的985硕士生白丁(化名)一口气晒出了自己在秋招、春招拿到的15个算法相关岗位的offer。“赶上了大模型的风口,各家企业给的都很大方。”白丁在帖子里写道,他拿到了此前自己难以想象的薪资:最高的一个offer,年薪达到80万.

评论区里,有人质疑他的经历是编的;有回贴者是博士,对比下来觉得薪资“被倒挂”;还有人借机请教实习技巧.

“2024年,是最好进入大模型算法岗位的一年。”一条帖子的标题这样写道.少数人在下面赞同,多数人则抨击它“煽动焦虑”.

在乘着风口起舞的故事里,有人手握多个offer,才毕业就能拿到接近百万的年薪;有人一周投了400多份简历,却只接到零星的面试邀约.

一个两级分化的求职世界,正在向人们呈现它不那么理想的一面.

“在模型风口起飞的猪”

今年刚毕业的白丁戏称自己是一只“在模型风口起飞的猪”,回顾校招的种种经历,他把自己斩获大量offer的原因之一归结为运气.

白丁原本的择业方向是传统的算法应用岗位,比如搜索推荐.还在读研期间,白丁就清楚地知道自己的研究领域比较小众,很难找到对口工作.

ChatGPT的爆火改写了他的就业路径.

这一年,似乎所有公司都在关注AI,而“每一家公司都缺少做大模型的人”.

走出校门的应届生,是大厂们掐尖的开始.一些大厂早就对AI技术人才开设单独的招聘渠道,比如百度“AIDU计划”、美团“北斗计划”.今年,腾讯“青云计划”也单独辟出AI大模型招聘,宣称扩招幅度超过50%;字节旗下豆包大模型团队设立“Top Seed”种子计划,把目标对准了应届博士生.

在大厂担任算法工程师的罗星(化名)也决定在今年换一份工作.比起前年的“被迫跳槽”,这一次,他明显感觉到就业环境的回暖.

从岗位数量上来说,可供投递的岗位肉眼可见地变多了.罗星告诉雪豹财经社,这些新的工作岗位大多来自大模型相关岗位.罗星的一位师弟是今年的应届博士生,通过某大厂的人才计划,已经拿到了年薪近100万的offer.

自2022年底因ChatGPT的火爆刮起的AI旋风,催生了大量新的工作岗位.

猎聘大数据研究院发布的《2024年一季度就业大数据洞察报告》显示,当季,国内生成式人工智能的相关职位数同比暴增321.7%。其中,50万以上的高薪段增速最快,超过500%.

从AI领域新增职位分布来看,技术类职位占据主流.算法工程师以19.30%的比例高居榜首,产品经理和自然语言处理位居第二、第三.

狭窄拥挤的赛道被新的机会扩宽,白丁顺势调整了就业方向:全力攻向大模型.

机会源源不断.毕业之前,白丁拿到了包括百度、字节、阿里等多家大厂的15个offer,开出的年薪区间在50万~80万之间.留给白丁反选的空间充足,在同一家大厂中,他甚至拿到了来自多个不同部门的offer.

罗星也在经历两周的连续面试后,陆续拿到6个大厂offer,年包金额在70万~80万.最终,他选择南下奔赴一家位于杭州的大公司.

“别家给得起的,我们都给得起”

百万年薪背后,大厂有一套严苛的筛选标准:在专项招聘计划中,硕士、博士学历是多数企业的基本门槛,“超级学霸”“竞赛高手”是加分项.

“感觉大厂算法只招前5%的研究生,”就读于曼彻斯特大学的研究生斯曼(化名)告诉雪豹财经社,“大厂对算法的要求实…



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

现在,长上下文视觉语言模型(VLM)有了新的全栈解决方案 ——LongVILA,它集系统、模型训练与数据集开发于一体。

现阶段,将模型的多模态理解与长上下文能力相结合是非常重要的,支持更多模态的基础模型可以接受更灵活的输入信号,以便人们可以以更多样化的方式与模型交互。


而更长的上下文使模型处理的信息更多,例如长文档、长视频,这种能力同样为更多现实世界的应用程序提供了所需的功能。

然而,目前面临的问题是一些工作已经启用了长上下文视觉语言模型(VLM),但通常是采用简化的方法,而不是提供一个全面的解决方案。

全栈设计对于长上下文视觉语言模型至关重要。训练大型模型通常是一项复杂而系统的工作,需要数据工程和系统软件协同设计。与纯文本 LLM 不同,VLM(例如 LLaVA)通常需要独特的模型架构和灵活的分布式训练策略。

此外,长上下文建模不仅需要长上下文数据,还需要能够支持内存密集型长上下文训练的基础设施。因此,对于长上下文 VLM 来说,精心规划的全栈设计(涵盖系统、数据和 pipeline)是必不可少的。

本文,来自英伟达、MIT、UC 伯克利、得克萨斯大学奥斯汀分校的研究者引入了 LongVILA,这是一种用于训练和部署长上下文视觉语言模型的全栈解决方案,包括系统设计、模型训练策略和数据集构建。

图片

对于训练基础设施,该研究建立了一个高效且用户友好的框架,即多模态序列并行 (MM-SP),它支持训练记忆 - 密集型长上下文 VLM。

对于训练 pipeline,研究者实施了一个五阶段训练流程,如图 1 所示:即 (1) 多模态对齐,(2) 大规模预训练,(3) 短监督微调,(4) LLM 的上下文扩展,以及 (5) 长监督微调。

对于推理,MM-SP 解决了 KV 缓存内存使用率的挑战, 这在处理非常长的序列时会成为瓶颈。

通过使用 LongVILA 增加视频帧数,实验结果表明该研究在 VideoMME 和长视频字幕任务上的性能持续提高(图 2)。在 1024 帧上训练的 LongVILA 模型在 1400 帧的大海捞针实验中实现了 99.5% 的准确率,相当于 274k 个 token 的上下文长度。此外, MM-SP 系统可以有效地将上下文长度扩展到 200 万个 token 而无需梯度检查点,与环形序列并行(ring sequence parallelism)相比实现了 2.1 倍至 5.7 倍的加速,与 Megatron 上下文并行 + 张量并行相比实现了 1.1 倍至 1.4 倍的加速。

图片

下图为 LongVILA 技术在处理长视频字幕时的示例:在字幕开头,8 帧的基线模型仅描述了静态图像和两辆车。相比之下,256 帧的 LongVILA 描述了雪地上的汽车,包括车辆的前、后和侧面视图。在细节上,256 帧的 LongVILA 还描述了点火按钮、变速杆和仪表盘的特写,这些在 8 帧的基线模型中是缺失的。

图片

多模态序列并行

训练长上下文视觉语言模型(VLM)会产生大量内存需求。例如下图 1 中 Stage 5 的长视频训练,单个序列包含了产生 1024 个视频帧的 200K tokens,这超出了单个 GPU 的内存容量。

研究者开发了一个基于序列并行的定制系统。序列并行是当前基础模型系统中常用的一种技术,用于优化仅文本的 LLM 训练。不过,研究者发现现有系统既不高效,扩展性也不足以处理长上下文 VLM 工作负载。

在确定现有系统的局限性之后,研究者得出结论,一个理想的多模态序列并行方法应该通过解决模态和网络异构性来优先实现效率和可扩展性,并且扩展性不应受到注意力头数量的限制。

MM-SP 工作流。为了应对模态异构性的挑战,研究者提出了一种两阶段式分片策略,以优化图像编码和语言建模阶段的计算工作负载。

具体如下图 4 所示,第一阶段首先在序列并行进程组内的设备之间均匀地分布图像(比如视频帧),从而在图像编码阶段实现负载平衡。第二阶段,研究者聚合全局视觉和文本输入以进行 token 级分片。

图片

2D 注意力并行。为了解决网络异构性并实现可扩展性,研究者结合环形(Ring)序列并行和 Ulysses 序列并行的优势。

具体来讲,他们将跨序列维或注意力头维的并行视为「1D SP」。该方法通过跨注意力头和序列维的并行计算来实现扩展,将 1D SP 转换为由独立的 Ring(P2P)和 Ulysses(A2A)进程组组成的 2D 网格。

以下图 3 左所示,为了实现跨 2 个节点的 8-degree 序列并行,研究者使用 2D-SP 构建了一个 4×2 通信网格。

图片

此外,在下图 5 中,为了进一步解释 ZIGZAG-RINGATTN 如何平衡计算以及 2D-Attention 机制如何运作,研究者解释了使用不同方法的注意力计算计划。

图片

与 HuggingFace 的原生 pipeline 并行策略相比,本文的推理模式更加高效,原因在于所有设备同时参与计算,从而与机器数量呈正比地加速进程,具体如下图 6 所示。同时,该推理模式是可扩展的,内存均匀地分布给各个设备,以使用更多机器来支持更长的序列。

图片

LongVILA 训练流程

上文提到,LongVILA 的训练流程分为 5 个阶段完成。各个阶段的主要任务分别如下:

在 Stage 1,只有多模态映射器可以训练,其他映射器被冻结。

在 Stage 2,研究者冻结了视觉编码器,并训练了 LLM 和多模态映射器。

在 Stage 3,研究者针对短数据指令遵循任务对模型全面进行微调,比如使用图像和短视频数据集。

在 Stage 4,研究者以持续预训练的方式,使用仅文本的数据集来扩展 LLM 的上下文长度。

在 Stage 5,研究者通过长视频监督微调来增强指令遵循能力。值得注意的是,所有参数在该阶段是可训练的。

实验结果

研究者从系统和建模两个方面对本文全栈解决方案进行评估。他们首先展示了训练和推理结果,从而说明了可支持长上下文训练和推理的系统实现了效率和可扩展性。接着评估了长上下文模型在字幕和指令遵循任务上的表现。

训练与推理系统

该研究对训练系统的吞吐量、推理系统的延迟以及支持的最大序列长度进行了定量评估。

表 2 显示了吞吐量结果。与 ZIGZAG-RINGATTN 相比,本文系统实现了 2.1 倍至 5.7 倍的加速,性能与 DeepSpeed-Ulysses 相当。与 Megatron-LM CP 中更优化的环形序列并行实现相比,实现了 3.1 倍至 4.3 倍的加速。

图片

该研究通过逐步将序列长度从 1k 增加到 10k 来评估固定数量 GPU 支持的最大序列长度,直到发生内存不足错误。结果总结在图 9 中。

当扩展到 256 个 GPU 时,本文方法可以支持大约 8 倍的上下文长度。此外,所提系统实现了与 ZIGZAG-RINGATTN 类似的上下文长度扩展,在 256 个 GPU 上支持超过 200 万的上下文长度。

图片

表 3 比较了支持的最大序列长度,该研究提出的方法支持的序列比 HuggingFace Pipeline 支持的序列长 2.9 倍。

图片

图 11 展示了长视频大海捞针实验的结果。相比之下,LongVILA 模型(右)在一系列帧数和深度上都表现出了增强的性能。

图片

表 5 列出了各种模型在 Video MME 基准上的表现,比较了它们在短视频、中视频和长视频长度上的有效性以及整体性能。LongVILA-8B 采用 256 帧,总分为 50.5。

![图片](https://mmbiz.qpic.cn/sz_mmbiz_png/KmXPK

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

现在,长上下文视觉语言模型(VLM)有了新的全栈解决方案 ——LongVILA,它集系统、模型训练与数据集开发于一体。

现阶段,将模型的多模态理解与长上下文能力相结合是非常重要的,支持更多模态的基础模型可以接受更灵活的输入信号,以便人们可以以更多样化的方式与模型交互。


而更长的上下文使模型处理的信息更多,例如长文档、长视频,这种能力同样为更多现实世界的应用程序提供了所需的功能。

然而,目前面临的问题是一些工作已经启用了长上下文视觉语言模型(VLM),但通常是采用简化的方法,而不是提供一个全面的解决方案。

全栈设计对于长上下文视觉语言模型至关重要。训练大型模型通常是一项复杂而系统的工作,需要数据工程和系统软件协同设计。与纯文本 LLM 不同,VLM(例如 LLaVA)通常需要独特的模型架构和灵活的分布式训练策略。

此外,长上下文建模不仅需要长上下文数据,还需要能够支持内存密集型长上下文训练的基础设施。因此,对于长上下文 VLM 来说,精心规划的全栈设计(涵盖系统、数据和 pipeline)是必不可少的。

本文,来自英伟达、MIT、UC 伯克利、得克萨斯大学奥斯汀分校的研究者引入了 LongVILA,这是一种用于训练和部署长上下文视觉语言模型的全栈解决方案,包括系统设计、模型训练策略和数据集构建。

图片1


对于训练基础设施,该研究建立了一个高效且用户友好的框架,即多模态序列并行 (MM-SP),它支持训练记忆 - 密集型长上下文 VLM。

对于训练 pipeline,研究者实施了一个五阶段训练流程,如图 1 所示:即 (1) 多模态对齐,(2) 大规模预训练,(3) 短监督微调,(4) LLM 的上下文扩展,以及 (5) 长监督微调。

对于推理,MM-SP 解决了 KV 缓存内存使用率的挑战, 这在处理非常长的序列时会成为瓶颈。

通过使用 LongVILA 增加视频帧数,实验结果表明该研究在 VideoMME 和长视频字幕任务上的性能持续提高。在 1024 帧上训练的 LongVILA 模型在 1400 帧的大海捞针实验中实现了 99.5% 的准确率,相当于 274k 个 token 的上下文长度。此外, MM-SP 系统可以有效地将上下文长度扩展到 200 万个 token 而无需梯度检查点,与环形序列并行(ring sequence parallelism)相比实现了 2.1 倍至 5.7 倍的加速,与 Megatron 上下文并行 + 张量并行相比实现了 1.1 倍至 1.4 倍的加速。

图片2

下图为 LongVILA 技术在处理长视频字幕时的示例:在字幕开头,8 帧的基线模型仅描述了静态图像和两辆车。相比之下,256 帧的 LongVILA 描述了雪地上的汽车,包括车辆的前、后和侧面视图。在细节上,256 帧的 LongVILA 还描述了点火按钮、变速杆和仪表盘的特写,这些在 8 帧的基线模型中是缺失的。

多模态序列并行

训练长上下文视觉语言模型(VLM)会产生大量内存需求。例如下图 1 中 Stage 5 的长视频训练,单个序列包含了产生 1024 个视频帧的 200K tokens,这超出了单个 GPU 的内存容量。

研究者开发了一个基于序列并行的定制系统。序列并行是当前基础模型系统中常用的一种技术,用于优化仅文本的 LLM 训练。不过,研究者发现现有系统既不高效,扩展性也不足以处理长上下文 VLM 工作负载。

图片3

在确定现有系统的局限性之后,研究者得出结论,一个理想的多模态序列并行方法应该通过解决模态和网络异构性来优先实现效率和可扩展性,并且扩展性不应受到注意力头数量的限制。

MM-SP 工作流。为了应对模态异构性的挑战,研究者提出了一种两阶段式分片策略,以优化图像编码和语言建模阶段的计算工作负载。

具体如下图 4 所示,第一阶段首先在序列并行进程组内的设备之间均匀地分布图像(比如视频帧),从而在图像编码阶段实现负载平衡。第二阶段,研究者聚合全局视觉和文本输入以进行 token 级分片。

图片4

2D 注意力并行。为了解决网络异构性并实现可扩展性,研究者结合环形(Ring)序列并行和 Ulysses 序列并行的优势。

具体来讲,他们将跨序列维或注意力头维的并行视为「1D SP」。该方法通过跨注意力头和序列维的并行计算来实现扩展,将 1D SP 转换为由独立的 Ring(P2P)和 Ulysses(A2A)进程组组成的 2D 网格。

以下图 3 左所示,为了实现跨 2 个节点的 8-degree 序列并行,研究者使用 2D-SP 构建了一个 4×2 通信网格。

图片5

此外,在下图 5 中,为了进一步解释 ZIGZAG-RINGATTN 如何平衡计算以及 2D-Attention 机制如何运作,研究者解释了使用不同方法的注意力计算计划。

图片6

与 HuggingFace 的原生 pipeline 并行策略相比,本文的推理模式更加高效,原因在于所有设备同时参与计算,从而与机器数量呈正比地加速进程。同时,该推理模式是可扩展的,内存均匀地分布给各个设备,以使用更多机器来支持更长的序列。

图片7

LongVILA 训练流程

上文提到,LongVILA 的训练流程分为 5 个阶段完成。各个阶段的主要任务分别如下:

  • 在 Stage 1,只有多模态映射器可以训练,其他映射器被冻结。
  • 在 Stage 2,研究者冻结了视觉编码器,并训练了 LLM 和多模态映射器。
  • 在 Stage 3,研究者针对短数据指令遵循任务对模型全面进行微调,比如使用图像和短视频数据集。
  • 在 Stage 4,研究者以持续预训练的方式,使用仅文本的数据集来扩展 LLM 的上下文长度。
  • 在 Stage 5,研究者通过长视频监督微调来增强指令遵循能力。值得注意的是,所有参数在该阶段是可训练的。

实验结果

研究者从系统和建模两个方面对本文全栈解决方案进行评估。他们首先展示了训练和推理结果,从而说明了可支持长上下文训练和推理的系统实现了效率和可扩展性。接着评估了长上下文模型在字幕和指令遵循任务上的表现。

训练与推理系统

该研究对训练系统的吞吐量、推理系统的延迟以及支持的最大序列长度进行了定量评估。

表 2 显示了吞吐量结果。与 ZIGZAG-RINGATTN 相比,本文系统实现了 2.1 倍至 5.7 倍的加速,性能与 DeepSpeed-Ulysses 相当。与 Megatron-LM CP 中更优化的环形序列并行实现相比,实现了 3.1 倍至 4.3 倍的加速。

图片8

该研究通过逐步将序列长度从 1k 增加到 10k 来评估固定数量 GPU 支持的最大序列长度,直到发生内存不足错误。结果总结在图 9 中。

当扩展到 256 个 GPU 时,本文方法可以支持大约 8 倍的上下文长度。此外,所提系统实现了与 ZIGZAG-RINGATTN 类似的上下文长度扩展,在 256 个 GPU 上支持超过 200 万的上下文长度。

图片9

表 3 比较了支持的最大序列长度,该研究提出的方法支持的序列比 HuggingFace Pipeline 支持的序列长 2.9 倍。

图片10

图 11 展示了长视频大海捞针实验的结果。相比之下,LongVILA 模型(右)在一系列帧数和深度上都表现出了增强的性能。

图片11

表 5 列出了各种模型在 Video MME 基准上的表现,比较了它们在短视频、中视频和长视频长度上的有效性以及整体性能。LongVILA-8B 采用 256 帧,总分为 50.5。

图片12

研究者还在表 6 对第 3 阶段和第 4 阶段的影响进行了消融研究。

图片13

表 7 显示了在不同帧数(8、128 和 256)上训练和评估的 LongVILA 模型的性能指标。随着帧数的增加,模型的性能显著提高。具体来说,平均分数从 2.00 上升到 3.26, 突显了模型在更多帧数下生成准确丰富字幕的能力。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB