奢侈品巨头LVMH家族办公室全力进军AI领域,仅2024年就投了5家创企

LVMH是全球市值最大的奢侈品公司,其创始人兼首席执行官Bernard Arnault身家估为1907亿美元,而其家族财富值已位居世界第一。

除了奢侈品,Bernard Arnault还一直在人工智能(AI)领域积极进行投资。


在2024年,Arnault的家族办公室Aglaé Ventures已经进行了五次与AI相关的投资,而在过去八个月的融资总金额达3亿美元。

image

H由前谷歌DeepMind研究员创立,前身为Holistic AI,该公司在今年5月从包括Bernard Arnault、前谷歌首席执行官、三星和亚马逊在内的一组投资者那里筹集了2.2亿美元。由前斯坦福研究员Charles Kantor领导的H旨在开发通用人工智能(AGI),旨在创造一种与人类一样智能和高效的人工智能。

今年3月,Arnault共同领导了加拿大初创公司Borderless AI的2700万美元种子轮融资,该公司致力于将人工智能应用于人力资源领域。今年2月,该公司还与Balderton Capital共同领导了法国初创公司Photoroom的4300万美元融资,该公司正在开发一款AI照片编辑平台。

其他投资对象还包括一些美国的初创公司,Arnault支持了位于加州的Lamini,一家专注于企业人工智能平台的公司。

image

今年6月,该公司从Aglaé、OpenAI联合创始人Andrej Karpathy和Google Brain联合创始人Andrew Ng处筹集了2500万美元。同样在今年4月,Arnault参与了纽约的数据智能软件公司Proxima的一轮A轮融资,本次筹集了1200万美元。

不过,Aglaé在这些公司中的投资金额并未对外披露。

此前,Aglaé还曾参与过四轮融资,投资了总部位于巴黎的AI照片创作公司Meero,该公司于2017年至2019年间完成了这些融资。

要说起来,Bernard Arnault在投资成功的科技初创公司方面早有悠久的经验,其家族办公室曾在1999年投资了Netflix,2014年投资了Spotify,2015年投资了Airbnb。

自2017年以来,Aglaé已经进行了153项投资,其中53项投资是针对科技领域的公司。

值得注意的是,LV这家奢侈品集团近年来不断在尝试AI这一新兴领域。

image

2021年,LVMH与Google Cloud签署了为期五年的战略合作伙伴关系,将AI解决方案整合到需求预测和库存优化等功能中。去年9月,公司举办了第二届LVMH数据人工智能峰会,并选择生成式人工智能作为主题,汇集了数百名参与者。

今年5月,LVMH还参加了巴黎的年度科技贸易展览会VivaTech,自2016年首届以来,该集团一直参与其中。

在VivaTech贸易展览会上,LVMH集团向各类创新奖提名的初创企业颁发了七座奖杯,其中包括中国公司FancyTech——使用生成式人工智能开发的视频制作软件,以及借助AI技术将珠宝草图转换为视觉设计的公司BLNG。

Arnault在VivaTech展会上还表示,为了经得起时间的考验,公司必须强调创造力、质量、企业家精神和效率等价值观。

原文来源于:

1.https://www.pymnts.com/news/investment-tracker/2024/lvmh-founder-bernard-arnaults-family-firm-invests-in-ai-companies/
2.https://observer.com/2024/08/lvmh-bernard-arnault-ai-startup-investment/
3.https://fashionunited.uk/news/business/lvmh-innovation-award-2024-bernard-arnault-prioritises-ai-with-fancytech/2024052475731

中文内容由元宇宙之心(MetaverseHub)团队编译,如需转载请联系我们。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

曙光存储的“引力弹弓”,让AI向产业宇宙加速狂奔

《流浪地球》中,科学家利用木星的“引力弹弓”效应,为地球加速,成功脱离危机,是整部电影最激动人心的高潮段落。加速,不仅在科幻电影中揪人心弦,对AI行业也十分重要。


比如说,千亿级大模型必须写容错点checkpoint,一旦数据存储发生灾难性故障,导致AI训练中断,对于一些着急上线的企业来说,时间就是生命线,可能造成难以弥补的损失。所以说,确保AI快速稳定地进行,是产业智能化的必要条件。为AI加速,存储也可以起到“引力弹弓”效应。试想一下,当你正在滑滑板,有一个速度很快的人从你旁边经过,拉了你一把,就如同弹弓弓弦一样,给了你一个加速前进的力。存力之于AI,就起到了类似的作用。存力和算力互相协同,通过存力来缩短数据读写时间,减少算力的空转等待时间,可以有效提升AI大模型的训练效率。不过,想充分释放存力的“引力弹弓”效应,传统存储的性能、可靠性等,就有些力不从心了。锻造一张最适合AI的“引力弹弓”,曙光存储出手了。此前,曙光推出的智存产品搭载五级加速方案,已经在政务、科研、金融、医疗等行业场景,相继落地。就在近期,又宣布与智元机器人合作,成为具身智能领域的存力伙伴。在曙光存储的存力底座上,越来越多的AI模型/能力,正加速奔向产业宇宙。我们就跟随这张“引力弹弓”的发射方向,来一场奔赴星辰大海的AI之旅吧。“引力弹弓”效应,利用了宇宙中天体的引力,当航天器进入引力影响范围时,被拉了一把,行程就会开始加速。对AI来说,存储也自带加速“引力”吗?答案是肯定的。至少从四个方面,存储可以“拉”AI一把:首先是性能。计算越复杂,对存储性能和带宽的要求越高,存储必须足够快,才能匹配上GPU或AI芯片,否则就会导致算力空载、空转或等待。在模型训练中断时从checkpoint快速写回,也可以提高AI计算效率。其次是质量。“garbage in,garbage out(垃圾进,垃圾出)”,存储承载的数据质量,直接影响到大模型训练的效果,随着大模型需要“咀嚼”的数据规模、类型越来越多,AI存储必须具备对海量规模、异构等数据的高效吞吐和处理能力。第三是安全。存储系统的管理审计、权限管理等,从数据I/O通路上保证用户数据的安全可靠,不会有篡改、不可追溯等问题,也是AI用户十分看重的。第四是优化。存储可以结合用户业务,进行一些个性化的微调与适配,比如了解到业务数据中的大文件多还是小文件多,随机访问多还是顺序访问多,在此基础上进行参数调整,可以针对性优化,提升业务体验。因此,存储在AI基础设施中的优先级不断提高。去年大模型爆火初期,AI行业用户一开始只关注存储产品的容量,后续则慢慢意识到存储的性能、开放兼容性、AI应用适配性等更多维度指标的重要性。从能用到智用,存储之于AI的“引力”正越来越大,起到了越来越重要的加速作用。AI存储对行业用户的吸引力,越来越大,但动辄万亿参数、万卡集群的AI大模型,对存储的要求也指数级上升。市面上是否有超强AI存力的产品,像木星推动地球一样,发挥出强大天体才具备的“引力弹弓效应”呢?曙光决定来打造一个。曙光ParaStor分布式全闪存储,作为最懂AI的存储产品,核心特点就是一个字:快。可以将AI整体表现提升20倍以上,让数据无需等待,AI也就快人一步。具体是怎么做到的?曙光存储运营总监石静向我们解密。这张最适合AI的“引力弹弓”,有两大核心:一是最强的数据底座,二是最佳的AI应用加速套件。可以这样理解,数据底座就像是天体本身的引力足够大、足够强。曙光存储的ParaStor分布式全闪存储,在整个硬件层面进行提升,可以发挥出极致性能。带宽倍数提升,单个节点可以做到最高150GB/s带宽,一秒钟提供150G的数据吞吐。IOPS十倍提升,一秒钟可以处理320万个I/O请求,实现高效吞吐。而应用套件,就像是在原有引力基础上再造一个加速引擎,推动AI走得更快。ParaStor分布式全闪存储采用了业内独家的“五级加速方案”,尽可能地缩短整个I/O流程,让数据更加靠近计算,分别实现了本地内存、Burst Buffer加速层、网络层(RDMA-Based)、存储节点高速层( NVMe SSD-Based )、应用层(存储直达GPU)的五层加速。最强数据底座+五级加速的最佳AI应用加速套件,成为一张强有力的“引力弹弓”,让AI表现提升20倍,可以去往更广阔的产业天地。利用“引力弹弓效应”,人造航空器“旅行者1号” 飞出了太阳系,进入了太阳系外更广阔的宇宙空间。曙光存储可以让AI走得更快,那么能推动AI走得更远吗?目前来看,答案是确定的。作为分布式存储市场领导者象限中排名第一的厂商,曙光也在AI赛道上起到了引领作用。曙光存储走向行业的足迹,连起来,就是AI迈向产业的“轨迹”。为AI筑底座。曙光存储与中国移动合作,为其新型智算中心提供存储底座,助力万卡甚至超万卡集群的建设,算力网络AI注智赋能,有望为各行各业提供澎湃的智能算力。泉州智慧城市大脑,借助新一代曙光存储的异构融合能力,实现海量异构数据资源的融合,打造更坚实的“数字底座”。为AI谋效率。在与某AI大模型厂商的合作中,曙光存储的ParaStor分布式全闪存储,单节点150GB/s带宽和320万IOPS,整体训练效率提升50%以上,有了高效率的支撑大模型厂商更快推出产品来满足市场需求。为AI降成本。目前,曙光存储实现了国内外双栈技术生态全兼容(CPU/GPU/OS/DB/Cloud),可以应对AI算力多元异构的技术挑战,支持国内外不同厂商、不同架构、不同版本的算卡,以及多样的大模型,帮助行业客户在智能化过程中,实现成本均衡。更合理的成本,也可以加速AI的产业化进程。为AI谋新篇。在具身智能等新兴领域,曙光存储深入了解行业痛点,针对具身智能机器人低时延、高性能、丝滑体验等刚需,凭借快训练、快归档和合理成本等优势,为智元机器人打造坚实存储底座,让智元机器人可以实时、高效、丝滑地运行,及时处理故障,保持在最佳状态,加速商用进程,开启具身智能的新纪元。不难看到,一张强大存储的“引力弹弓”,正推动AI走得又快又稳又远,走向广袤的产业宇宙。可能有人会问,为什么最适配AI的存储,会率先诞生在中国、在曙光?首先,曙光与国内AI的距离最近。可以针对性地满足国內AI厂商的定制化开发需求,这是海外厂商很难具备的。此外,曙光自主研发实力很强。有国产化要求、担心海外供应链风险、追求完全自研的厂商,曙光存储有极强的吸引力。而AI新技术,也要求存储厂商需要更多地跟介质厂商、网络厂商交互,共同探索全新的方案。以及在存储系统中纳入AI的能力,在算法上面有更多的积淀。因此,对存储厂商的综合能力、生态合作等,也都提出了新的要求。从这个角度讲,曙光存储在AI领域的“引力弹弓”效应,也将进一步推动国产存储厂商的跟进与升级。当越来越多的国产先进存储,为AI提供加速引力,一定会将AI推向更广阔的产业地带。那时,我们将看到一个更加辽阔璀璨的智能中国。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

奢侈品巨头LVMH家族办公室全力进军AI领域,仅2024年就投了5家创企

LVMH是全球市值最大的奢侈品公司,其创始人兼首席执行官Bernard Arnault身家估为1907亿美元,而其家族财富值已位居世界第一。

除了奢侈品,Bernard Arnault还一直在人工智能(AI)领域积极进行投资。


在2024年,Arnault的家族办公室Aglaé Ventures已经进行了五次与AI相关的投资,而在过去八个月的融资总金额达3亿美元。

Image

H由前谷歌DeepMind研究员创立,前身为Holistic AI,该公司在今年5月从包括Bernard Arnault、前谷歌首席执行官、三星和亚马逊在内的一组投资者那里筹集了2.2亿美元。由前斯坦福研究员Charles Kantor领导的H旨在开发通用人工智能(AGI),旨在创造一种与人类一样智能和高效的人工智能。

今年3月,Arnault共同领导了加拿大初创公司Borderless AI的2700万美元种子轮融资,该公司致力于将人工智能应用于人力资源领域。今年2月,该公司还与Balderton Capital共同领导了法国初创公司Photoroom的4300万美元融资,该公司正在开发一款AI照片编辑平台。

其他投资对象还包括一些美国的初创公司,Arnault支持了位于加州的Lamini,一家专注于企业人工智能平台的公司。

Image

今年6月,该公司从Aglaé、OpenAI联合创始人Andrej Karpathy和Google Brain联合创始人Andrew Ng处筹集了2500万美元。同样在今年4月,Arnault参与了纽约的数据智能软件公司Proxima的一轮A轮融资,本次筹集了1200万美元。

不过,Aglaé在这些公司中的投资金额并未对外披露。

此前,Aglaé还曾参与过四轮融资,投资了总部位于巴黎的AI照片创作公司Meero,该公司于2017年至2019年间完成了这些融资。

要说起来,Bernard Arnault在投资成功的科技初创公司方面早有悠久的经验,其家族办公室曾在1999年投资了Netflix,2014年投资了Spotify,2015年投资了Airbnb。

自2017年以来,Aglaé已经进行了153项投资,其中53项投资是针对科技领域的公司。

值得注意的是,LV这家奢侈品集团近年来不断在尝试AI这一新兴领域。

Image

2021年,LVMH与Google Cloud签署了为期五年的战略合作伙伴关系,将AI解决方案整合到需求预测和库存优化等功能中。去年9月,公司举办了第二届LVMH数据人工智能峰会,并选择生成式人工智能作为主题,汇集了数百名参与者。

今年5月,LVMH还参加了巴黎的年度科技贸易展览会VivaTech,自2016年首届以来,该集团一直参与其中。

在VivaTech贸易展览会上,LVMH集团向各类创新奖提名的初创企业颁发了七座奖杯,其中包括中国公司FancyTech——使用生成式人工智能开发的视频制作软件,以及借助AI技术将珠宝草图转换为视觉设计的公司BLNG。

Arnault在VivaTech展会上还表示,为了经得起时间的考验,公司必须强调创造力、质量、企业家精神和效率等价值观。

原文来源于:

  1. https://www.pymnts.com/news/investment-tracker/2024/lvmh-founder-bernard-arnaults-family-firm-invests-in-ai-companies/
  2. https://observer.com/2024/08/lvmh-bernard-arnault-ai-startup-investment/
  3. https://fashionunited.uk/news/business/lvmh-innovation-award-2024-bernard-arnault-prioritises-ai-with-fancytech/2024052475731

中文内容由元宇宙之心(MetaverseHub)团队编译,如需转载请联系我们。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

曙光存储的“引力弹弓”,让AI向产业宇宙加速狂奔

《流浪地球》中,科学家利用木星的“引力弹弓”效应,为地球加速,成功脱离危机,是整部电影最激动人心的高潮段落。加速,不仅在科幻电影中揪人心弦,对AI行业也十分重要。


比如说,千亿级大模型必须写容错点checkpoint,一旦数据存储发生灾难性故障,导致AI训练中断,对于一些着急上线的企业来说,时间就是生命线,可能造成难以弥补的损失。所以说,确保AI快速稳定地进行,是产业智能化的必要条件。为AI加速,存储也可以起到“引力弹弓”效应。试想一下,当你正在滑滑板,有一个速度很快的人从你旁边经过,拉了你一把,就如同弹弓弓弦一样,给了你一个加速前进的力。存力之于AI,就起到了类似的作用。存力和算力互相协同,通过存力来缩短数据读写时间,减少算力的空转等待时间,可以有效提升AI大模型的训练效率。不过,想充分释放存力的“引力弹弓”效应,传统存储的性能、可靠性等,就有些力不从心了。锻造一张最适合AI的“引力弹弓”,曙光存储出手了。此前,曙光推出的智存产品搭载五级加速方案,已经在政务、科研、金融、医疗等行业场景,相继落地。就在近期,又宣布与智元机器人合作,成为具身智能领域的存力伙伴。在曙光存储的存力底座上,越来越多的AI模型/能力,正加速奔向产业宇宙。我们就跟随这张“引力弹弓”的发射方向,来一场奔赴星辰大海的AI之旅吧。“引力弹弓”效应,利用了宇宙中天体的引力,当航天器进入引力影响范围时,被拉了一把,行程就会开始加速。对AI来说,存储也自带加速“引力”吗?答案是肯定的。至少从四个方面,存储可以“拉”AI一把:首先是性能。计算越复杂,对存储性能和带宽的要求越高,存储必须足够快,才能匹配上GPU或AI芯片,否则就会导致算力空载、空转或等待。在模型训练中断时从checkpoint快速写回,也可以提高AI计算效率。其次是质量。“garbage in,garbage out(垃圾进,垃圾出)”,存储承载的数据质量,直接影响到大模型训练的效果,随着大模型需要“咀嚼”的数据规模、类型越来越多,AI存储必须具备对海量规模、异构等数据的高效吞吐和处理能力。第三是安全。存储系统的管理审计、权限管理等,从数据I/O通路上保证用户数据的安全可靠,不会有篡改、不可追溯等问题,也是AI用户十分看重的。第四是优化。存储可以结合用户业务,进行一些个性化的微调与适配,比如了解到业务数据中的大文件多还是小文件多,随机访问多还是顺序访问多,在此基础上进行参数调整,可以针对性优化,提升业务体验。因此,存储在AI基础设施中的优先级不断提高。去年大模型爆火初期,AI行业用户一开始只关注存储产品的容量,后续则慢慢意识到存储的性能、开放兼容性、AI应用适配性等更多维度指标的重要性。从能用到智用,存储之于AI的“引力”正越来越大,起到了越来越重要的加速作用。AI存储对行业用户的吸引力,越来越大,但动辄万亿参数、万卡集群的AI大模型,对存储的要求也指数级上升。市面上是否有超强AI存力的产品,像木星推动地球一样,发挥出强大天体才具备的“引力弹弓效应”呢?曙光决定来打造一个。曙光ParaStor分布式全闪存储,作为最懂AI的存储产品,核心特点就是一个字:快。可以将AI整体表现提升20倍以上,让数据无需等待,AI也就快人一步。具体是怎么做到的?曙光存储运营总监石静向我们解密。这张最适合AI的“引力弹弓”,有两大核心:一是最强的数据底座,二是最佳的AI应用加速套件。可以这样理解,数据底座就像是天体本身的引力足够大、足够强。曙光存储的ParaStor分布式全闪存储,在整个硬件层面进行提升,可以发挥出极致性能。带宽倍数提升,单个节点可以做到最高150GB/s带宽,一秒钟提供150G的数据吞吐。IOPS十倍提升,一秒钟可以处理320万个I/O请求,实现高效吞吐。而应用套件,就像是在原有引力基础上再…


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

教育公司,正在发狠做硬件

学习机等教育硬件,正在让学习这件事情变得更加有趣且高效。

文 | 陈俊一
编辑 | 刘欢
教育领域,正在面临一场跨界竞争。


而跨界者,可能是类似百度、科大讯飞这样的科技公司。这些科技公司正推出各类教育硬件,以及自己的教育大模型。
而以往K12领域的教育公司,也同样在发狠做教育硬件。不管是好未来、新东方,还是猿辅导、作业帮、松鼠AI、网易有道,或者是学大、昂立、高途、高思、思考乐,甚至一些地域性龙头教育培训公司,不管是做硬件,还是引入各类大模型,都试图利用AI技术去寻找“双减”之后的“增量市场”。

转型科技公司
只是换了一种更适合的教育服务方式?
很多人担忧,随着出生人口的递减,K12阶段学生数量减少会导致K12教育市场的萎缩。
但其实,K12最主要的中小学阶段,在校生数量还是在稳步增长的。
据教育部今年3月公布的数据,2023年小学阶段在校生1.08亿人,比上年增加103.97万人;初中阶段在校生5243.69万人,比上年增加123.1万人;普通高中在校生2803.63万人,比上年增加89.75万人。也就是说,中小学阶段,学生数量还是在增长。而K12教育的大头也在中小学阶段,所以市场整体还是稳定的。
不过,同时公布的学前教育在园幼儿数是4092.98万人。2021年,学前教育在园幼儿4805.2万人,比上年减少13.1万人,多年来在园幼儿数量出现首次下降。此后就接连下降,2023年已经比2021年少了712.22万人。也就是说,虽然目前中小学阶段在校生是稳定的,但幼儿园阶段的数据,却不够乐观。
毕竟,对于市场来说,不少人不仅看现在的市场,还要去看未来的市场。
不管是跨界者还是长期玩家,要想做好教育这块大市场,肯定需要了解最基本的在校生数量等基本情况。
出生人口数下降,教育市场还能不能增长?实际上,由于小学和中学都有6个年级,整体12年积累学生数,足以平滑短期内在园幼儿数的下降。也就是说,至少最近十年左右,K12教育领域的整体大盘子还是有希望保持稳定。
而且,以往的孩子们,并没有使用大模型时代的AI产品去改善自己的学习。但最近几年,特别是进入2024年以来,大模型正深度介入中小学生的学习过程,能够基于学生的学力与兴趣,推荐最适合他们的学习方案。所以,目前所有的存量市场,都是教育大模型以及各类AI教育硬件的增量市场。
以往的利用艾宾浩斯遗忘曲线、间隔重复、费曼学习法等策略的传统教育方法,往往缺乏个性化和灵活性。而借助大模型,能够实时分析学生的学习进度和掌握程度,精准地调整学习计划,让预习、复习等学习过程更加高效。大模型甚至还可以通过分析学生的情感和行为数据,及时调整教学内容的呈现方式,避免学生因为学习压力过大而产生厌学情绪。
我们无法预测教育市场几十年后会如何,但只要未来十年教育市场依然保持巨量的规模,对赛道中的企业而言,就值得全力以赴。
近日国务院印发的《关于促进服务消费高质量发展的意见》也提出,推动社会培训机构面向公众需求提高质量;满足大众多元化学习需求;激发教育和培训消费活力等内容。
可以说,教育市场依然大有可为。而且,由于新一代家长以及新入园、入学的孩子们更适应各类AI产品,教育公司们转型成科技公司,其实只是提供了一种更适合的教育服务方式。
今年2月,相关部门还发布《校外培训管理条例(征求意见稿)》,首次明确了定义“校外培训”,即指学校教育体系外,面向社会开展的,以中小学生和3至6岁学龄前儿童为对象,以提高学业水平或者培养兴趣特长等为主要目的,有组织或系统性的教育培训活动。在更多规范化管理之下,正如中国民办教育协会所说,《条例》旨在推动依法管理校外培训,既非“收紧”也非“放开”。
实际上,K12教育培训已经进入了全新的阶段,那就是为学生提供不造成负担的更多教育服务。
特别是以各类教育硬件为代表的新型教育服务。

仅看京东平台上的点评数据,不少教育硬件都具备10万条以上的购买评价。这些教育硬件,已经成为教育公司们重要的业务板块。

教育的大模型时代来了
早在政策趋暖之前,大模型已经开始赋能教育。
生成式AI与大模型技术,让教育领域以往的不可能三角——个性化、高质量和大规模难以同时实现,变得可能了。以往的个性化只能通过一对一教学实现,但一对一很难大规模且成本太高。而大模型,带来了全新的可能。
一方面,传统的线下教育公司和线上辅导平台面临着来自科技大厂的激烈竞争。
比如科大讯飞,不仅以学习平板等教育硬件切入教育市场,其发布的讯飞星火大模型更是以大模型赋能教育,讯飞星火大模型的每一次升级迭代都与教育紧密结合。今年6月发布的讯飞星火大模型4.0,就已经助力讯飞星火APP/Desk打造教育AI助手;赋能星火智能批阅机的“AI助教”功能;并助力讯飞AI学习机升级1对1答疑辅导的软件功能。
科大讯飞、百度们,正借助自身科技大厂的渠道与技术影响力,正在攻入好未来、新东方们的阵地。
另一方面,更多新的市场参与者不断涌现,推动教育赛道在技术创新上向技术赛道靠拢。
比如2023年7月,网易有道推出教育领域垂直大模型“子曰”,此外其词典笔等AI大模型学习硬件在市场上也有较强竞争力。好未来在2023年8月也推出MathGPT,继续在数学领域发挥自己教研上的优势。
今年7月,清华系企业紫光摩度也发布了包括口袋学习机、教育数字基座等多款产品,还发布了教育专属大模型MoGPT1.0。据了解MoGPT1.0使用72B基座,可以在数学解题上进行多模态教学讲解。
大模型产品不同于以往的教育信息化设备,是其在个性化答疑、讲解上蕴含的潜力。而新一代家长对教育产品的需求,也在从单一的课程辅导转变为全方位的学习支持服务。例如,通过大模型分析学生的学习习惯和能力,定制个性化的学习计划和课程内容。毕竟家长更注重个性化、高质量和便捷性,愿意为这些额外的价值付费。
从2023年至今,据不完全统计,教育圈已备案超40个大模型。
而新的教育大模型依然在不断出现。
8月23日,教育科技公司精准学宣布成功训练了中国首个语音端到端大模型“心流知镜-s(V02)”,可直接实现语音输入-语音输出的交互,使其更适配辅学场景,使大模型达到“真人老师”级别的自然对话交流体验。精准学表示,将于近期对外展示这项技术的应用成果。此外,其AI辅学机Bong系列已在天猫京东上线。
此前,精准学就基于通义千问开源Qwen-72B训练,打造了融合文本、语音及情绪的实时多模态教育垂直模型“心流知镜”。可以看出,教育大模型的模型参数量,普遍比通用大模型千亿级的参数要小。
精准学AI技术负责人张宁就曾解释,之所以选择通义千问的开源大模型,是因其尺寸规格以及模态丰富,能够快速有效地处理文本、语音、视觉的多模态交互,特别适合复杂的教育学习场景。
对于教育大模型而言,或许参数规模不是最重要的事情,而是要有能够反映真实学情且有高质量教研分析的大数据。基于高质量的数据,才能够研发出能够精准地满足学生具体需求、可以提供高度人性化的交互和深度个性化学习体验的教育大模型。
而这又衍生出另外一个问题:教育大模型的竞争,到底是软件的竞争还是硬件的竞争?到底是教研体系的竞争还是AI技术上的竞争?

教育硬件,核心是课程还是AI技术?
当前各大厂家推出的教育大模型,作为一种软件服务,主要还是搭载在以学习平板、学练本为主,以词典笔、口袋机等其他教育硬件为辅的教育硬件上。
教育硬件,仍是一种不可或缺的载体。
据洛图科技(RUNTO)数据显,2024 年第一季度,中国学习平板市场线上(含拼多多、抖音、快手平台)销量为 68.9 万台,同比增长 79.9%;学习平板线上市场均价为 3357 元,比去年同期上涨了573元,增幅高达 20.6%。在车企纷纷价格战的当下,很多消费品都在降价,而学习平板可是为数不多实现价格上涨的产品。
也就是说,线上渠道学习平板一季度销售额约23.13亿元。但这没有统计线下份额,由于学习平板线下渠道铺展也非常普遍,因此这个数据还只会更高。
但随着竞争的激烈,市场集中度有所下降,TOP4 品牌的合计份额(CR4)为 49.8%,较去年同期下降 11.3 个百分点。学而思、小度、小猿、作业帮位居前四,科大讯飞排名第五。
而且,第一季度的重点品牌新品在 AI 大模型应用上有了更深入的发展,产品功能从个性化学习扩展到教导学生学习方法等。
当学习平板都在比拼搭载的教育大模型时,其最重要的卖点,到底是搭载的各类课程体系,还是搭载的教育大模型呢?
以学而思学习平板为例,其搭载了电子版教材、专题课拓展校内知识,原版RAZ分级阅读、大语文、多元素养课、创新思维课等各类学习资源。
学而思总裁彭壮壮就曾表示,学而思学习机最独特的地方就是内容的超级硬核以及学而思近21年的教育经验。简而言之

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

阿里AI战略新叙事:“不被定义”的夸克

作者|周一笑
邮箱|zhouyixiao@pingwest.com

“夸克inside”,让每台电脑都成为AI电脑

想要一台AI电脑?别着急升级硬件,你只需要下载安装夸克PC端。夸克这次发布的PC端,在保持原有基础功能的基础上,重点升级了AI搜索、AI写作、AI PPT、AI文件总结等一系列功能。


这几乎囊括了当下用户所能接触到的,所有AI能够带来便利和效率提升的场景。虽然移动设备在日常生活中占据主导地位,但在生产力场景中,电脑强大的计算能力、更大的屏幕和更精确的处理方式为AI处理复杂任务提供了施展空间。此外,电脑灵活的生态系统也更有利于开发者进行AI创新和实验。这些特点使电脑成为AI应用落地的核心入口。夸克通过PC端这样的产品形态,可以解决大部分的办公和学习需求。不同于单点的AI插件类产品,夸克全新PC端另外一个亮点在于其“系统级全场景AI”能力。这一创新不再将AI局限于AI功能本身,而是将其无缝融入用户的整个电脑使用体验中。无论是在桌面、文档还是网页中,用户都能通过快捷键、划词、截屏、右键菜单或浏览器插件等多种方式,随时唤起夸克AI能力,实现搜索、写作和信息总结等功能。这种设计理念,使得每一台“夸克inside”的电脑,都具备了AI的魔力,成为系统级别的智能助手。AI的能力通常被封装在特定的应用中,用户需要在不同的应用间切换才能完成复杂的任务。而夸克将AI能力下沉到电脑系统层面,使其成为一种随处可用的基础…

图片来源:由GPTNB生成

……

图片来源:由GPTNB生成

……


来源:硅星人Pro

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

阿里AI战略新叙事:“不被定义”的夸克

来源:硅星人Pro

作者|周一笑
邮箱|zhouyixiao@pingwest.com

“夸克inside”,让每台电脑都成为AI电脑

想要一台AI电脑?别着急升级硬件,你只需要下载安装夸克PC端。夸克这次发布的PC端,在保持原有基础功能的基础上,重点升级了AI搜索、AI写作、AI PPT、AI文件总结等一系列功能。


这几乎囊括了当下用户所能接触到的,所有AI能够带来便利和效率提升的场景。虽然移动设备在日常生活中占据主导地位,但在生产力场景中,电脑强大的计算能力、更大的屏幕和更精确的处理方式为AI处理复杂任务提供了施展空间。此外,电脑灵活的生态系统也更有利于开发者进行AI创新和实验。这些特点使电脑成为AI应用落地的核心入口。夸克通过PC端这样的产品形态,可以解决大部分的办公和学习需求。不同于单点的AI插件类产品,夸克全新PC端另外一个亮点在于其“系统级全场景AI”能力。这一创新不再将AI局限于AI功能本身,而是将其无缝融入用户的整个电脑使用体验中。无论是在桌面、文档还是网页中,用户都能通过快捷键、划词、截屏、右键菜单或浏览器插件等多种方式,随时唤起夸克AI能力,实现搜索、写作和信息总结等功能。这种设计理念,使得每一台“夸克inside”的电脑,都具备了AI的魔力,成为系统级别的智能助手。

AI的能力通常被封装在特定的应用中,用户需要在不同的应用间切换才能完成复杂的任务。而夸克将AI能力下沉到电脑系统层面,使其成为一种随处可用的基础设施。这种设计理念不仅提高了用户效率,更重要的是,让AI交互体验完全融入于用户的日常操作行为中,几乎没有额外的学习成本,它可能改变用户与数字世界交互的方式,使AI成为一种常态化的体验。夸克早已不单单是AI搜索产品了。具体来看,夸克PC端本质上来说是借助了AI技术,对信息获取、展现和生成方式的一种改进,满足用户刚性需求的高频场景,为用户提供高效的信息处理和内容创作体验。在AI搜索上,一个月前的夸克超级搜索框,在保持简洁用户体验的基础上,将大模型与AI搜索深度结合,用户只要在超级搜索框输入需求,夸克就能明确识别真实意图,并返回给用户相匹配的结果。而夸克PC端的三栏式设计巧妙地将AI回答、原始信源和历史搜索融为一体,在单一界面内…



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

情感分析的终极形态:全景式细粒度多模态对话情感分析基准PanoSent

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。


如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.comzhaoyunfeng@jiqizhixin.com

罗盟,本工作的第一作者。新加坡国立大学(NUS)人工智能专业准博士生,本科毕业于武汉大学。主要研究方向为多模态大语言模型和 Social AI、Human-eccentric AI。

情感计算一直是自然语言处理等相关领域的一个火热的研究课题,最近的进展包括细粒度情感分析(ABSA)、多模态情感分析等等。

新加坡国立大学联合武汉大学、奥克兰大学、新加坡科技设计大学、南洋理工大学团队近期在这个方向上迈出了重要的一步,探索了情感分析的终极形态,提出了 PanoSent —— 一个全景式细粒度多模态对话情感分析基准。PanoSent 覆盖了全面的细粒度、多模态、丰富场景和认知导向的情感分析任务,将为情感计算方向开辟新的篇章,并引领未来的研究方向。该工作被 ACM MM 2024 录用为 Oral paper。

在人工智能领域,让机器理解人类情感是迈向真正智能化的重要一步。情感分析是自然语言处理领域的一个关键研究课题。通过多年的研究,情感分析在各个维度和方面取得了显著的发展。该领域已从传统的粗粒度分析(如文档和句子级别分析)发…
[section][img: link=https://mmbiz.qpic.cn/sz_mmbiz_png/KmXPKA19gWicABY1YmZuAX5zBYzibqxe4K82cK5FPib8ZI5bicoIwVQBwlndm9udLe4fwwfy9dYQgT7ICria3yjFS1w/640?wx_fmt=png&from=appmsg][/section]论文地址:https://www.arxiv.org/abs/2408.09481

项目地址:https://panosent.github.io/

研究背景

在人工智能领域,让机器理解人类情感是迈向真正智能化的重要一步。情感分析是自然语言处理领域的一个关键研究课题。通过多年的研究,情感分析在各个维度和方面取得了显著的发展。该领域已从传统的粗粒度分析(如文档和句子级别分析)发展到细粒度分析(例如 ABSA),融合了广泛的情感元素,并发展出提取目标、方面、观点和情感等不同的情感元组。此外,情感分析的范围已从纯文本内容扩展到包括图像和视频的多模态内容。

因为在现实世界场景中,用户通常通过多种多样的多媒体更准确地传达他们的观点和情绪,提供超越文本的附加信息,如微表情、语音语调和其他线索。此外,研究已超越单一文本场景,考虑更复杂的对话情境,在这些情境中,个体在社交媒体平台(例如 Twitter、Facebook、微博、知乎、小红书、抖音等)上频繁进行关于服务、产品、体育等的多轮、多方讨论。

尽管情感分析领域已取得显著进展,目前的研究定义仍然不够全面,无法提供一个完整且详细的情感画面,这主要是由于以下几个问题。

首先,缺乏一个综合定义,将细粒度分析、多模态和对话场景结合起来。在现实生活应用中,如社交媒体和论坛上,这些方面往往需要同时考虑。然而,现有研究要么在多模态情感分析定义中缺乏详细分析,要么在对话 ABSA 中缺失多模态建模。最完整的基于文本的 ABSA 定义仍然无法完全涵盖或细致划分情感元素的粒度。

其次,当前的情感分析定义只考虑识别固定的静态情感极性,忽略了情感随时间变化或因各种因素变化的动态性。例如,社交媒体对话中的用户最初的观点,可能会在接触到其他发言者的新信息或不同观点后发生变化。

第三,也是最关键的,现有工作没有彻底分析或识别情感背后的因果原因和意图。人类情感的激发和变化有特定的触发因素,未能从认知角度理解情感背后的因果逻辑意味着尚未根本实现人类级别的情感智能。总的来说,提供一个更全面的情感分析定义可能会显著增强这项任务的实用价值,例如,开发更智能的语音助手、更好的临床诊断和治疗辅助以及更具人性化的客户服务系统。

为填补这些空白,本文提出了一种全新的全景式细粒度多模态对话情感分析方法,旨在提供一个更全面的 ABSA 定义,包括全景情感六元组提取(子任务一)和情感翻转分析(子任务二)。如图 1 所示,本文关注的是涵盖日常生活中最常见的四种情感表达模态的对话场景。

一方面,作者将当前的 ABSA 四元组提取定义扩展到六元组提取,包括持有者、目标、方面、观点、情感和理由,全面覆盖更细粒度的情感元素,提供情感的全景视图。

另一方面,作者进一步定义了一个子任务,监控同一持有者在对话中针对同一目标和方面的情感动态变化,并识别导致情感翻转的触发因素。在六元组提取和情感变化识别中,作者强调辨别潜在的因果逻辑与触发因素,力求不仅掌握方法,还要理解背后的原因,并从认知角度进行分析。

[img: link=https://mmbiz.qpic.cn/sz_mmbiz_png/KmXPKA19gWicABY1YmZuAX5zBYzibqxe4K82cK5FPib8ZI5bicoIwVQBwlndm9udLe4fwwfy9dYQgT7ICria3yjFS1w/640?wx_fmt=png&from=appmsg]

论文地址:https://www.arxiv.org/abs/2408.09481

项目地址:https://panosent.github.io/

研究团队构建了一个包含 10,000 个对话的大规模高质量数据集 PanoSent,数据来自现实世界的多样化来源,情感六元组元素经过手动注释,并借助 GPT-4 和多模态检索进行扩展。通过严格的人工检查和交叉验证,确保数据集的高质量。PanoSent 数据集首次引入了隐式情感元素和情感背后的认知原因,覆盖最全面的细粒度情感元素,适用于多模态、多语言和多场景的应用。

[img: link=https://mmbiz.qpic.cn/sz_mmbiz_png/KmXPKA19gWicABY1YmZuAX5zBYzibqxe4K82cK5FPib8ZI5bicoIwVQBwlndm9udLe4fwwfy9dYQgT7ICria3yjFS1w/640?wx_fmt=png&from=appmsg]

多模态
情感分析
情感智能
基准模型
细粒度
认知导向
全景式
PanoSent,一项全新的全景式细粒度多模态对话情感分析基准
任务模型
全景式情感六元组抽取
情感翻转分析
模型构建
多模态信息处理
多模态大语言模型
Sentica,多模态信息处理模型
链式情感推理框架
CoS,基于思维链的推理框架
Check验证机制
PpV,基于复述的验证
数据集构建
合成数据
真实数据
验证实验
主实验结果
合成数据实验
多模态信息

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Runway突然删除HuggingFace库!网友:真跑(Run)路(Way)了

太突然!也没有任何理由的!

Runway 就删除、清空了他们在 HuggingFace 上的所有内容。

在 Hugging Face 主页上,Runway 声明不再维护 HuggingFace。


Image 1

Image 2

Runway 之前的很多项目也无法访问了,比如 Stable Diffusion v1.5。

Image 3

目前,Runway 在 GitHub上的代码库有 40 个。

Image 4

网友热议

此事在 Reddit、Twitter 上也引起了大家的关注与热议。

Image 5

帖子链接:Reddit链接

有网友调侃称:Runway 真跑路了。

也有网友猜测是不是被收购了。

Image 6

当然,也有热心网友趁机把魔搭社区的资源贡献给大家:

但截至发文,我们还没能看到任何官方的解释。

有哪位读者知道原因?欢迎留言讨论。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

开源启动!18个月Llama系列下载量近3.5亿,黄仁勋:快到难以置信

今天一大早,Meta 便秀了一把「Llama 系列模型在开源领域取得的成绩」,包括如下:

  • HuggingFace 下载量接近 3.5 亿次,较 2023 年同期增长了 10 倍;
  • 过去一个月下载量达到了 2000 万次,使得 Llama 成为领先的开源模型系列;
  • 云服务供应商对 Llama 需求巨大,自 5 月以来,Meta 最大云供应商的 token 使用量增加了一倍多;
  • Llama 模型正被整个行业采用,包括 Accenture、ATT、DoorDash、GoldmanSachs 等。

距离 Llama 3.1 的发布(7 月 24 日)仅仅过去了一个多月,Meta 已经将上下文扩展到了 128k,增加了对 8 种语言的支持,并且 405B 参数量的 Llama 3.1 成为全球最强的开源大模型。


可以说,Llama 的成果要归功于开源的力量。目前围绕 Llama 已经形成了一个充满活力和多样性的 AI 生态系统,开发者拥有了比以往更多的选择和能力,初创公司和各种规模的企业都在使用 Llama 来构建 On-premises。

可以说,开源已经成为 Meta 的 DNA。此前,Meta 创始人扎克伯克公开写信声明开源的好处:这将促进更有活力的 AI 开发生态,对普通用户、Meta 以及其他公司都有利。

历时 18 个月,Llama 成长为开源模型标杆。自 2023 年 2 月首次亮相以来,Llama 只用了 18 个月便从单一的先进基础模型发展成为面向开发者的强大系统。到如今,借助 Llama 3.1,Meta 为开发者提供了一个完整的参照系统,使他们可以轻松创建自己的智能体,并通过安全工具帮助他们负责任地创建。

除了下载量的持续增长,Meta 还与 AWS、微软 Azure、Databricks、戴尔、谷歌云、Groq、NVIDIA、IBM watsonx、Scale AI、Snowflake 等公司合作,帮助开发者发挥模型潜力。

发布 Llama 3.1 后,Meta 的主要云服务供应商的 Llama 使用量显著增长。具体来说,从 2024 年 5 月到 7 月,按 token 计算的使用量翻了一番多。

从今年 1 月到 7 月,Meta 的主要云服务供应商每月对 Llama 使用量增长了 10 倍。参数量最大的 Llama 3.1 405B 也很受欢迎,据某云服务供应商 8 月的数据显示,用户数最高的是 Llama 3.1 405B。

Llama 3.1 发布后,拥有访问 Llama 权限的合作伙伴增长了 5 倍,Wipro、Cerebras 和 Lambda 等知名企业也将成为其中的一员。

开发者社区对 Llama 的偏好也日益增长。据专注于 AI 基准测试的独立网站 Artificial Analysis 的调查,Llama 是开发者们的首选排行榜上的第二名。

在 Hugging Face 平台上,Llama 已有超过 60,000 个模型变体,活跃的开发者社区正在根据自己的需求,对 Llama 进行细致的定制和优化,包括 AT&T、DoorDash、高盛、Niantic、野村证券、Shopify、Spotify、Zoom 等在内的行业巨头,以及 Infosys 和 KPMG 等专业服务领域的领军企业,都已经将 Llama 集成到内部系统中。

在企业服务中,Llama 系列已经有一些成功的用例。基于 Llama 3.1 知名咨询公司埃森哲构建了一个用于 ESG(环境、社会和治理)报告的定制大模型。他们期望,用上了 AI 之后,写报告的生产力能提高 70%,质量提高 20% 至 30%。

通过微调 Llama 模型,美国电信巨头 AT&T 在客户服务搜索响应上取得了接近 33% 的大幅提升。这一改进不仅降低了成本,还提升了业务效率。

随着 Llama 生态系统的不断壮大,Meta AI 的功能和接入点也在同步扩展。现在,用户可以通过 Instagram、WhatsApp、Messenger 和 Facebook 等应用直接体验 Meta 的智能助手。

Meta 也没忘记心心念念的「元宇宙」,Meta 还在开发头显 Quest 系列和智能眼镜 Ray-Ban Meta,正在朝着一个目标迈进:届时,一个全天候待命、知冷知热、提供情绪价值的 AI 助手将以可穿戴的形式主动融入你的日常生活,为你提供帮助。

与此同时,OpenAI 也亮出了自己的数据,每周有超过 2 亿人在使用 ChatGPT,相比去年 11 月的报告,ChatGPT 每周的活跃用户数约为 1 亿,仅过半年,这个数字就涨了一倍。

在 ToB 赛道上,OpenAI 也不遑多让,92% 的财富 500 强公司都在使用 OpenAI 的产品,更便宜、更智能的 GPT-4o Mini 推出后,API 的使用量翻了一番。

评论两极分化:真·假开源

看到 Meta 的喜报,Grok 的 CEO Jonathan Ross 发来了贺电:一个大模型的下载量达到 3.5 亿次,太疯狂了!Linux 达到这个数字用了多久?

他还表示:开源赢了!到目前为止,Groq 已经向超过 40 万开发者每天提供 50 亿 Llama 系列模型的免费 token。但这仍然供不应求,Ross 称,即使 Groq 将部署的容量增加 10 倍,这些资源也会在 36 小时内用完。

Llama 系列以如此快的速度,达成了 3.5 亿次下载的成就,老黄也赶紧点了赞:「在过去的一个月里,我们见证了 Llama 3.1 以如此之快速度被应用部署,真是令人难以置信。」

但是在网友和合作伙伴的一片叫好声中,也有对 Meta 只开放代码,未开放模型权重的质疑声。

虽然 Meta 给自己全身贴满了「开源」的标签,但是最近开放源代码促进会(OSI)却明确表示:Llama 系列并不算真开源。

在 OSI 给出的定义下,判断一个 AI 模型真正开源,需要符合「四项基本自由」:不限制使用目的,允许深入研究其工作原理,支持随意修改,无论是否进行过修改都允许用户自由分享模型。

虽然 Llama 3 模型可以自由部署,但 Meta 限定了 Llama 3 可以生成的内容类型。因此, Llama 3 也不算真正的开源了。

然而 ,Meta 对 OSI 非黑即白的「二元论」提出了反对,他们认为开发大模型的成本很高,过程也很复杂…



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB