“小丑AI视频”爆火出圈,AI生成角色动画公司Viggle AI,A轮获a16z领投1900万美元

“重新定义 AI 驱动的角色动画的可能性”
加拿大初创公司Viggle AI近期宣布已在A 轮融资中筹集了 1900 万美元 ,Andreessen Horowitz ( a16z ) 领投 ,其他投资者Two Small Fish也参与其中。
相关信息称,此轮融资使 Viggle 的总融资额超过 2700 万加元(2000 万美元)。


Viggle AI 由 华人创业者Hang Chu于 2022 年创立,致力于通过生成式AI改变角色动画。此轮融资将使 Viggle AI 能够继续扩大规模、加速产品开发、扩大团队并巩固其在可控视频生成和 AI 动画领域的位置。

图片来源:由GPTNB生成

因病毒视频迎来爆发式增长,Viggle AI 根据提示生成动画
新一轮融资正值该Viggle AI 爆炸式增长之际。
Viggle 于今年 3 月推出了一款应用程序,此后不久,其技术功能便迅速走红。
因为Joaquin Phoenix扮演的小丑取代说唱歌手 Lil Yachy在夏季Smash 音乐节上退场的视频开始在互联网上流传,Viggle AI 声名鹊起。

图片来源:由GPTNB生成
今年 4 月,社交媒体用户开始使用 Viggle 将其他名人和角色插入同一个视频中,这成为了一种流行的 meme 格式。
投资方Two Small Fish  将 Viggle 最近的增长形容为“令人震惊”。这家基金声称发现了 Viggle,并于 3 月份开始与这家初创公司洽谈,当时该公司拥有数千名用户。
Viggle 由 Hang Chu于2022年创办,并担任首席执行官。他在科技和娱乐领域的经验为 Viggle 的早期成功、战略方向和利用 AI 制作动画内容的愿景做出了贡献。
在加入Viggle之前,Chu曾在AutoDesk、Facebook 和 NVIDIA 任职。
Viggle AI成立的初衷是简化动画流程,让用户使用简单的文本转视频或图像转视频提示即可创建逼真的动画。
自上半年视频出圈开始,从专业动画师、主要流媒体和制作工作室到内容创作者、模仿者和业余爱好者,该平台吸引了数百万用户的关注。Viggle AI 在Discord上建立的社区,迄今为止已有超过 400 万名成员。
Viggle 现有的软件既可以免费使用,也可以以每月 9.99 美元的价格购买带有附加功能的 Pro会员,该软件可满足各种用户的需求,帮助内容创建者和日常用户根据提示快速生成动画角色视频,并简化专业动画工程师、游戏设计师和视觉效果艺术家的构思和前期制作流程。

图片来源:由GPTNB生成

核心技术:
“理解物理世界”的3D 视频基础模型 JST-1
Viggle 的与众不同之处在于其专有的 JST-1 技术,这是一种视频 3D 基础模型,结合了物理知识,支持创建更逼真的角色动作和表情。Viggle 用户可以使用文本和现有照片或视频指定角色和动作类型,在人工智能的帮助下,Viggle 将根据这些请求生成动画视频。
谈到Viggle 与其他 AI 视频模型之间的主要区别,Viggle 首席执行官 Hang Chu 表示,Viggle 允许用户指定他们希望角色采取的动作。其他 AI 视频模型通常会创建不切实际的角色动作,这些动作不符合物理定律,但 Chu 声称 Viggle 的模型有所不同。

图片来源:由GPTNB生成
Chu 将这家初创公司现有的产品比作一个原型。“这是一个概念证明,证明它可以发挥作用,”他并补充说,这家初创公司正在训练更强大的模型来应对更复杂的请求,并提高其生成的视频质量,目前视频质量有限,人物动作不稳定,面部表情一成不变。
当被问及他是否认为 Viggle 的技术会取代或支持人类的工作时,Chu 声称:“我们试图做的是赋予创作者权力并增强创作者的能力,而不是取代创造力。”他坚称,这家初创公司的重点是向用户提供工具来简化动画视频创作过程,而不是完全实现自动化。

创投观点
Viggle AI 首席执行官兼联合创始人 Hang Chu 表示,“ a16z 和 Two Small Fish的投资不仅肯定了我们的愿景,还使我们能够重新定义 AI 驱动的角色动画的可能性。随着越来越多的人寻求整合 AI 以实现更愉快、更易于访问的创作过程,Viggle 通过结合构建和扩展 AI 的最佳方法来帮助无缝满足消费者需求。我们期待将我们的技术覆盖范围扩大到更广泛的受众,并扩大每个人的创造力边界。”
Andreessen Horowitz 今年早些时候表示,已投入约 22.5 亿美元用于 AI 基础设施和应用投资。Andreessen Horowitz 合伙人 Justine Moore 谈到这笔最新投资时表示:“Viggle AI 正在推动内容创作者在角色和场景一致性创作方面发生重大转变。Viggle 的早期发展势头和已经实现的用户群给我们留下了深刻的印象,我们迫不及待地想看看他们的持续创新将带我们走向何方。”
Two Small Fish 运营合伙人、加拿大人工智能故事讲述公司 Wattpad 联合创始人兼前首席执行官 Allen Lau 补充道:“Viggle 代表着内容的未来,它将像 Wattpad 一样颠覆娱乐行业。作为顾问,我将根据自己从头开始构建全球娱乐平台的实际经验提供指导。我很高兴能与 Viggle 一起进一步颠覆娱乐行业,并改变生成式人工智能时代内容的创作和混编方式。”
值得注意的是,这家风险投资公司是由夫妻档Allen Lau和Eva Lau 创建,他们曾是总部位于多伦多的社交故事讲述平台 Wattpad 的领导者,该平台于2021年被韩国Naver以超过7.54 亿加元的价格收购。
Two Small Fish 专注于早期深度科技初创公司,两个月前宣布其第三支4100 万加元基金最终募集完毕。该投资组合还包括多伦多另一家人工智能初创公司 Ideogram,这是 Midjourney 的竞争对手。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

草莓难救被“月抛”的AI对话产品?

文章来源:AI鲸选社
原文链接:https://mp.weixin.qq.com/s/UH4jeCMXIUWyh1klXW-i4g

图片来源:由GPTNB生成

OpenAI揭开草莓模型神秘面纱,能不能算GPT-5,坊间争议声音很大。

这就是今日凌晨一点,OpenAI发布的两个模型:o1 mini,o1 preview。


据官方消息,与GPT-4一样,OpenAI o1也以AI对话和API接口的形式呈现;而与GPT-4系列不同的是,o1可以解决比GPT时期的科学、编码和数学模型更难的问题。具体来看,之前的GPT模型旨在模仿其训练数据中的模式,而o1的训练旨在让其独立解决问题。
意味着o1模型可以像人一样,需要花更多的时间去思考问题,尝试不同的策略,甚至能意识到自己的错误。

听着很厉害对不对?但实际4O、O1等大模型“寄生”的AI对话类产品,他们的用户数并不高。
而据QuestionMobile,AIGC APP在工作日期间的活跃度高于双休日,推测现阶段AI与用户办公场景的适配性更强,AI主要围绕工作场景,为用户生成文本、图片等内容信息。
o1模型虽在物理、化学、生物、编程等领域表现得像博士生一样好,但对与编程能力来说,755万程序员占国内人口不足1%,可用武之地并不多,对C端大多数用户来说带来的效益并不高。
尤其近日,AI对话类App的用户留存问题被推至风口浪尖,更衍生出了“大模型六小虎泡沫即将破灭”的说法,AI对话的处境岌岌可危。尽管阿里原技术副总裁贾扬清已经提出质疑,下图30日国产5大AI对话类产品留存率接近0,这一数据应该不准确,但AI对话现在确实有一点“盛名之下,其实难副”

图源:贾扬清朋友圈

根据QuestMobile 权威数据显示,头部AIGC APP运营数据活跃率低,均在20%以下;忠诚度方面,3日留存均在50%以下;流失风险高,部分APP的卸载率在50%以上。

坐拥数亿注册用户但日活很低的AI对话类产品,新的草莓大模型能否拯救呢?

9.11还是9.9大?AI界的亘古难题

曾经AI对话因回答错“9.11还是9.9大”被热议,现在国内各家都迭代了多代大模型,文心、豆包、Kimi等都能答对这道简单的数字题。但是OpenAI新更新的o1模型却还是沉迷自己不知名的逻辑怪圈里,找不到正确答案。

图片1
图片2

但国内大模型也并没有领先多少,但当我们问对话大模型一些客观的问题,如“草莓的单词里有几个r”、“打了警犬算袭警吗”等问题时,就会发现,这个刚刚还无所不能的AI助手突然变得手舞足蹈、不知所云了起来。

目前来说,对话大模型在简单的场景仍易漏洞百出,网友戏言:就这?取代我们人类?
…(此处省略部分内容)…

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

揭秘1元AI换脸教程:软件遭贱卖,主推千元「流量课」?

文章来源:新浪科技
原文链接:https://mp.weixin.qq.com/s/OH-_vzrT8BkO7EhfArEXnA

图片来源:由GPTNB生成

近期,韩国爆出“利用深度伪造技术换脸制作不特定女性的淫秽内容并广泛传播”,再度上演类似“N号房”事件。事发后,也有不少人在社交媒体上发声,表示自己“被换脸了”。


伴随今年AI技术逐渐变得唾手可得,一些以“AI美女视频”为名的创业项目开始出现在网络上,也诞生了以此谋生的灰色产业链。

新浪科技发现,如今在小红书、闲鱼、B站等平台,利用AI美女视频教程吸引用户,号称“流行赛道,5天破万粉,日入四位数”的教程,成为行业灰产的温床。而在另一边,无论是“AI一键换脸”,还是让照片动起来,在一些阴暗的角落,生成式AI技术的崛起,也引发了一系列的行业乱象。

一键换脸:

1元教程泛滥,实则全是“卖项目”

新浪科技发现,在闲鱼、小红书上,只需搜索“AI美女”,就能够看到不少通过生AI技术生成的美女跳舞视频。

Image

闲鱼上面,大量标价0.99元、0.55元甚至0.2元的链接内,是一个个内容类似的“教程合集”。价格如此低廉的链接拍下之后,这些商家会发来非常丰富的教学资源,其中包括AI换脸视频需要的软件下载链接、在线工具使用说明、具体的操作教程等内容。也有商家表示,只需要在闲鱼关注他,就能直接分享相关教程,可见获取相关教程的门槛已经趋近于零。

Image

打开这些教程,能够看到商家给出了详细的图文信息,非常直观展示了如何将泰勒·斯威夫特的演讲视频换成另一个女性的脸。而照着教程一步步操作,的确能够实现脸部替换。此外,店主表示,教程里有电脑端操作的教程,也有手机端操作的教程,只要多上手操作几次,就能靠视频在短视频平台吸引关注。

他表示:“美女一直都是流量密码,我们做的生意就是抓住AI风口。”而闲鱼上类似的“AI美女”教程,无一例外基本目的都是引流,标价低只是为了能够让大家在搜索结果上能够显示在最前面。他说,自己主要目的是“卖项目”,所谓“卖项目”,包括《导师IP训练营》视频课程、抖音图文带货、小红…

查看更多

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

国产大模型,应该避免走入加拉帕戈斯时刻

在中国,大模型技术进化加速度的同时,淘汰也加速度。短短两年时间:大模型的战争,就从 GPT 一马当先,到国产大模型百模大战,再到行业格局固定,只剩大模型五虎和几个互联网大厂。


在此期间,伴随模型大小一同膨胀的,则是算力、人才、电力、数据中心无数基础资源的不断加码。于是,全球范围内,英伟达的股价一路披荆斩棘,一年暴涨 7 倍,市值超越苹果;各大机构大模型团队,从研究员到助理,从教授到学生,接到的猎头电话,频率甚至超过了来自移动联通的套餐升级问候……

然而,参数的加码是无限的,资源是有限的,热潮当中,长期无限制的基础模型竞赛,真的是一个正确的方向吗?

宏观经济中,作为借鉴过河的对象,日本早已成为全球范围内一块被摸圆的石头:尤其在商业社会,昭和年代之后,围绕日本为什么失去半导体、家电、电池等行业,一种名为「日本产业反思体」的文章迅速在全球走红,其受众群体之广泛,堪比企业家版《意林》。

对于历史的错过,有人将原因归咎于资本,有人将原因归咎于时代变化,但这始终解释不了为什么在电视、电脑、芯片、面板、互联网、电池这些截然不同的产业里,日本贡献了最多的诺贝尔奖,但在商业中,却总是陷入相似的加拉帕戈斯陷阱:

所谓加拉帕戈斯陷阱,指的是加拉帕戈斯群岛由于千万年来与世隔绝,产生了与大陆极为不同的稳定生态系统,可一旦面对来自外来物种入侵,就面临被淘汰的危险。

而在日本的商业社会中,日本电装最早在 1994 年发明二维码,结果发扬光大的却是中国的微信、支付宝;20 世纪日本人做出了全球保质期最久、最优秀的存储芯片,全世界却在韩国人的带领下爱上了良率不高却足够便宜的三星存储;再后来,新能源时代,日本人一步到位发展起了最清洁的燃料电池,但新能源汽车却在特斯拉的带领下,集体奔赴锂电池的星辰大海。

为什么明明技术遥遥领…

点击查看完整文章

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

单表容量突破100万行,飞书全新多维表格打造最强业务工具,还能调用AI助手Kimi自动填表了

自飞书 2020 年发布多维表格开始,这款产品逐渐为大众使用与熟知,并成为了一个全新品类。据飞书透露,飞书多维表格的月活数已经达到 600 万,仅过去一年,飞书用户便创建了近 4000 万个多维表格,在这些多维表格上,流转着超过 100 亿条记录。


在泡泡玛特、元气森林、蔚来汽车等知名公司,飞书多维表格均以极小成本解决了重要业务需求,可贵的是,这些业务系统均由不懂技术的一线员工搭建。

飞书CEO谢欣

如今,飞书正式推出飞书多维表格数据库,这让飞书多维表格的单表容量突破了 100 万行,仪表盘也可统计 1000 万行数据,均为全球同类产品中最高。在全新的强大性能下,即使在飞书多维表格中计算 10 万行、100 列公式这样复杂的数据,仍然能在 5 秒内便获取业务结果。飞书多维表格还发布了全新一代仪表盘,通过飞书多维表格数据库的计算能力,由多维表格行列数据生成的仪表盘,将不再是简简单单计算、汇总、呈现数据,增加了大量计算、图表组件编组、统计分析等功能,界面也可对标全球顶尖 BI 系统。

多维表格操作界面

可以说,新一代飞书多维表格进一步打破了职场人数字技能的天花板,让工作效率倍增,企业实现降本增效;同时搭配使用 AI 大模型,更能成为打工人必备的神器。比如最近,Kimi 开放平台与飞书合作,将 Kimi 大模型的长文本分析和理解能力带入了飞书多维表格中。即日起,飞书多维表格中的 Word/PDF/Excel/ 图片等文件,都可以通过调用 Kimi 阅读助手这个「字段捷径」,做文件深度分析、理解、翻译和精炼总结,实现批量化、自动化填表,再也不用人工逐个分析各种文档和附件了。此外,「字段捷径」是飞书多维表格字段级开放能力,支持第三方开发者将 AI 能力融入用户的业务系统中。Kimi 阅读助手是首批入驻的第三方「字段捷径」之一。

需要注意的是,目前大家可以在飞书多维表格中免费体验 Kimi 阅读助手。 体验期结束后,需要在 Kimi 开放平台注册为开发者,领取自己的 API Key(或找到公司的 IT 人员领取企业统一的 API Key),然后填写到字段配置中即可使用 。未来,飞书多维表格中的 Kimi 阅读助手还会上线更多实用的能力,例如联网搜索、网址访问总结等。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

训大模型为啥这么贵?专家:一半以上算力被浪费了

人工智能时代,大模型的发展带来了智能算力需求的大爆发。据估算,自 2012 年以来,AI 模型训练算力需求每 3~4 个月就翻一番,每年训练 AI 模型所需算力增长幅度高达 10 倍。


同时,OpenAI 曾在 2020 年提出 Scaling law 定律。该定律指出,大模型的最终性能与计算量、模型参数量及训练数据量的大小密切相关。换言之,若要提升大模型的能力,就需要不断增加模型参数和训练数据量,这就需要部署大规模的训练集群,随着集群规模的不断扩大,训练成本也呈指数级增长。

9月13日,在百度智能云举办的媒体技术沙龙上,百度杰出系统架构师、百度智能云AI计算部负责人王雁鹏表示,2024年大模型市场发展迅速,很多企业加大了在大模型领域的投入,但大家在大模型训练时遇到了一个共性问题,那就是算力利用率很低。目前企业训练大模型的算力有效利用率不足 50%,这意味着,一半以上的算力被浪费了。在算力短缺且昂贵的当下,这无疑是一种巨大的浪费。

那么,究竟该如何提升算力的有效利用率呢?王雁鹏指出,算力有效利用率=能耗有效率✖单卡算力有效率✖并行扩展有效率✖有效训练时间✖资源利用率,其中每一项都是乘积关系,任何一项的表现有细微偏差,都会对整体算力利用率产生系统性影响。然而,目前一个行业共识的难点是,提升任意一项都绝非易事,系统性提升更是难上加难。

王雁鹏表示,针对以上5大核心技术难题、系统性提升GPU算力的有效利用率,百度智能云已经连续3年升级百舸AI异构计算平台。

从百度云的实践经验看,在提升能耗有效率方面,依托百舸打造的智算中心已经能够实现 PUE 值低于 1.1;在提升单卡算力有效率方面,百舸所提供的大模型训推加速套件 AIAK,可在主流开源大模型训练任务中,将 MFU 大幅提升至 70% 以上;在提升并行扩展有效率方面,百舸提供自动并行策略,把策略调优时间缩短至分钟级别;在提升有效训练时间方面,百舸能够提供全面的故障诊断手段以及自动容错能力,在万卡任务中实现大于 99% 的有效训练时长占比;在提升资源利用率方面,百舸支持训推一体技术,能够将算力资源利用率提升到90%。

“尽管今年百舸实现了技术突破,在万卡集群的GPU算力有效利用率上达到了国际领先水平,但面向未来10万卡超大规模的计算,还有很多工作要做。”王雁鹏说。

据悉,在9月25日举办的2024百度云智大会上,针对大模型的训练和推理服务,百舸将再次升级。

如何提升能耗有效率?

降低数据中心能耗,中国电网比美国有优势

最新数据显示,在整个社会用电量中,大约有 1% 至 3% 的电力消耗在计算领域,大模型训练对电力的消耗极为巨大。因此,如何实现电力的有效利用,让电力用在任务上而不是用在散热上,已然成为当前行业所面临的一项巨大挑战。

数据中心能源效率的指标通常用 PUE(Power Usage Effectiveness)来衡量,PUE 值越低意味着数据中心的能源效率就越高,即更多的能源被用于实际的计算任务(IT 设备),而较少的能源被浪费在辅助设施上。因此,降低 PUE 对于提高算力的有效利用率至关重要。

王雁鹏表示,从百舸的实践来看,为了降低 PUE,通常的做法是优化数据中心的制冷系统、提高设备的能效。百度云自建数据中心的平均 PUE 小于 1.1,目前业界平均水平为大于 1.2,这主要归功于百度云领先的数据中心制冷方案。百度云在自建的数据中心里采用自研的液冷方案。相较于传统的风冷方案,该液冷方案能够实现机器性能提升 10%,同时使机器故障率降低 60%-70%。

如何提升单卡算力有效率?

使用AI加速套件,提升大模型训练的MFU

GPU 最初是为图形处理而设计的,其具有大量的并行计算单元,擅长处理大规模的并行计算任务。然而,在用于通用计算尤其是人工智能模型训练时,会面临一些限制。

一方面,GPU 的内存架构和数据传输机制会导致瓶颈。虽然 GPU 拥有高速的显存,但在处理大规模数据时,数据在显存和系统内存之间的传输可能会成为性能瓶颈,影响算力的充分发挥。

另一方面,GPU 的指令集和编程模型也可能限制其算力的发挥。GPU 的指令集通常是针对图形处理优化的,对于一些复杂的通用计算任务,可能需要进行大量的指令转换和优化才能高效执行。

我们通常使用 MFU(Model FLOPS Utilization)这个参数来去衡量 GPU 的有效利用率。MFU 越高,算力利用率越高。业内通常提升 MFU 的做法主要包括:进行算法优化、使用 AI 加速套件等方式。

如何提升 MFU 呢?王雁鹏表示,针对 GPU 有效利用率低这一问题,百舸选择的路径是:自主研发出了大模型训推加速套件 AIAK。该套件针对主流开源大模型,在显存、算子等层面进行了深度优化,相比于英伟达自研的算子加速库,实现了10%的性能提升。同时,在主流开源大模型训练任务中,能够将 MFU 大幅提升至 70% 以上,达到了行业领先水平。

如何提升并行扩展有效率?

使用自动并行策略,降低策略调优时间

为了提高训练效率、缩短训练时间以及处理大规模数据和模型,大模型训练通常采用并行训练方式。并行训练是指利用多个计算资源同时进行模型训练的过程,以往的并行训练需要手动进行复杂的并行编程和任务分配,这种方式效率低、上手难度高。

王雁鹏表示,自动并行策略的出现为解决这些难题带来了重大突破。

自动并行策略通过自动分析计算任务和计算资源,实现了任务在多个计算单元上的合理分配并行执行,这一方式具有多方面的显著优势。首先,它能够充分利用计算资源,避免了资源的闲置和浪费。无论是 CPU、GPU 还是分布式计算节点,都能被高效地调动起来,共同为复杂的计算任务服务。其次,它大大降低了开发难度,开发者无需再进行繁琐的手动并行编程和任务分配,只需专注于计算任务的逻辑实现,极大地提高了开发效率。最后,自动并行策略显著提高了计算效率,通过合理的任务分配和资源利用,能够大幅缩短计算时间,为各种应用场景的快速迭代和优化提供了有力支持。

以百度云为例,百舸平台提供的大模型训推加速套件AIAK在并行策略方面进行了深度优化,与开源方案相比,实现了30%的性能提升。同时,使模型并行策略调优时间大幅降低,从原先的小时级缩短至分钟级。这种高效的调优能力使得开发者能够更加快速地进行模型训练和优化,极大地提高了工作效率。

如何提升有效训练时间?

提升AI基础设施稳定性,减少故障恢复时间

Meta 在近期的一份研究报告中揭示了训练 Llama3-405B 参数模型的重大挑战:该系统在包含 16384 个英伟达 H100 GPU 的集群上运行,在训练期间平均每三个小时就发生一次故障, 54 天内经历了 419 次意外故障。大规模计算任务的复杂性使得故障几乎成为必然。

马斯克近日也分享了一段全新「Cortex」AI 超级集群的视频。它位于特斯拉奥斯汀总部,建成后将包含 50,000 个英伟达 H100 和 20,000 台特斯拉硬件,是“世界上最强大的 AI 训练集群”。但有了 Meta 的前车之鉴,业内普遍认为,按 GPU 规模比例来看,「Cortex」AI 超级集群可能会面临指数级更高的故障率,预计每10-20分钟就会出现一次故障,这给其未来的 AI 训练带来了更大的挑战。

看来,大模型时代,企业需要稳定性高的 AI 基础设施已成为行业共识。那么如何提高 AI 基础设施的稳定性呢?我们来看看主流大模型厂商是如何做的。

王雁鹏表示,Meta 开发了多种工具和优化策略,优化措施包括缩短任务启动和检查点时间,并广泛采用 PyTorch 自带的 NCCL 飞行记录器进行故障诊断,以及识别通信缓慢的节点。目前实现了模型训练任务 90%以上的有效训练时间。

再来看百度云。百舸平台针对模型训练的稳定性进行了优化,百舸可以提供全面的故障诊断手段,可以快速自动侦测到导致训练任务异常的节点故障,同时提供自动化的容错能力,重新调度任务到健康节点,继续完成训练,目前已经将故障恢复时间从小时级降低到分钟级。

“经过几年的研发,目前,百舸在万卡任务上实现了大于99%的有效训练时长占比,这是非常不容易的。”王雁鹏说。

如何提升资源利用率?

训推一体,提升资源利用率

在传统的人工智能应用中,模型的训练和推理通常是在不同的集群中进行的。训练阶段需要大量的计算资源和数据,通常在高性能计算集群中进行。而推理阶段则需要将训练好的模型部署到实际应用场景中,对算力的要求显著低于训练阶段。

为了提高算力资源的利用率,针对一些特殊场景,可以将训练和推理过程混合在同一集群中进行,也就是我们所说的训推一体。训推一体技术让集群能同时支持在线推理服务部署和离线训练任务,实现推理和训练之间的算力自由无缝切换。训练和推理场景在不同时间复用相同 GPU 资源,在推理时把高算力高显存的训练卡分给多个业务应用以提高卡利用率和推理效率。

王雁鹏指出,行业平均算力资源利用率达 50%,这是一个比较理想的数据。然而,借助百舸所提供的训推一体技术,能够实现高达 90% 的算力资源利用率。在未来的人工智能应用中,训推一体将成为一种重要的技术趋势。


这样格式化数据后,您可以将其保存为Markdown文件。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

张俊林:OpenAI o1的价值意义及强化学习的Scaling Law

蹭下热度谈谈 OpenAI o1 的价值意义及 RL 的 Scaling law。

一、OpenAI o1 是大模型的巨大进步
我觉得 OpenAI o1 是自 GPT 4 发布以来,基座大模型最大的进展,逻辑推理能力提升的效果和方法比预想的要好,GPT 4o 和 o1 是发展大模型不同的方向,但是 o1 这个方向更根本,重要性也比 GPT 4o 这种方向要重要得多,原因下面会分析。


为什么说 o1 比 4o 方向重要?
这是两种不同的大模型发展思路,说实话在看到 GPT 4o 发布的时候我是有些失望的,我当时以为 OpenAI 会优先做 o1 这种方向,但是没想到先出了 GPT 4o。GPT 4o 本质上是要探索不同模态相互融合的大一统模型应该怎么做的问题,对于提升大模型的智力水平估计帮助不大;而 o1 本质上是在探索大模型在 AGI 路上能走多远、天花板在哪里的问题,很明显第二个问题更重要。

GPT 4o 的问题在于本身大模型的智力水平还不够高,所以做不了复杂任务,导致很多应用场景无法实用化,而指望靠图片、视频这类新模态数据大幅提升大模型智力水平是不太可能的,尽管确实能拓展更丰富的多模态应用场景,但这类数据弥补的更多是大模型对外在多模态世界的感知能力,而不是认知能力。提升大模型认知能力主要还要靠 LLM 文本模型,而提升 LLM 模型认知能力的核心又在复杂逻辑推理能力。LLM 的逻辑推理能力越强,则能解锁更多复杂应用,大模型应用的天花板就越高,所以不遗余力地提升大模型尤其是文本模型的逻辑能力应该是最重要的事情,没有之一。

如果 o1 模型能力越做越强,则可以反…
原文链接

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

加速蛋白质工程,微软开发蛋白突变效应预测AI框架µFormer

蛋白质工程是合成生物学领域的重要研究方向之一。近年来,AI 辅助的蛋白质工程逐渐发展成为一种高效的蛋白质分子设计新策略。


近日,微软研究院科学智能中心的研究人员提出了深度学习框架 µFormer,其将预训练的蛋白质语言模型与定制设计的评分模块相结合,从而预测蛋白质的突变效应。

µFormer 在预测高阶突变体、建模上位(epistatic)相互作用和处理插入方面,实现了最先进的性能。

通过将 µFormer 与强化学习框架相结合,可以高效探索广阔的突变空间,涵盖数万亿个突变候选物,来设计活性增强的蛋白质变体。该模型成功预测了由于酶活性增强而表现出 2000 倍细菌生长率增加的突变体。

相关研究以「Accelerating protein engineering with fitness landscape modeling and reinforcement learning」为题,发表在预印平台 bioRxiv 上。

论文链接:https://doi.org/10.1101/2023.11.16.565910

蛋白质工程旨在设计具有所需功能和特性的蛋白质。通过优化蛋白质序列实现的高效蛋白质工程可以极大地促进生物药物、酶等的设计。实现这一目标的一种有前途的方法是将蛋白质序列准确地映射到其相应的功能上,从而能够高效地搜索具有所需功能的序列。

零样本方法无需依赖同源物或多序列比对 (MSA) 即可预测突变效应,减少了一些依赖性,但在预测蛋白质的多样性特性方面却存在不足。

基于深度突变扫描 (DMS) 或 MAVE 数据训练的基于学习的模型,已被用于单独或与 MSA、语言模型一起预测适应度景观。尽管如此,当实验数据稀疏时,这些数据驱动的模型往往难以做出合理的预测。

用于蛋白突变效应预测的深度学习框架 µFormer

为了解决以上问题,微软研究院的研究人员提出了一个深度学习框架 µFormer,该框架具有三个基于学习的评分模块,旨在捕捉不同序列特征水平的蛋白质突变效应:单残基有效性、基序级模式和序列级语义。结合预训练的蛋白质语言模型,µFormer 能够更准确、更全面地模拟蛋白质适应度景观,减少对观测数据的依赖。

µFormer 概览
图示:µFormer 概览。(来源:论文)

µFormer 是一种用于突变效应预测的两步解决方案,即预测突变蛋白质序列的适应度得分。µFormer 由一个自监督蛋白质语言模型和一组监督评分模块组成。

首先,通过在大量未标记蛋白质序列数据集上预训练掩蔽蛋白质语言模型 (PLM)。在预训练阶段,蛋白质语言模型使用从 UniRef50 收集的超过 3000 万个蛋白质序列进行训练。通过采用掩蔽语言建模策略,蛋白质语言模型学会在给定蛋白质序列中其余残基的情况下预测目标位置上最可能的氨基酸。

其次,通过使用集成到预训练模型中的三个评分模块预测适应度得分。这些模块(残差级、基序级和序列级)捕获蛋白质序列的不同方面,并结合它们的输出以生成最终的适应度得分。该模型使用已知的适应度数据进行训练,最大限度地减少预测分数和实际分数之间的误差。

此外,µFormer 与强化学习 (RL) 策略相结合,可有效探索可能突变的广阔空间。该框架中的蛋白质工程问题被建模为马尔可夫决策过程 (MDP),并使用近端策略优化 (PPO) 来优化突变策略。在突变搜索过程中添加狄利克雷(Dirichlet)噪声,保证有效搜索,避免局部最优。

在不同任务上的表现优于同类方法

研究证明,µFormer 可以处理各种具有挑战性的场景,包括有限数量的测量、同源物很少的孤蛋白、具有多点突变的复杂变体、插入和删除,以及表现出训练数据中不存在的过度激活的突变体。大量实验表明,µFormer 在不同任务上的表现优于同类方法。

为了评估 µFormer 在适应度景观建模和突变效应预测方面的能力,研究人员将其与十种替代方法进行了对比,包括基于 MSA 的方法、基于语言模型的零样本方法和基于学习的方法。

µFormer 与最先进的突变效应预测方法的定量比较
图示:µFormer 与最先进的突变效应预测方法的定量比较。(来源:论文)

首先在 ProteinGym 上评估了所有模型。在所有模型中,µFormer 在不同数据集中预测突变效应的能力最强。平均 Spearman 相关性为 0.703,在 78 个测试数据集中的 48 个上取得了最佳性能。

进一步的分析表明,µFormer 对训练数据大小和同源序列号的变化不敏感,表明 µFormer 是蛋白质突变效应预测的通用工具。

接下来,评估了 µFormer 在插入和删除 (indel) 预测方面的表现。研究人员对 µFormer 在 indel 任务上的表现与四种替代方法进行了基准测试。µFormer 在两个具有 indel 突变的基准数据集上始终优于其他方法。

使用 µFormer 和强化学习设计高功能序
图示:使用 µFormer 和强化学习设计高功能序。(来源:论文)

更重要的是,观察到在使用单个突变体进行训练时,µFormer 在高阶突变效应预测方面表现出色,将 µFormer 部署为「导航」蛋白质设计的通用工具,并结合强化学习,可以在广阔的适应度景观中进行有效的序列搜索。

通过使用此流程对涵盖数万亿个突变候选物的突变空间进行了有效而全面的探索,研究人员设计了一种 β-内酰胺酶来水解新的底物分子,并确定了许多具有多达 3 个点突变的变体,这些变体可能对新底物的活性表现出显著增强。

具体来说,通过仅基于单点突变数据训练模型并探索多点高适应度突变,研究人员在湿实验室实验中测试的 200 个样本中发现了 47 个活性高于野生型的突变。其中包括酶活性比之前发现的最高突变(1000 倍)高 2000 倍的 β-内酰胺酶变体,可作为抵抗耐药性的预防措施。

µFormer 利用预训练的大型蛋白质序列模型,在多个不同的预测任务中取得了出色的表现。可以预见,深度学习模型将进一步加速蛋白质适应度的研究,并为生物药物设计、蛋白质疫苗优化和蛋白质工程等各个领域做出贡献。

参考内容:https://www.marktechpost.com/2024/09/10/%C2%B5former-a-deep-learning-framework-for-efficient-protein-fitness-prediction-and-optimization/



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

家长“不使用”Facebook和Instagram的家长控制功能,尼克·克莱格表示

家长不使用Facebook和Instagram的家长控制功能,这是Meta的尼克·克莱格表示的,成年人未能接纳该公司近年引入的50项儿童安全工具。


Meta的全球事务负责人表示,在使用这些工具方面存在一个“行为问题”,承认家长们忽视了它们。监管压力正在逐渐增加,要求科技公司保护儿童免受有害内容的影响,澳大利亚政府本周宣布计划禁止年龄较小的青少年访问社交媒体。在伦敦查塔姆豪斯举办的活动上发言时,克莱格表示,家长们没有使用允许他们设置时间限制和安排休息时间的控制功能。“我们发现…即使我们构建了这些控制功能,家长也不使用它们,”他说。“因此,我们存在一个行为问题,即:作为一家工程公司,我们可能构建了这些东西,然后在这样的活动上说:‘哦,我们为父母提供了选择,以限制孩子在线的时间’–但父母们没有使用它。”克莱格,曾任英国副首相,表示证据表明Meta的应用程序为“绝大多数年轻人”提供了积极体验。然而,公司告密者弗朗西斯·豪根在2021年的证词指控Facebook和Instagram的所有者将利润置于安全之上,而2022年对英国少女莫利·拉塞尔死因的调查强调了Instagram上的安全问题,拉塞尔在观看有害内容后自杀。在英国,已经引入了《在线安全法》,对社交媒体公司进行特定要求,以保护儿童免受有害内容的影响。这个问题仍然是许多政府包括澳大利亚政府议程上的重要问题,澳大利亚总理安东尼·阿尔巴尼斯宣布计划阻止儿童访问社交媒体和其他数字平台,除非他们年满一定年龄–可能在14到16岁之间。当被问及Meta是否会执行这一禁令时,克莱格表示公司将“当然”遵守,但警告表示要实施这一禁令将会很困难,需要谷歌和苹果应用商店的合作。莫利·罗斯基金会首席执行官安迪·伯罗斯表示:“尼克·克莱格通过停止推卸责任并开始为Meta的选择造成的可避免伤害负责,将为儿童的安全提供服务。”克莱格还谈到了有关埃隆·马斯克的X平台的争议,他表示,该平台在特斯拉首席执行官的所有权下已经变成了“一个某人的极端党派意识形态爱好”,指的是右倾分子汤米·罗宾逊和厌女狂传播者安德鲁·泰特在与南港凶杀案有关的英国骚乱后,在X和即将扩散的消息应用Telegram上“肆无忌惮”在线活动。在他们被Meta平台禁止后。“我认为这是一个小众平台,‘精英’的新闻和政治迷的应用。绝大多数人加入Facebook和Instagram是出于更加娱乐的原因。”克莱格说。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

埃隆·马斯克因澳大利亚政府打算监管在线虚假信息而称其为“法西斯分子”

埃隆·马斯克因澳大利亚政府打算监管在线虚假信息而称其为“法西斯分子”

埃隆·马斯克称澳大利亚政府为“法西斯分子”,因其旨在打击社交媒体上故意传播谎言的立法。


根据联邦提出的法案,社交媒体公司可能面临高达其年营业额5%的罚款。拥有社交媒体平台X(之前是推特)的美国亿万富翁马斯克对澳大利亚措施的一篇帖子做出回应,仅用了一个词。“法西斯分子”,他写道。但联邦部长比尔·肖特恩表示,马斯克在言论自由问题上不一致。“当符合他的商业利益时,他就是言论自由的捍卫者;当他不喜欢时,他就会关闭一切”,他周五在九频道早间节目上说。

{…}



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB