AI应用白热化,出路在哪?

进入2024年,国内大模型开始走入不同于海外同行的发展路线——从投入底层模型转向探索应用层。在底层模型卷了近两年后,一众公司及投资人迫切地希望看到商业化层面的实质性进展。


智谱AI CEO张鹏提到:“今年人们已经从关注大模型本身转变为思考和讨论大模型创造价值、赋能产业、落地应用,行业已形成共识,不再去讨论大模型是不是必要,或者大模型好还是小模型好,行业已经转变成更务实的状态。”

在C端,普通用户对于大模型到底存在怎样的真实需求,是过往很长一段时间里,AI厂商蒙眼狂奔投入底层大模型研发的过程中,很少考虑的问题。如今大量资本支出要求公司尽快产生足够现金流之时,应用难题突然被摆到面前。虽然不少C端AI软硬件应用已经面世,但现阶段来看,用户渗透率及制造现金流的能力仍较为初期。

近日,信息咨询公司六度智囊接到需求,多名客户希望对AI应用领域不同专家进行访谈,以对行业动向有更深入把握,侧面证实了AI应用的火热。六度智囊是一家商业信息检索平台,为客户提供优质且领先的研究决策支持和专家知识共享服务。目前已实现海外专家50K+,业务覆盖北美、亚洲、欧洲、东南亚等地区。

根据六度智囊促成的访谈来看,不少专家认为,目前科技厂商们推出的AI功能,在用户侧的实际应用程度并不高,而AI技术在大规模商业应用中面临的主要瓶颈,是大多数人尚未掌握如何使用这项技术。

AI功能是鸡肋?

在2024年世界人工智能大会上,百度创始人李彦宏就发出“灵魂之问”:“今天这个震撼发布,明天那个史诗级更新,但是我要问:应用在哪里?谁从中获益了?”数据显示,有84%的创作者在内容创作过程中积极使用了AI工具和应用程序,但人们对某些工具的使用率在今年却明显下降。不少AI应用曾短暂地在业内流行,但明显“寿命”不长。

硬件先于软件爆发?

在众多互联网厂商在软件层面寻找“Killer App”之时,硬件的机会也被集中挖掘。比如很多车厂已经在追求智能化的进程中将大模型上车——融入了文心一言大模型的极越01;奇瑞和科大讯飞共同搭建的Lion AI大模型,应用在了星途星际元ES上;ChatGPT更是和奔驰达成了合作;今年年初,星纪魅族更是宣布All in AI。

出海正当时?

在Sensor Tower关于上半年美国AI应用市场下载量的统计中,前十款中至少有三款是中国企业。可以说,当国内AI应用激战正酣时,厂商们意识到“到海外去”是必需的生存法则。非凡产研统计,全球约有1500家AI企业活跃,中国出海企业有103家,绝大多数AI产品创业公司集中在应用层,占比高达76%,截至今年5月,全球月访问量过万的AI产品共有1749个,其中中国出海AI产品占据了71席。国内AI厂商推出的AI出海产品,大多集中在AI聊天陪伴、AI图像生成、AI视频生成、AI搜索、AI生产力工具等生成式AI有明显提升的领域。

综合专家意见,可以得出以下结论:目前各类AI功能的实际应用程度并不高,原因之一是当前的消费者技术已经非常便利,AI所带来的10%-20%的效率提升显得意义不大。人工智能在消费端应用主要集中在文本、图像和语音三个领域。国内的人工智能应用在国际市场上主要呈现出三大趋势:图片处理和美化类应用表现出色,Copilot型人工智能应用迅速增长,以及社交领域向陪聊机器人方向发展。很多应用融合了AI技术,但它们的核心竞争力并非AI技术本身,而是传统的图片处理能力和算法引擎。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

马斯克的xAI又洽谈新融资,估值超400亿美元

华尔街日报消息,马斯克旗下的大模型平台xAI正在洽谈新一轮融资,估值超400亿美元。

如果新的融资成功,xAI的融资总额将仅次OpenAI,成为大模型赛道融资最高企业之一。


图片来源:由GPTNB生成

xAI成立于2023年7月12日,其主打产品是一个类ChatGPT的大模型Grok-1。

今年3月17日,Xai的大模型Grok-1正式开源,并且支持商业化用途。Grok-1采用了混合专家架构,有3140亿参数,允许商业化,通过文本问答方式可以生成创意文本、代码等。

根据其公布的测试数据显示,性能超过了GPT-3.5、LLaMA 2 70B,弱于GPT-4、Claude 2、Palm 2等闭源模型。

图片来源:GPTNB生成

5月27日, xAI在官网宣布获得60亿美元B轮融资,估值240亿美元。主要投资者包括Valor Equity Partners、红杉资本、国王控股、沙特王子-Bin Talal、Vy Capital等。

也就是说,刚过了5个月的时间xAI的估值便暴涨了160亿美元。xAI仅创立一年多的时间便能拿到如此高的融资,一方面得益于马斯克在全球的强大影响力,另一方面大模型赛道依然保持强劲的增长势头。

马斯克作为OpenAI主要联合创始人之一,曾在2015年—2018年担任董事,因为发展理念不同离开了OpenAI.



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

深夜重磅!ChatGPT可以“AI搜索”了,但并不完美

OpenAI 的 AI 搜索——ChatGPT search,真的来了。
今日凌晨,OpenAI 宣布,将 AI 搜索功能集成在他们的聊天机器人 ChatGPT 中,而非推出一个单独的产品。


从今天起,OpenAI 正式与传统搜索引擎巨头 Google 和专注于 AI 搜索的初创公司 Perplexity 等展开竞争。
OpenAI 表示,ChatGPT search 将根据用户的提问选择挖掘网络内容,并提供快速、及时的答案以及相关网络来源的链接
OpenAI 首席执行官 Sam Altman 甚至在 X 上发文称,自聊天机器人 ChatGPT 首次亮相以来,搜索是他“最喜欢的功能”。
“我发现这是更快/更方便地获取我要找的信息的方式,” 他在今天的 Reddit AMA 上说道,“我认为我们会看到这种方式,尤其是对于需要更复杂研究的查询。我还期待着在未来,搜索查询可以动态呈现一个自定义网页作为响应!”
这是自今年 7 月首次放出 AI 搜索引擎原型 SearchGPT 以来,OpenAI 在 AI 搜索领域的最新动作。
在官方博客文章中,OpenAI 写道:“ChatGPT search 利用第三方搜索提供商以及我们的合作伙伴直接提供的内容,为用户提供他们正在寻找的信息。”
OpenAI 希望,这项新功能能够简化网络搜索,消除传统搜索引擎有时需要的多次搜索和链接探索。而且,它没有杂乱的广告或固定在顶部的推广查询。
据介绍,ChatGPT search 是 GPT-4o 的微调版,使用新颖的合成数据生成技术进行后期训练,包括从 OpenAI o1-preview 中提炼输出。
所有 ChatGPT Plus 和 Team 用户都将在今天使用该搜索模型,企业和教育用户将在未来几周内使用这些功能,而免费用户依然还需要再等等
据科技媒体 Ars Technica 报道,他们在对 ChatGPT search 进行实测时发现,这一搜索模型并不完美,时不时会返回一些错误的来源,有时还会提供一些不相关的图片,显示在某些搜索结果旁边。
未来,OpenAI 计划为这一新的搜索功能添加购物和旅行相关查询的自定义答案。他们还计划利用 o1 系列模型实现更深入的搜索功能,并将搜索体验扩展到高级语音模式和 Canvas 功能。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI应用白热化,出路在哪?

进入2024年,国内大模型开始走入不同于海外同行的发展路线——从投入底层模型转向探索应用层。在底层模型卷了近两年后,一众公司及投资人迫切地希望看到商业化层面的实质性进展。


智谱AI CEO张鹏提到:“今年人们已经从关注大模型本身转变为思考和讨论大模型创造价值、赋能产业、落地应用,行业已形成共识,不再去讨论大模型是不是必要,或者大模型好还是小模型好,行业已经转变成更务实的状态。”

在C端,普通用户对于大模型到底存在怎样的真实需求,是过往很长一段时间里,AI厂商蒙眼狂奔投入底层大模型研发的过程中,很少考虑的问题。

如今大量资本支出要求公司尽快产生足够现金流之时,应用难题突然被摆到面前。虽然不少C端AI软硬件应用已经面世,但现阶段来看,用户渗透率及制造现金流的能力仍较为初期。

近日,信息咨询公司六度智囊接到需求,多名客户希望对AI应用领域不同专家进行访谈,以对行业动向有更深入把握,侧面证实了AI应用的火热。六度智囊是一家商业信息检索平台,为客户提供优质且领先的研究决策支持和专家知识共享服务。目前已实现海外专家50K+,业务覆盖北美、亚洲、欧洲、东南亚等地区。

根据六度智囊促成的访谈来看,不少专家认为,目前科技厂商们推出的AI功能,在用户侧的实际应用程度并不高,而AI技术在大规模商业应用中面临的主要瓶颈,是大多数人尚未掌握如何使用这项技术。

图片来源:由GPTNB生成

AI功能是鸡肋?

在2024年世界人工智能大会上,百度创始人李彦宏就发出“灵魂之问”:“今天这个震撼发布,明天那个史诗级更新,但是我要问:应用在哪里?谁从中获益了?”

数据显示,有84%的创作者在内容创作过程中积极使用了AI工具和应用程序,但人们对某些工具的使用率在今年却明显下降。比如,如Midjourney和Adobe Firefly此类图像或视频识别工具,2023年,创作者对其的使用率为64.9%,但今年这一数字仅为46.5%。

不少AI应用曾短暂地在业内流行,但明显“寿命”不长。

百度指数显示,妙鸭相机从去年7月17号上线,热度从7月23日开始上升,24日达到峰值,随后就开始缓慢下滑,最高峰也不到8000。从城市分布来看,关注的人群主要集中在北京、上海、广州等一线城市。

在火爆过一阵之后,妙鸭没能在商业模式上提供更多想象。这似乎是AI应用的通病,根据数据分析公司Sensor Tower统计,大部分头部“AI+图像”应用的生命周期只有两个月,比如妙鸭的“前辈”Lensa。

在六度促成的一次访谈中,前任Apple Inc大中华区市场产品总监表示:

“许多美国大型公司相继推出了与人工智能相关的小功能,但这些功能的实际应用程度并不高。

这种现象的一个原因是,这些人工智能功能未能满足用户的主要需求。例如,苹果的人智能功能未能满足用户查看邮件这种可以快速完成的任务的需求。另一个原因是,当前的消费者技术已经非常便利,AI所带来的10%-20%的效率提升显得意义不大。

比如在机票预订场景,目前的机票预订程已经非常简便,搜索、选择和支付等步骤都非常高效。通过AI进行预订可能会导致错误,需要额外的人工检查,因此不如直接手动操作。在预订的过程中,用户需要对每个步骤进行实时监控,包括积分、时间和价格等方面的需求,这些通过自然语言交互难以实现。

这种现象对人工智能在消费技术领域的未来发展有重要启示。AI的核心价值应该在于完成现有技术无法实现的任务,而不是改进已经简单的操作。目前,全球用户主要依赖ChatGPT,而较少使用特定应用程序内置的AI功能,这进一步说明了AI功能需要真正能够显著提升用户体验才能获得广泛应用。”

图片

硬件先于软件爆发?

在众多互联网厂商在软件层面寻找“Killer App”之时,硬件的机会也被集中挖掘。

比如很多车厂已经在追求智能化的进程中将大模型上车——融入了文心一言大模型的极越01;奇瑞和科大讯飞共同搭建的Lion AI大模型,应用在了星途星际元ES上;ChatGPT更是和奔驰达成了合作;今年年初,星纪魅族更是宣布All in AI。

如果和互联网的发展初期做比较,在软件爆发之前,当时电脑和手机等硬件率先得到普及,而有市场声音认为,眼下生成式人工智能遵循同样的逻辑。

今年上半年火热的AI手机是佐证之一。

去年四季度至今年一季度以来,手机厂商密集发布AI手机。今年1月,三星发布搭载了谷歌Gemini大模型的S24系列,发售即爆卖;2月18日,魅族宣布停止传统智能手机新项目的开发,全力投入新一代AI设备;2月20日,OPPO召开AI战略发布会,并正式宣布OPPO AI中心揭牌成立……

今年2月开始,AI手机概念股持续走高,不到两个月时间内,该指数上涨41.5%。六月发布的Apple Intelligence更是将业内期待拉到了最高点。

在六度促成的一次访谈中,前任minimax产品经理表示:

“在最新的I/O开发者大会上,各大科技公司展示了人工智能助手的多种应用场景,包括文本摘要、多模态互动、为视障人士提供语音服务以及防范诈骗等功能。然而,除了这些之外,并没有太多令人耳目一新的创新应用。

目前,人工智能在消费端应用主要集中在文本、图像和语音三个领域。视频方面的技术可能在短期内还无法在终端设备上实现。各家公司都在这三个领域寻求突破,但近期内尚未看到特别多的创新应用场景。

过去,手机上的人工智能功能主要集中在图像处理方面,比如图片分类和美化等,所使用的模型参数规模相对较小,大约在百万级别。如今,即使是参数量达到3亿的模型,其参数量也比以前增加了数十倍,因此图像处理的能力和效果都有所提升,但在应用场景上并没有出现显著的突破。

目前来看,拥有3亿参数的模型功能仍然相对有限。如果参数量增加到7亿或10亿,是否能够达到类似于当前在云端使用的GPT-4的功能,还有待验证。”

图片

出海正当时?

在Sensor Tower关于上半年美国AI应用市场下载量的统计中,前十款中至少有三款是中国企业。其中,AI教育应用Question.ai和AI聊天应用Poly.ai都来自“教育大厂”作业帮,另一款产品AI聊天机器人Talkie则来自AI大模型独角兽MiniMax。

可以说,当国内AI应用激战正酣时,厂商们意识到“到海外去”是必需的生存法则。

非凡产研统计,全球约有1500家AI企业活跃,中国出海企业有103家,绝大多数AI产品创业公司集中在应用层,占比高达76%,截至今年5月,全球月访问量过万的AI产品共有1749个,其中中国出海AI产品占据了71席。

国内AI厂商推出的AI出海产品,大多集中在AI聊天陪伴、AI图像生成、AI视频生成、AI搜索、AI生产力工具等生成式AI有明显提升的领域。

在六度促成的一次访谈中,前任易点天下产品总监表示:

“虽然国内有不少开发者在努力研发智能对话机器人和陪伴型AI,但在国际市场上还没有出现广为人知的成功案例。目前,大多数国内的AI应用仍然是面向消费者开发的,而在文化和实际应用方面表现较好的主要是生产力场景,例如图片编辑、文档效率提升以及知识图谱等应用。

在北美,尤其是美国,人工智能的开发主要集中在企业级解决方案和软件即服务领域。相比之下,国内的产品更多地活跃在消费者市场以及娱乐和工具生产力方面。

国内的人工智能应用在国际市场上主要呈现出三大趋势:图片处理和美化类应用表现出色,Copilot型人工智能应用迅速增长,以及社交领域向陪聊机器人方向发展。

根据DataAI的数据披露,美图公司在国内出海的AI公司中,出海收入排名第三,并且收入呈现出显著的上升趋势。财报显示,该公司去年的出海收入占总营收的40%以上,约为2亿美元。

值得注意的是,尽管这些应用融合了AI技术,但它们的核心竞争力并非AI技术本身,而是传统的图片处理能力和算法引擎。

目前,国内有许多公司在AI机器人陪聊领域展开业务,如筑梦岛和GLOW等。然而,由于国内政策监管的限制,这些公司往往会将目光投向海外市场。全球领先的智能体交流平台Character AI,尽管其泛化阿凡达形式旨在与各种用户互动,但在实际应用中却形成了独特的IP文化。例如,与《咒术回战》中五条悟等高人气动画角色的深度互动,吸引了大量年轻用户。”

综合专家意见,可以得出以下结论:

  • 目前各类AI功能的实际应用程度并不高,原因之一是当前的消费者技术已经非常便利,AI所带来的10%-20%的效率提升显得意义不大。
  • 人工智能在消费端应用主要集中在文本、图像和语音三个领域。各家公司都在这三个领域寻求突破,但近期内尚未看到特别多的创新应用场景。
  • 国内的人工智能应用在国际市场上主要呈现出三大趋势:图片处理和美化类应用表现出色,Copilot型人工智能应用迅速增长,以及社交领域向陪聊机器人方向发展。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

当AI取代真相,大模型如何一步步诱骗了人类的文明?

如今,人们选择餐厅,多半会打开app搜索一番,再看看排名。然而美国奥斯汀的一家餐厅Ethos的存在证实这种选择机制多么不可靠。


Ethos在社交媒体instagram宣称是当地排名第一的餐厅,拥有7万余粉丝。
实际上,这家看起来很靠谱的餐厅根本不存在,食物和场地的照片都由人工智能生成。可它家发布在社媒上的帖子却得到了数千名不知情者的点赞和评论。大模型通过视觉形式误导公众认知,引发了人们对其潜在影响的深刻思考。

图片来源:由GPTNB生成

AI生成的虚假信息影响深远

类似开篇提到的虚假餐厅的例子,现实生活中发生了不止一次。2023年11月,搜索引擎Bing曾因为爬取了错误信息,而针对“澳大利亚是否存在”的问题,给出了荒谬的回复。(事后官方很快对该问题进行了修复。)

Bing截图;图源:Bing

上面的例子,还可视为程序的bug,而普林斯顿的一项研究则系统性说明了AI生成数据的影响不止如此。该研究发现,截止24年8月,至少5%的英文维基百科页面是由AI生成的,相对而言德语、法语和意大利语文章的占比较低。
维基百科(Wikipedia)是人工智能训练数据的重要来源,且被普遍视为权威的信息来源。尽管AI生成的内容并不一定都是虚假信息,但该研究指出,被标记为AI生成的维基百科文章通常质量较低,并具有较明显的目的性,往往是自我推广或对有争议话题持特定观点。

AI生成的虚假信息
如何利用了判断真假的启发式弱点

虽然虚假信息被发现后很快会被纠正,但如同小时候听过的“狼来了”的故事,一次次的接触虚假信息,会让磨损我们彼此间的信任。
我们判断一件事情是否为真时,有两种不同的思考方式,一是启发式,另一种则是费力的思考。启发式思维所需的认知资源更少,依赖直觉,属于丹尼尔·卡尼曼所说的系统一。对个体来说,判断是否是虚假信息,启发式的判断标准包括是否声明清晰,是否吞吐犹豫,是否有熟悉感;而费力的思考则多基于逻辑:“不应该只相信互联网来源,我是否在学校或是书本中见过类似的?”
大模型会如何利用人类事实监控机制的弱点,图源:参考文献1

在在日常生活中,我们常用到两种启发式方法判断信息真实与否:一种是观察发言是否流畅自信,另一种是言论是否熟悉。然而事实证明,这两种判断基准在人工智能面前都会败下阵来。
然而,大模型生成的文章,往…

阅读全文

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

马斯克的xAI又洽谈新融资,估值超400亿美元

图片来源:由GPTNB生成

华尔街日报消息,马斯克旗下的大模型平台xAI正在洽谈新一轮融资,估值超400亿美元。

如果新的融资成功,xAI的融资总额将仅次OpenAI,成为大模型赛道融资最高企业之一。


xAI成立于2023年7月12日,其主打产品是一个类ChatGPT的大模型Grok-1。

今年3月17日,Xai的大模型Grok-1正式开源,并且支持商业化用途。Grok-1采用了混合专家架构,有3140亿参数,允许商业化,通过文本问答方式可以生成创意文本、代码等。

根据其公布的测试数据显示,性能超过了GPT-3.5、LLaMA 2 70B,弱于GPT-4、Claude 2、Palm 2等闭源模型。

5月27日, xAI在官网宣布获得60亿美元B轮融资,估值240亿美元。主要投资者包括Valor Equity Partners、红杉资本、国王控股、沙特王子-Bin Talal、Vy Capital等。

也就是说,刚过了5个月的时间xAI的估值便暴涨了160亿美元。xAI仅创立一年多的时间便能拿到如此高的融资,一方面得益于马斯克在全球的强大影响力,另一方面大模型赛道依然保持强劲的增长势头。

马斯克作为OpenAI主要联合创始人之一,曾在2015年—2018年担任董事,因为发展理念不同离开了OpenAI。


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

刚刚!ChatGPT正式成为AI搜索,免费可用

时代变了,最强 AI 加持搜索引擎问世,没有广告。

终于等来这一天。


自今天起,ChatGPT 正式成为一款 AI 搜索引擎了!

图片

北京时间 11 月 1 日凌晨,在 ChatGPT 两岁生日之际,OpenAI 宣布为 ChatGPT 推出了最新的人工智能搜索体验。

ChatGPT search 的推出正式宣告 ChatGPT 消除了即时信息这一最后短板。现在,人们与全球最先进 AI 大模型聊天时,也可以通过网络资源链接快速、及时地获取答案了。

即日起,付费订阅者(以及 SearchGPT 候补名单上的用户)将获得可联网的实时对话信息能力,免费用户、企业用户和教育用户也将在未来几周内陆续获得访问权限

图片

该功能覆盖 ChatGPT 的网页版,以及手机、桌面应用。在正常的对话时,ChatGPT 可以根据具体需求决定何时利用网络中的搜索结果,当然用户也可以主动触发网络搜索。

显然,新功能已经测试已久,上线是一瞬间的,很多人已经用起来了。可以看到,ChatGPT 搜索的天气、股市、地图等小组件齐全,是个完整版搜索引擎的样子:

图片
图片

当然,搜索结果中引用的网络链接也一个都不会少:

图片

你也可以根据 AI 搜索结果里的一堆链接,直接让 ChatGPT 直接生成一份详细的摘要。或是顺着搜索结果继续追问,总而言之,ChatGPT 和搜索功能是完全一体化的。

看起来很美好的样子,网友们一致表示欢迎,同时为谷歌和 Perplexity 担忧一秒钟。

图片

在 HackerNews 上有人则表示,传统搜索引擎如今的问题在于输出很多不相关结果(大量垃圾信息 + SEO 操纵的标题党内容),大模型也面临着幻觉问题。

但如果用大模型的智力来尝试过滤网络中的无用信息,或许搜索引擎的体验就会变得焕然一新。

为给出更好的答案而设计

该功能覆盖 ChatGPT 的网页版,以及手机、桌面应用。在正常的对话时,ChatGPT 可以根据具体需求决定何时利用网络中的搜索结果,当然用户也可以主动触发网络搜索。

显…

多层思维树,OpenAI 认为降低推理成本的速度有多快?

Srinivas Narayanan:我们预计推理成本将继续下降。如果你看看去年的趋势,就会发现它下降了大约 10 倍。

对:到目前为止,ChatGPT 的最佳用例是什么?你认为它和它的未来版本(未来几年)可能特别适用于哪些领域?

Sam Altman:有很多好用例,但有一个用例很棒:人们找出使人衰弱的疾病的病因,然后完全治愈了它。适用的领域也有很多,但 AI 作为一名真正优秀的软件工程师的能力仍然被人低估。更普遍地说,帮助科学家更快地发现新知识的能力将会非常棒。

谷歌搜索新推出的 Grounding 功能已向 Gemini API 和 Google AI Studio 用户提供,让他们可以在使用 Gemini 时从谷歌搜索获取实时、新鲜、最新的信息。

这场 AI 搜索大战才刚刚开始。

参考内容

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

为233种疾病推荐候选药物,中国科学院深度生成模型助力药物发现,登Nature子刊

图片

编辑 | 萝卜皮

了解转录对化学扰动的反应是药物发现的核心,但对疾病化合物组合进行详尽的实验筛选是不可行的。

为了克服这一限制,中国科学院、四川大学华西医院的研究人员提出了 PRnet,这是一种扰动条件下的深度生成模型,可预测转录对从未在体细胞和单细胞水平上进行实验扰动的新化学扰动的反应。


评估表明,PRnet 在预测新化合物、新途径和新细胞系的反应方面优于已有方法。PRnet 能够基于基因特征对基因水平的反应进行解释,并针对疾病进行计算机药物筛选。

PRnet 进一步识别并通过实验验证了针对小细胞肺癌和结直肠癌的新型化合物候选物。并且,PRnet 生成了大规模的扰动谱整合图谱,涵盖了 88 种细胞系、52 种组织和各种化合物库。

PRnet 提供了强大且可扩展的候选药物推荐工作流程,并成功推荐了 233 种疾病的候选药物。总体而言,PRnet 是一种有效且有价值的基因治疗筛选工具。

该研究以「Predicting transcriptional responses to novel chemical perturbations using deep generative model for drug discovery」为题,于 2024 年 10 月 26 日发布在《Nature Communications》。

图片

对化学扰动的转录反应揭示了生物功能的基本见解,并在疾病理解和药物发现中发挥着不可或缺的作用。批量和单细胞 RNA 测序 (scRNA-seq) 实验促进了在组学水平上对化学扰动进行高通量筛选(HTS)。

近期的 HTS 研究已对数千种将细胞或细胞系暴露于化合物的独立扰动进行了实验分析。这些对化学扰动的转录反应揭示了代表个体和细胞过程的连贯可解释的基因级程序,并根据化学扰动对其进行了量化。

尽管取得了令人鼓舞的进展,但实验筛选化学扰动仍然是一个耗时且昂贵的过程,新疗法的发现率很低。通过实验筛选疾病和化合物组合来彻底探索广阔的新型化学扰动空间是难以实现的。

为了解决现有实验方法有限的探索能力,中国科学院、四川大学华西医院的研究团队开发了 PRnet,这是一个灵活且可扩展的扰动条件深度生成模型,它支持预测对从未在批量和单细胞水平上进行实验研究过的新型化学扰动的转录反应。

PRnet 是一种基于编码器-解码器架构的新型生成模型,由三个组件组成,包括扰动适配器、扰动编码器和扰动解码器。PRnet 通过将化合物结构和未受干扰的转录谱作为输入来预测转录反应,从而适应各种扰动场景中的新型化合物和疾病。

图片

图示:方法概述。(来源:论文)

Perturb-adapter 使用简化的分子输入线路输入系统 (SMILES) 化学编码作为输入,从而能够推广到无需先验知识和注释的未见过的化合物。

PRnet 的可学习潜在空间有助于解释基因水平的反应并捕捉异质性。PRnet 经过了近一亿个批量 HTS 观测(受 175,549 种化合物干扰)和数千万个单细胞 HTS 观测(受 188 种化合物干扰)的训练。

至关重要的是,该模型以数据驱动的模型运行,可以有效地推广到新的扰动。

图片

图示:PRnet 在预测基因表达的扰动后变化方面优于其他方法。(来源:论文)

评估表明,PRnet 在预测大量和单细胞 HTS 数据中对新化合物、途径和细胞系的转录反应的变化和表达方面优于其他方法。

为了进一步验证其有效性,该团队利用 PRnet 识别了针对小细胞肺癌(SCLC)的新型生物活性化合物,并寻找针对结直肠癌(CRC)的新型天然化合物。实验验证表明,新型候选化合物在适当的预测浓度范围内对 SCLC 和 CRC 细胞系具有活性。

图片

图示:PRnet 确定的针对小细胞肺癌和结直肠癌的候选药物。(来源:论文)

该模型的灵活性和可扩展性使其成为筛选各种疾病候选药物的宝贵工具。因此,研究人员利用 PRnet 在计算机上筛选各种化合物库,并生成了一个虚拟的大型扰动图谱整合图集,涵盖 88 种细胞系和 52 种组织,以及包含 935 种 FDA 批准药物、4158 种活性化合物、30,456 种天然化合物和 29,670 种类药物化合物的化合物库。

图片

图示:PRnet 在大型扰动轮廓集成图谱上提供了强大且可扩展的推荐工作流程。(来源:论文)

PRnet 还根据基因集的参考变化,为疾病提供了稳健且可扩展的候选推荐工作流程。给定疾病特异性或敏感的化合物基因特征,采用基因集富集分析 (GSEA) 来评估化合物对这些疾病的潜在功效。

PRnet 根据概况图谱成功推荐了 577 项研究中的 577 种候选药物清单,用于 233 种不同的疾病。

在三种代谢紊乱病例中,包括非酒精性脂肪性肝炎 (NASH)、多囊卵巢综合征 (PCOS) 患者和炎症性肠病 (IBD),PRnet 推荐的药物得到了先前的人体或动物研究文献的支持。

PRnet 能够有效预测对新的复杂化学扰动的转录反应并筛选针对特定疾病的大规模化合物库,因此成为基于基因的治疗筛选的有价值的工具。

论文链接:https://www.nature.com/articles/s41467-024-53457-1


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

每帧都是AI实时生成的,全球首款AI游戏问世了!

欢迎来到 Transformer 的世界。

两个月前,我们对 AI 游戏的认知刚刚被谷歌 GameNGen 颠覆。


他们实现了历史性的突破,从此不再需要游戏引擎,AI 能基于扩散模型,为玩家生成实时可玩的游戏。

GameNGen 一出,从此,开发者不必再手动编程,价值 2000 亿美元的全球游戏产业,都将被彻底颠覆。无论什么类型的游戏,都可以想你所想、懂你所懂,幻化出只属于你的独享世界。这样的论调瞬间铺满了 AI 圈。

当时,游戏界最热的除了《黑神话:悟空》,就是米哈游创始人蔡浩宇的犀利发言:「AI 颠覆游戏开发,建议大部分游戏开发者赶快转行。」

没想到,只过了两个月,新的里程碑就来了,AI 实时生成游戏不再只是「只可远观不可亵玩」的 demo,直接就能上手体验。

昨天,两家初创公司 Etched、 Decart AI 联手,带来了世界上首个实时生成的 AI 游戏 Oasis,你在其中体验到的每一帧都来自扩散模型的实时预测,游戏画面持续以 20 帧每秒的速度实时渲染,零延迟。

更重要的是,所有代码和模型权重均已开源。

试玩链接:https://oasis.decart.ai/overview
项目链接:https://github.com/etched-ai/open-oasis
模型权重:https://huggingface.co/Etched/oasis-500m/blob/main/media/thumb.png

AI 能够精确模拟出高质量的图形和复杂的实时交互,这一切的到来快得令人措手不及,看到的网友都有点错愕:难道我们没穿越到《黑客帝国》中的矩阵世界吗?

AI 领域的专家而言也都在关注 Oasis。FlashAttention 作者,普林斯顿助理教授 Tri Dao 等诸多大佬纷纷点赞:「很快模型推理就会变得非常便宜,我们的许多娱乐内容都将由人工智能生成」。

不过既然是游戏,我们就要以游戏的要求来对它进行评价。

一流的意义,摸不着头脑的体验

话不多说,我们立马上手试玩了一下。果然,重要的事情起码要说三遍 —— 这是世界上第一款 AI 实时生成的游戏。这刚进入界面,就收到了 Oasis 的提醒:「请注意,你做出的每一步都将决定整个世界的走向」。

这可一下子把期待值拉满了。游戏的内容能够实时自我塑造,这意味着这个世界里的一举一动都完全以你为主,与你有关,玩家不需要再遵循固定的模式和任务,因为每一秒都是 AI 为你量身定制的惊喜。

从海岸、村庄、森林、沙漠等地形中选择一个,就能正式开启体验了。(由于 Oasis 太过火爆,想真玩上还要排一会儿队,算力有限,每位使用者限时体验五分钟。)

终于挤进去之后,Oasis 这个游戏却让人有点看不懂了,这不就是《我的世界》吗?

比《幻兽帕鲁》还有既视感。

「这样做真的没有版权问题吗?」

很多试玩的人也有同感:「告诉 AI:参考《我的世界》做一个游戏,把 UI 改改就行。」

AI:下载《我的世界》,启动!

不过照《我的世界》的玩法继续搭房子,Oasis 帮忙生成出来的牛棚倒是可圈可点。毕竟,这次驱动游戏的不是设定好的逻辑和程序,只有一个 AI 模型。

把栅栏放在另一个栅栏旁边的动作,看起来只需要一步,但模型其实悄咪咪地完成了识别你点击的是栅栏,它要和其他物体放在一起应该如何排列,这个画面要如何呈现等等的复杂转化。

不过相比它的预测能力,记忆应该是 Oasis 的短板,比如画面左边原来有座山,但是再把视线转回去,就会发现山已经消失了。

而像 Sora,或者同样都旨在模拟物理世界的其他视频模型,在把「镜头」平移回来之后就没有这种明显的记忆损失。对此,有网友猜测是牺牲了参数数量来换取实时的推理速度。

虽然官方声称游戏的操作是 0 延迟的,但是使用鼠标操控起来有点困难,就像有一股神秘的力量在影响鼠标和电脑之间的连接。想要点击背包中某一格的物品,总会识别到其他格中。并且游戏中的文字,有一种梦核的意味,好像有点轮廓,却怎么也看不清楚。

这位网友的形容很贴切:「开始的时候,我以为是《我的世界》,后来亲自尝试过之后,这是吃了菌子再玩的《我的世界》。」

Oasis 的技术:Transformer 中的宇宙

作为 Oasis 的技术支持,Etched、 Decart AI 都发布了技术博客,其中 Decart AI 主要负责训练模型,Etched 提供算力。

架构

模型由两部分组成:一个空间自编码器和一个潜在扩散模型结构。这两部分都基于 Transformer 模型:自编码器基于 ViT,而主干则基于 DiT。与最近的基于动作的世界模型如 GameNGen 和 DIAMOND 不同,Oasis 的研究团队选择了 Transformer 来确保稳定、可预测的扩展。

与 Sora 这样的双向模型不同,Oasis 是自回归地生成帧的,它能够根据游戏输入调节每一帧,这构成了 AI 生成的游戏实时与世界互动的基础。

该模型采用了 Diffusion Forcing 训练方法,能够独立对每个 token 进行去噪。它通过在空间注意力层之间加入额外的时间注意力层,来利用前几帧的上下文。此外,扩散过程在 ViT VAE 生成的潜在维度中进行,这一维度不仅压缩了图像大小,还使得扩散能够专注于更高层次的特征。

时间的稳定性是 DecartAI 关注的问题 —— 需要确保模型的输出在长时间跨度内是有意义的。在自回归模型中,错误会累积,小瑕疵很快就会累积成错误的帧。

为了解决这个问题,该团队在长上下文生成中进行了创新。他们选择的方法是动态调整噪声。模型推理时将对噪声实施这样的计划,初期,通过扩散前向传播注入噪声以减少错误积累,在后期逐渐去除噪声,使模型能够发现并保持之前帧中的高频细节。

性能

Oasis 游戏以每秒 20 帧的速度生成实时输出。目前最先进的具有类似 DiT 架构的文本转视频模型(例如 Sora、Mochi-1 和 Runway)可能需要 10-20 秒才能创建一秒钟的视频,即使在多个 GPU 上也是如此。然而,为了匹配玩游戏的体验,Oasis 的模型必须最多花每 0.04 秒生成一个新帧,速度快了 100 倍以上。

借助 Decart 推理堆栈的优化设置,开发者大幅提升了 GPU 的运行、互联效率,让该模型最终能以可播放的帧速率运行,首次解锁了实时交互性。

但是,为了使模型速度再快一个数量级,并使其大规模运行更具成本效益,就需要新的硬件。Oasis 针对 Etched 构建的 Transformer ASIC Sohu 进行了优化。Sohu 可以扩展到 4K 分辨率的 100B+ 大规模下一代模型。

此外,Oasis 的端到端 Transformer 架构使其在 Sohu 上运行非常高效,即使在 100B+ 参数模型上也可以为 10 倍以上的用户提供服务。对于像 Oasis 这样的生成任务来说,价格显然是可运作的隐藏瓶颈。

来势汹汹的 Etched 与 Decart AI

Etched,这个名字可能有点陌生,但它算得上是硅谷又一个 AI 融资神话。两位 00 后创始人 Chris Zhu 和 Gavin Uberti,把宝押在了基于 Transformer 架构的大模型上,选择 all in Transformer。于是 2022 年,他们双双从哈佛大学退学联手创业,专门开发用于 Transformer 模型的专用芯片(ASIC)。

Etched 的两位创始人 Gavin Uberti(图左)、Chris Zhu(图右)。

今年 7 月,Etched 发布了首款 AI 芯片 Sohu,宣称:「就 Transformer 而言,Sohu 是有史以来最快的芯片,没有任何芯片能与之匹敌。」当天,Etched 完成了 1.2 亿美元 (约人民币 8 亿元) 的 A 轮融资,投资阵容集结了一众硅谷大佬,向英伟达发起了挑战。

与英伟达相比,一台集成了 8 块 Sohu 的服务器,性能超过 160 块 H100,Sohu 的速度比 H100 快 20 倍;与英伟达最强的新一代 B200 相比,Sohu 的速度要快 10 倍以上,而且价格更便宜。

Decart 则是一家来自以色列人工智能公司,直到今天才正式露面。伴随 Oasis 发布的还有 Decart 获得红杉资本和奥伦・泽夫 2100 万美元(约等于 1.5 亿人民币)融资的消息。在推出 Oasis 之前,Decart 提供的主要服务为构建更高效的平台,提升大模型的速度和可靠性。

Oasis 或许会是一个好的开始,或许在此基础之上,不久以后我们就可以玩到全新形态的 AI 游戏?

参考内容:
- https://www.etched.com/blog-posts/oasis
- https://www.decart.ai/articles/oasis-interactive-ai-video-game-model

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

理所当然也能错,数学界震动:「上下铺猜想」被证伪

现代数学,开始对你的直觉开刀了。

数学的很大一部分是由直觉驱动的,但有时想当然会让人误入歧途。


早期的证据可能并不代表大局,一个陈述可能看起来很明显,但一些隐藏的微妙之处会自行显露出来。

三位数学家现在已经证明,概率论中一个著名的假设,即双层床猜想(bunkbed conjecture)就属于这一类。这个猜想 —— 关于当数学迷宫(称为图、graphs)像双层床一样堆叠在一起时,你可以用不同的方式导航 —— 这似乎是自然的,甚至是不言而喻的。

「我们的大脑告诉我们的任何事情都表明,这个猜想应该是正确的,」普林斯顿大学图论学家 Maria Chudnovsky 说道。

论文链接:https://arxiv.org/abs/2410.02545

但这就是错误的。上个月,三位数学家宣布了一个反例,反驳了这一猜想。这一结果为解决固体材料性质相关物理问题提供了新的指导。但它也涉及了关于数学如何运作的更深层次的问题。大量的数学努力都花在试图证明猜想是正确的上。这项新工作的团队在最终找到反例之前失败了很多次。他们的故事表明,数学家可能需要更频繁地质疑他们的假设。

图中之图

在 1985 年,一位名叫 Pieter Kasteleyn 的荷兰物理学家想要用数学方法证明液体如何在多孔固体中流动。他的工作使他提出了双层床猜想。

要理解这个理论,我们先从一张图开始:一组由线或边连接的点或顶点。

现在复制一份该图并将其直接放在原图上方。在它们之间画一些垂直柱子 —— 将底部图上的一些顶点与顶部图上的孪生顶点连接起来的附加边。最终得到的结构类似于双层床。

接下来,我们考虑底部图中的一条边,开始抛硬币。如果硬币正面朝上,则擦除边。如果硬币反面朝上,则保留边。对两个图中的每条边重复此过程。你的下铺和上铺最终看起来会有所不同,但它们仍将通过垂直柱子连接起来。

最后,在下部图中选取两个顶点。你能沿着图的边缘从一个顶点到达另一个顶点吗?还是说这两个顶点现在断开了?

对于任何图,你都可以计算出存在路径的概率。现在看看同样的两个顶点,但对于其中一个顶点,跳转到顶部图中它正上方的顶点。是否有一条路径可以带你从底部图上的起始顶点到达顶部图上的终止顶点?

双层床猜想认为,找到下铺路径的概率总是大于或等于找到跳到上铺路径的概率。无论你从哪个图开始,在双层床之间画多少个垂直柱子,或者选择哪个起始和结束顶点,都无关紧要。

看起来很合理是吧,这难道还能证伪吗?

几十年来,数学家们一直认为这是成立的。直觉告诉我们,在一个铺位上寻路应该比去另一个铺位的路径更简单 —— 从下铺到上铺所需的额外垂直跳跃应该会大大限制可用路径的数量。

数学家们希望双层床猜想是真的。它属于渗透理论领域的一类陈述,该理论处理在随机删除图的边后存在的路径和簇。这些图可以被认为是流体如何移动或渗透通过多孔材料的简化模型,就像水通过海绵一样。双层床猜想则暗示了物理学中一个被广泛接受的假设,即流体穿过固体的可能性。它还暗示了如何解决渗透物理学的相关问题。

但只有当有人能证明双层床猜想是正确的时候,这种情况才会发生。没有人能证明这一点是有原因的。

问题显现

加州大学洛杉矶分校(UCLA)数学家 Igor Pak 一直怀疑双层床猜想是否正确。「他从一开始就持怀疑态度,」他的一名研究生 Nikita Gladkov 说道。「他非常不相信旧猜想。」Pak 一直直言不讳地批评数学家们倾向于集中精力证明这些猜想。同样重要的进步也可以来自设问「如果它们全都错了怎么办?」。

Igor Pak 怀疑双层床猜想还有一个特别的理由:它似乎是一个过于宽泛的说法。他怀疑这个猜想是否真的适用于所有可以想象的图。有些猜想是由实质驱动的,有些则是由一厢情愿的想法驱动的,双层床猜想似乎是后者。

2022 年,他开始寻求反驳这一理论。他花了一年时间尝试,但都以失败告终。然后,他指示 Gladkov 使用计算机对他能找到的每一张图进行详尽的强力搜索。Gladkov 意识到这项任务需要一些复杂的编程,于是请来了高中时就认识的朋友 Aleksandr Zimin(现在他是麻省理工学院的在读博士)。「我们实际上是大学时的室友 —— 我们的宿舍里有一张真正的双层床,」Gladkov 说道。

Gladkov、Pak 和 Zimin 能够手动挨个检查每个少于九个顶点的可能图。在这些情况下,他们可以验证上下铺猜想成立。但对于更大的图,可能情况的数量将会急剧增加,以至于他们无法穷尽所有可能的边删除方式或路径形成方式。

团队随后转向 AI 领域,使用机器学习方法。他们训练了一个神经网络来生成可能偏好向上跳跃的曲折路径图。在模型生成的许多示例中,他们发现下铺路径仅比上铺路径的概率略高一点。但模型未能找到任何反过来的例子。

还有另一个问题出现了:神经网络生成的每个图仍然很大,以至于数学家们无法逐一调查掷硬币步骤的所有可能结果。团队不得不计算在这些结果的子集上找到上下路径的概率,就像民意调查通过抽样部分选民来预测选举结果一样。

数学家们意识到,他们可以对神经网络提供的任何反例有超过 99.99% 的信心确认其是正确的,但却无法达到 100%。他们开始怀疑这种方法是否值得继续追求。这样的证明方式不太可能说服数学界,更不用说任何权威期刊会将其视为严谨的证明了。

「博士生在现实中需要找工作,而不是理论上,」Pak 在他的博客上写道,而 Gladkov 和 Zimin 很快也将开始找工作。「这才是我们停下来的真正原因,」他接着说道。「当你可以尝试做别的事情时,为什么还要坚持并制造争议呢?」

他们放弃了他们的计算方法,但并未停止对这个问题的思考。在接下来的几个月里,他们专注于制定一个不需要计算机的理论论证。但他们仍然缺少完成它所需的所有拼图。

然后,一个来自国外的突破性研究出现了。

计算机?不用了

今年六月,剑桥大学的 Lawrence Hollom 在不同的背景下推翻了上下铺问题的一个变体版本。这个版本的猜想不是关于图,而是关于一种称为「超图」(hypergraphs)的对象。在超图中,「边」不再被定义为两个顶点之间的连接线,而是可以任意数量的顶点间的连接线。

Hollom 成功找到了这个猜想的反例。他创建了一个小型超图,每条边都连接三个顶点:

Gladkov 偶然发现了这篇论文,意识到它正是他们三人所需要的。「我是在晚上发现的,读到凌晨三点。我心想,『哇,这太疯狂了,简直令人难以置信,』」他说。他在睡前给 Zimin 发了短信,第二天两人便通了电话。

这时候考验来了:他们是否可以将 Hollom 找到的反例重新构造成一个普通图,从而推翻原来的上下铺猜想?

这其实并不是这对老朋友第一次考虑如何将超图转化为图。去年年初,他们在一起参加演唱会前的不久就曾讨论过这个问题。「当时红辣椒乐队(The Red Hot Chili Peppers)在台上唱歌,而我却在想着这个问题,」Gladkov 说。「我完全没心思听音乐。」

后来,他们就开发出了在特定情况下将超图转化为图的方法。

他们意识到,现在他们终于可以使用这些技术来转换 Hollom 的超图。Gladkov、Pak 和 Zimin 将超图中每条具有三顶点的边替换为由大量点和普通边组成的集群。这使他们得到了一张巨大的图,包含 7222 个顶点和 14422 条边。

然后,他们放弃了使用人工智能的方法后,利用所构建的理论进行论证。在他们的这张图中,找到上路径的概率比找到下路径高出 0.23%,这是一个极小但不为零的数值。

至此,上下铺猜想终于被他们证明是错误的。

普林斯顿大学数学家 Noga Alon 对此表示,他们的研究结果显示了不应把任何事情视为理所当然的重要性。「我们必须保持怀疑,即便是那些直观上看起来很可能为真的事情。」

Gladkov、Pak 和 Zimin 在之后, 找到了许多满足该猜想的小图示例,但最终,这些示例并未反映在具有足够多顶点和边时他们能构建出的更复杂、更不直观的图中。

正如 Hollom 所说:「我们真的像我们认为的那样理解这些内容了吗?」

数学家们仍然相信激发了上下铺猜想的关于固体内连接位置的物理陈述。但他们需要找到另一种方法来证明它。

与此同时,Pak 表示,很明显,数学家需要更积极地讨论数学证明的本质。他和同事最终并未依赖有争议的计算方法,而是以完全确定的方式推翻了该猜想。但随着计算机和 AI 方法在数学研究中的使用日益普及,一些数学家开始争论该领域的规范是否需要改变。

「这是一个哲学问题,」Alon 说道。「我们应如何看待那些仅在高概率下才能成立的证明?」」

「我认为未来的数学界会接受这样的概率证明,」罗格斯大学的数学家 Doron Zeilberger 说道(这位数学家因在他本人许多的论文中将计算机列为合著者而闻名),「在 50 年内,或许更短,人们将有新的态度。」

其他人则担心这样的未来会威胁到某种重要的东西。「也许概率证明会让你对事情的真实本质缺乏理解或直觉,」Alon 说道。

Pak 建议随着此类结果变得更加常见,应创建专门的期刊来发表这些研究结果,以免它们的价值被数学家们忽视。但他的主要目的是为了在数学界引发大讨论。

「没有正确答案,」他说。「我希望数学界思考,下一次此类结果是否应该被视为有效。」随着技术不断渗透和改变数学领域,这个问题将变得更加紧迫。

参考内容:
https://www.quantamagazine.org/maths-bunkbed-conjecture-has-been-debunked-20241101/
[https://www

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB