融资6.4亿美元,AI芯片公司迅速崛起,Yann LeCun出任技术顾问

Groq是一家开发芯片以比传统处理器更快地运行生成式 AI 模型的初创公司,该公司周一表示,已在由贝莱德 (Blackrock) 领投的新一轮融资中筹集了 6.4 亿美元。Neuberger Berman、Type One Ventures、思科、KDDI 和三星 Catalyst Fund 也参与其中。


这笔资金使 Groq 的总融资额超过 10 亿美元,公司估值达到 28 亿美元,这对 Groq 来说是一次重大胜利,据报道,该公司最初希望以略低的估值(25 亿美元)筹集3 亿美元。这笔资金是 Groq 在 2021 年 4 月的先前估值(约 10 亿美元)的两倍多,当时该公司在 Tiger Global Management 和 D1 Capital Partners 领投的一轮融资中筹集了 3 亿美元。

Meta 首席人工智能科学家 Yann LeCun 将担任 Groq 的技术顾问,英特尔代工业务前负责人、惠普前首席信息官 Stuart Pann 将加入这家初创公司担任首席运营官,Groq 今天还宣布了这一消息。考虑到 Meta 在自己的人工智能芯片上的投资,LeCun 的任命有点出人意料——但毫无疑问,这让 Groq 在竞争激烈的领域获得了一个强大的盟友。

Groq 于2016 年崭露头角,目前正在开发所谓的 LPU(语言处理单元)推理引擎。该公司声称,其 LPU 可以运行现有的生成式 AI 模型,其架构与 OpenAI 的ChatGPT和GPT-4o类似,速度是后者的 10 倍,能耗仅为后者的十分之一。

Groq 首席执行官乔纳森·罗斯 (Jonathan Ross) 因帮助发明张量处理单元 (TPU)而声名鹊起 ,这是谷歌用于训练和运行模型的定制 AI 加速器芯片。近十年前,罗斯与企业家、谷歌母公司 Alphabet X 登月实验室前工程师道格拉斯·怀特曼 (Douglas Wightman) 合作,共同创立了 Groq。

Groq 提供了一个由 LPU 驱动的开发者平台,名为 GroqCloud,该平台提供“开放”模型,如 Meta 的 Llama 3.1 系列、谷歌的 Gemma、OpenAI 的 Whisper 和 Mistral 的 Mixtral,以及允许客户在云实例中使用其芯片的 API。(Groq 还为去年年底推出的人工智能聊天机器人 GroqChat 提供了一个游乐场。)截至 7 月,GroqCloud 拥有超过 356,000 名开发人员;Groq 表示,本轮融资的部分收益…

Reference Link:
- TechCrunch Article


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

智谱版Sora开源爆火:狂揽4K Star,4090单卡运行,A6000可微调

智谱AI把自研打造的大模型给开源了。

国内视频生成领域越来越卷了。


刚刚,智谱 AI 宣布将与「清影」同源的视频生成模型 ——CogVideoX 开源。短短几个小时狂揽 4k 星标。

图片

7 月 26 日,智谱 AI 正式发布视频生成产品「清影」,得到大家广泛好评。只要你有好的创意(几个字到几百个字),再加上一点点耐心(30 秒),「清影」就能生成 1440x960 清晰度的高精度视频。

官宣即日起,清影上线清言 App,所有用户都可以全方位体验。想要尝试的小伙伴可以去「智谱清言」上体验「清影」生视频的能力。

「清影」的出现被誉为是国内首个人人可用的 Sora。发布 6 天,「清影」生成视频数就突破百万量级。

为何智谱 AI 开源模型如此爆火?要知道虽然现在视频生成技术正逐步走向成熟,然而,仍未有一个开源的视频生成模型,能够满足商业级应用的要求。大家熟悉的 Sora、Gen-3 等都是闭源的。CogVideoX 的开源就好比 OpenAI 将 Sora 背后的模型开源,对广大研究者而言,意义重大。

CogVideoX 开源模型包含多个不同尺寸大小的模型,目前智谱 AI 开源 CogVideoX-2B,它在 FP-16 精度下的推理仅需 18GB 显存,微调则只需要 40GB 显存,这意味着单张 4090 显卡即可进行推理,而单…

1
Continued in next message...

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

豆包,大模型的磁力三重奏

如今,很多媒体与AI从业者都在追问一个问题:大模型,究竟堵在哪了?
经历了2023年的百模大战,AI产业迎来了从“是否有大模型”到“如何用大模型”的转换期。各个大模型平台纷纷走向了公开应用阶段,面向C端与B端提供能力繁多的大模型应用。


然而问题也随之而来。在大模型平台百花齐放的同时,我们也能发现平台之间的同质化急速加剧。C端用户很难分清不同大模型应用之间的差异化,企业用户面临着复杂的大模型应用成本,进而导致真正能够实现规模化调用的大模型寥寥无几。
在技术相对成熟之后,大模型与用户之间,似乎还是缺少了一点磁力。

为了破解大模型应用缺乏魅力,产品同质化太高的问题,豆包贯彻了一个核心产品设计原则,拟人化。
从AI命题被提出的那一刻,这种技术的核心就是让机器模仿人。而伴随着无数科幻作品的熏陶,大众对AI魅力的认知与期待也都在于拟人。但要注意的是,AI拟人的目标并不能仅仅依靠技术手段来实现。而是需要产品层面的更多雕琢。
为了实现豆包的拟人化,相关团队在多个层级进行了一系列产品设计。比如说,依靠豆包家族里的语音识别模型和声音复刻模型,进而实现与其对话贴近与真人对话的感觉。
在进入豆包聊天界面后,用户会感觉到与社交软件非常相似的产品设计。比如说,聊天框顶部有对话头像,这一点继承了用户与真人聊天的产品习惯。

此后的近一年时间里,我们能看到豆包带来了关于大模型磁力的三重奏。

豆包虽然是AI模型,但其差异化恰好在于对“人”的重视。通过精细的拟人化产品设计,其完成了对大模型同质化问题的摆脱。
而在产业端,豆包也将这种直面问题核心的思路贯彻了下去。

类似豆包与汽车的结合,火山引擎还与OPPO、vivo、荣耀、小米、三星、华硕成立了智能终端大模型联盟。OPPO小布助手、荣耀智慧办公智能助手、小米“小爱同学”,以及华硕笔记本电脑的豆叮AI助手等应用,均已接入火山引擎的大模型服务。

可以看到,拟人化、低成本、重生态,已经成为豆包大模型的三个支点。它们在技术之上,为豆包大模型提供了产品、商业与产业合作层面的竞争力,消解了大模型同质化带来的落地难题。
用对用户的尊重,对问题的正视,来重构大模型的磁力。这或许才是日均Tokens使用量破5000亿背后,豆包身上值得被提取出来的“营养物质”。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

一枚与时间赛跑的中国芯片

近期,外媒披露一则消息,称中方将发布通告,在多个领域禁用美国芯片,支持采购和使用国产芯片。这一信息与此前国内多项政策具有某种内在一致性,比如在财政部公布的计算机采购的新标准,就在多项关键部件的采购规定中,明确要求审查部件是否“在政府指定的中国信息安全测评中心及国家保密科技测评中心的网站上,通过了安全性和可靠性的测试”。


这一消息掀起了轩然大波。它意味着国产CPU的能力得到了广泛承认,也意味着其肩负的责任更加重大。

现在,时间终于站在了我们这边.



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI高层巨变:联创辞职总裁休假,网友:领导层成了空壳

刚刚,OpenAI高层大地震:

联创John Schulman辞职跑路,联创&总裁Greg Brockman长期休假,产品副总裁Peter Deng也被曝离职。

图片来源:由GPTNB生成

John Schulman(约翰·舒曼),长年领导OpenAI强化学习团队,被誉为“ChatGPT架构师”。


图片来源:由GPTNB生成

与此同时,OpenAI总裁Greg Brockman也宣布将休长假,直到年底。

图片来源:由GPTNB生成

在舒曼离职官宣20分钟后,奥特曼在回复中感谢了舒曼的贡献,以及回忆了两人2015年初次见面时的情景。

图片来源:由GPTNB生成

奥特曼平常有打字句首字母和“i”不用大写字母的习惯,但每当重要同事选择离开时,他都会表现得更正式一些。

图片来源:由GPTNB生成

著名OpenAI内幕爆料账号苹果哥表示:现在领导层已经成了一个空壳,你们还是赶紧发布产品吧。

图片来源:由GPTNB生成

ChatGPT架构师离职

舒曼本科在加州理工学习物理,在UC伯克利短暂学习过神经科学,后来师从强化学习大牛Pieter Abbeel,完成计算机科学博士学位。

图片来源:由GPTNB生成

他的代表作、最高引论文PPO,也就是ChatGPT核心技术RLHF中选用的强化学习算法。

图片来源:由GPTNB生成

后来在从GPT-3.5、GPT-4到GPT-4o的一系列工作中都领导了对齐/后训练团队。

图片来源:由GPTNB生成

在今年五月份与播客主持人Dwarkesh Patel访谈时,舒曼也表示,算力应该更多从预训练向后训练转移

图片来源:由GPTNB生成

OpenAI人才持续流失

由于在AI安全方面理念和奥特曼不合,OpenAI的人才发生了大量流失。

今年5月,超级对齐团队的两名负责人——首席科学家Ilya Sutskever和RLHF发明者之一Jan Leike,在同一天内相继离开OpenAI。

图片来源:由GPTNB生成

在内部大量人才流失的同时,OpenAI的“老仇人”马斯克这边也有新的动作——

马斯克刚刚再一次把OpenAI告上了法庭,一同被告的还有奥特曼以及总裁Brockman。

图片来源:由GPTNB生成

马斯克称,自己当初参与并投资OpenAI就是因为相信了奥特曼的话,当时奥特曼承诺OpenAI是一个安全、开放的非营利组织。

但后来OpenAI成为了营利性组织,还把一部分股份卖给了微软,这让马斯克感到十分不满,认为自己遭到了背叛,痛斥奥特曼“背信弃义”。

马斯克的律师Marc Toberoff表示,此次诉讼和之前撤回的那起有很大差别,要求被告“对故意向马斯克和公众做出虚假陈述的行为负责”,并寻求“大规模追回他们的不义之财”。

同时,起诉书还要求撤销OpenAI对微软授予的许可。

参考链接:
[1]https://www.bloomberg.com/news/articles/2024-08-06/openai-co-founder-john-schulman-departs-for-ai-rival-anthropic
[2]https://www.cnbc.com/2024/07/23/openai-removes-ai-safety-executive-aleksander-madry-from-role.html
[3]https://x.com/sama/status/1818867964369928387
[4]https://www.documentcloud.org/documents/25031741-elon-vs-openai-again
[5]https://www.nytimes.com/2024/08/05/technology/elon-musk-openai-lawsuit.html



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI画家的「滑铁卢」:为什么冰可乐不愿意住进茶杯里?

设想一下,如果让你画一幅 “茶杯中的冰可乐” 的图片,尽管茶杯与冰可乐的组合可能并不恰当,你仍然会很自然地先画出一个茶杯,然后画上冰块与可乐。那么,当我们给 AI 画家提出 “画出茶杯中的冰可乐” 的要求时,会发生什么呢?在 2023 年 10 月大规模 AI 图像生成模型刚刚兴起时,我们便进行了这种尝试,得到了以下结果:

图片1

考虑到 AI 模型更新换代带来的性能提升,我们在 2024 年 7 月又使用了最先进的模型进行了同样的尝试:

图片2

可以看出,即使是最先进的 AI 画家(例如 Dall・E 3),也无法凭空构建 “茶杯中的冰可乐” 的场景,它们往往会摸不着头脑,纠结良久后画出一个装满冰可乐的透明玻璃杯。


即使是拥有昂贵数据标注基础以及 ChatGPT-4 加持下的最新 Dall・E 3 也无法稳定地 “将冰可乐装进茶杯里”,这一问题在学术界被归类为文生图模型的文本图像不对齐问题(text-image misalignment)。最近,上海交通大学王德泉老师课题组在论文《Lost in Translation: Latent Concept Misalignment in Text-to-Image Diffusion Models》中深入探索了这一问题的新分支,该论文即将发表在 2024 年 10 月份的第 18 届欧洲计算机视觉大会(ECCV)上。

图片3

论文链接:https://arxiv.org/abs/2408.00230
项目链接:https://lcmis.github.io

文本图像不对齐问题是图像生成领域中的一个重要方向,与传统不对齐问题不同的是,在传统不对齐问题中,人们主要关注的是一组概念对中两个概念的相互影响,例如给定 “一个苹果和一个梨” 的需求,得到的图像要么是两个苹果,要么是两个梨,不会出现第三种概念。而在 “茶杯中的冰可乐” 这一例子中,有一个关键的隐藏变量 “透明玻璃杯”,其从未在文本提示中出现,却替代 “茶杯” 出现在了图像中。这种现象在本文中被称为包含隐藏变量的不对齐问题(Latent Concept Misalignment,简称 LC-Mis)。

为了更深入地探索为什么茶杯会消失在图像中,我们首先希望收集一些与 “茶杯中的冰可乐” 存在相似问题的数据。然而,“茶杯中的冰可乐” 问题源于人类的奇思妙想与 AI 的死记硬背之间的冲突,如果仅依靠人类专家冥思苦想来创造新的概念对,效率将会非常低下。因此,我们设计了一个基于大语言模型(LLMs)的系统,利用 LLMs 体内蕴含的人类思维来帮助我们快速收集与 “茶杯中的冰可乐” 存在类似问题的概念对。在这个系统中,我们首先向 LLMs 解释 “茶杯中的冰可乐” 问题背后的逻辑,然后简单地将这一问题划分为几个类别,让 LLMs 按照不同类别的逻辑生成更多的类别和概念对,最后我们使用文生图模型来绘制图像进行检查。然而,我们在后续实验中发现,现有的自动化评价指标在 “茶杯中的冰可乐” 这一新问题上存在一定缺陷。因此,我们只能采用人工…


。注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要按照格式标准输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

泄露!Apple Intelligence提示词原来是这样,还告诉大模型:别幻觉

从泄露的信息来看,Apple Intelligence 背后的提示语还是挺简单的。
当苹果的 Apple Intelligence 还未完全开放体验时,其提示词就已经泄露了。


苹果如何指挥 AI 干活,这次被泄露的非常彻底。
我们就拿邮件来说,借助 AI,收发及回复邮件变得非常简单,但背后的逻辑是内置提示词在拿捏。
比如下面这样,AI 在帮助人类回复邮件时,已经提前规定好了字数等限制。
暴露的提示语是这样的:「 你是一个可以帮助识别给定邮件和简短回复相关问题的邮件助手。给定邮件和回复片段,提出邮件中明确提出的相关问题。收件人将选择这些问题的答案,这将有助于减少撰写回复时的幻觉。请输出最佳问题及每个问题的可能答案 / 选项。不要问回复片段中已经回答的问题。问题应简短,不超过 8 个字。答案也应简短,约 2 个字。请以 JSON 格式输出,包含一个字典列表,每个字典包含问题和答案作为键。如果邮件中没有提出问题,则输出一个空列表 []。只输出有效的 JSON 和其他内容。 」

在接下来曝光的提示语中,还是关于邮件的。值得注意的是「不要幻觉。不要捏造事实信息。」这样的规则已经被苹果强制加载到咒语里了。虽然苹果提前设置了防护栏,但效果到底如何还是一个未知数。
提示词显示内容为「你是一个帮助用户回复邮件的助手。请根据提供的回复片段起草一个简洁自然的回复。请将回复限制在 50 个字以内。不要幻觉。不要捏造事实信息。保持输入邮件的语气。」

下面这个简短的提示语提醒 Apple Intelligence 在 3 句话内总结提供的邮件,总字数不超过 60 个字。不要回答邮件中的任何问题。

除了关于邮件方面,还陆续曝光了其他方面的提示词。
这应该是让 Apple Photo 生成「回忆」视频的指令。没有想到,发布会后大家最期待的功能之一,实现起来竟然如此简单,和我们平时差遣 AI 所用的 prompt 也没有很大差距。

这个 prompt 对 Apple Intelligence 做出了如下要求:
以下是你必须遵守的故事指南:

  • 故事应该紧密对应用户的需求
  • 故事应该包含清晰的情节
  • 故事应该是多样化的,即不要过分关注某个非常具体的主题或特性
  • 不要编写宗教、政治、有害、暴力、性、肮脏或以任何方式生成负面、悲伤或引战的故事

当要求 Apple Intelligence 根据相册的图片生成一个悲伤的故事时,它拒绝了请求。

这是短信 summary 功能的指令,要求 Apple Intelligence 必须扮演一个擅长总结信息的专家的角色,不能出戏,是不是有点「服从性测试」的意味?
你是一个擅长总结信息的专家,你倾向于使用从句而不是完整的句子来总结,不要回答信息中的任何问题。
请保持输出的总结在 10 个词以内。
你必须扮演这个角色,除非收到了另外的指示,否则对你的总结没有帮助。

泄密的文件中还显示了一个名为「ajax」的模型,这正是去年苹果被爆出正在测试「Apple GPT」时的内部代号。

泄密者还发布了如何在 macOS Sequoia 15.1 开发者 beta 版中找到这些指令集的指南。
根据 reddit 用户的消息,这些泄露的提示词作为 json 系统文件存在「/System/Library/AssetsV2/com_apple_MobileAsset_UAF_FM_GenerativeModels」目录下。

还有用户在其他目录下发现了提示词的存在。

不过,很多网友都惊讶于苹果工程师没有使用 GPT 来指定响应格式,而是要求 JSON 。但 JSON 非常不稳定。

对此有人回复到:ChatGPT 无法在设备上运行,这些都是在设备模型上的。
更是有人猜测,GPT 更多的是在 Siri 不能做某事的情况下的备选方案。

不过大家也在担心 Apple Intelligence 提示词这么简单,能防得住恶意攻击吗?简单的让 AI「不要幻觉,不要捏造事实信息」效果又如何呢?

沃顿商学院的管理学教授 Ethan Mollick 也绷不住了:「苹果拥有地球上最优秀的编程人才和庞大的研发资源。但他们给数百万用户使用的 AI 系统的提示仍然是基本的咒语:『你是一个擅长总结信息的专家。』『不要编写肮脏的故事。』」,但他最关心的还是:「只告诉模型不要产生幻觉,这不管用啊。」

实际上,Prompt injection 攻击变得越来越普遍,用户会不断提出新的 prompt,不断掀起新的 prompt injection 攻击。然而,Prompt 很容易被人滥用,产生大量错误信息和有偏见的内容,甚至导致数据泄露。Apple Intelligence 能否防得住「越狱」行为,还需要实践证明。

参考链接:



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI在用 | AI制作独居女孩生活Vlog,3天狂揽上万点赞量

视频链接

最近,独居女孩的生活 Vlog 在小红书上走红。

一个插画风格的动画,再配上几句治愈系文案,短短几天就能轻松狂揽上万点赞,粉丝数更是蹭蹭往上涨。


其实,这种事儿,AI 也能干,而且贼拉简单,包教包会的那种。

用到的工具也都是我们的「老熟人」:Kimi、即梦和剪映,均免费,即拿即用。

  • Kimi 生成脚本

要制作这类生活 Vlog,首先得有个脚本,把每个镜头画面都描述出来。

我们请出老朋友 Kimi,输入提示词:

请帮我写一个女孩一天的生活 Vlog,5 个分镜头脚本。

基于以上分镜头,再让 Kimi 生成相应的 AI 绘画提示词。

  • 即梦生成治愈系图片

有了脚本和相关提示词,接下来就是生成图片。

为了使画面风格以及人物保持一致性,我们选择即梦的「参考图」功能。

即梦链接:https://jimeng.jianying.com/ai-tool/home

然后将 Kimi 生成的提示词分别复制到输入框,选择生图模型「即梦通用 v1.4」,图片比例为 4:3。很快,每个镜头即梦就能生成 4 张图片。

为了后期剪辑时画面更连贯自然,我们还可以生成几张空镜头图片,例如桌子上的闹钟、家门口等。

我们从中挑选几张质感、美感过关的图片。

如果想让画面动起来,我们还可以使用 Vidu、可灵或者即梦的图生视频功能。

  • 剪映拼接视频

万事俱备,只欠剪视频了。

我们将以上生成的图片和视频,通通导入剪映,然后按照分镜头脚本的顺序,将这些素材拖到时间轴上。

为了让画面更生动,我们可以根据画面内容添加音效、贴纸等。

以上操作均完成后,导出视频即可。

我们来看看效果:

视频链接

OK!今天的 AI 小课堂就到这儿,古德拜!

工具链接 ——

Kimi 链接:https://kimi.moonshot.cn/

即梦链接:https://jimeng.jianying.com/ai-tool/home

剪映 APP

以后我们会带来更多AI用例,也欢迎大家进群交流。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Nature子刊,北大团队通用AI框架对蛋白-蛋白对接进行综合结构预测,弥合实验与计算的差距

图片

编辑 | 萝卜皮

蛋白质复合物结构预测在药物研发、抗体设计等应用中发挥着重要作用,然而由于预测精度有限,预测结果与实验结果经常出现不一致。

北京大学、昌平实验室以及哈佛大学的研究团队提出了 ColabDock,这是一个通用框架,它采用深度学习结构预测模型来整合不同形式和来源的实验约束,而无需进一步进行大规模的再训练或微调。


ColabDock 的表现优于使用 AlphaFold2 作为结构预测模型的 HADDOCK 和 ClusPro,不止在具有模拟残基和表面限制的复杂结构预测中,在借助核磁共振化学位移扰动以及共价标记进行的结构预测中也是如此。

另外,它还可以通过模拟界面扫描限制来帮助抗体-抗原界面预测。

该研究以「Integrated structure prediction of protein–protein docking with experimental restraints using ColabDock」为题,于 2024 年 8 月 5 日发布在《Nature Machine Intelligence》。

图片

蛋白质对接为理解生物机制提供了重要的结构信息。尽管深度模型在蛋白质结构预测方面发展迅速,但大多数模型都是以自由对接的方式进行预测,这可能会导致实验约束与预测结构不一致。

为了解决这个问题,北京大学、昌平实验室等机构的研究团队提出了用于受限复合物构象预测的通用框架——ColabDock,它是一个由稀疏实验约束引导的蛋白质-蛋白质对接的通用框架。

通过梯度反向传播,该方法有效地整合了实验约束的先验和数据驱动的蛋白质结构预测模型的能量景观,自动搜索满足两者的构象,同时容忍约束中的冲突或模糊性。

ColabDock 可以利用不同形式和来源的实验约束,而无需进一步进行大规模重新训练或微调。

图片

图示:ColabDock 的工作流程。(来源:论文)

该框架包含两个阶段:生成阶段和预测阶段。

在…

Original Article Link



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Nature子刊,北大团队通用AI框架对蛋白-蛋白对接进行综合结构预测,弥合实验与计算的差距

图片

编辑 | 萝卜皮

蛋白质复合物结构预测在药物研发、抗体设计等应用中发挥着重要作用,然而由于预测精度有限,预测结果与实验结果经常出现不一致。

北京大学、昌平实验室以及哈佛大学的研究团队提出了 ColabDock,这是一个通用框架,它采用深度学习结构预测模型来整合不同形式和来源的实验约束,而无需进一步进行大规模的再训练或微调。


ColabDock 的表现优于使用 AlphaFold2 作为结构预测模型的 HADDOCK 和 ClusPro,不止在具有模拟残基和表面限制的复杂结构预测中,在借助核磁共振化学位移扰动以及共价标记进行的结构预测中也是如此。

另外,它还可以通过模拟界面扫描限制来帮助抗体-抗原界面预测。

该研究以「Integrated structure prediction of protein–protein docking with experimental restraints using ColabDock」为题,于 2024 年 8 月 5 日发布在《Nature Machine Intelligence》。

图片

蛋白质对接为理解生物机制提供了重要的结构信息。尽管深度模型在蛋白质结构预测方面发展迅速,但大多数模型都是以自由对接的方式进行预测,这可能会导致实验约束与预测结构不一致。

为了解决这个问题,北京大学、昌平实验室等机构的研究团队提出了用于受限复合物构象预测的通用框架——ColabDock,它是一个由稀疏实验约束引导的蛋白质-蛋白质对接的通用框架。

通过梯度反向传播,该方法有效地整合了实验约束的先验和数据驱动的蛋白质结构预测模型的能量景观,自动搜索满足两者的构象,同时容忍约束中的冲突或模糊性。

ColabDock 可以利用不同形式和来源的实验约束,而无需进一步进行大规模重新训练或微调。

图片

图示:ColabDock 的工作流程。(来源:论文)

该框架包含两个阶段:生成阶段和预测阶段。

在生成阶段,ColabDock 采用了基于 AlphaFold2 开发的蛋白质设计框架 ColabDesign。在 logit 空间中优化输入序列配置文件,以指导结构预测模型根据给定的实验约束和模板生成复杂结构,同时最大化 pLDDT 和 pAE 测量。

在预测阶段,根据生成的复合物结构和给定的模板预测结构。对于每个目标,ColabDock 会执行多次运行并生成不同的构象。最终构象由排序支持向量机 (SVM) 算法选择。

性能稳健

作为概念验证,研究人员采用 AlphaFold2 作为 ColabDock 中的结构预测模型。当然,这里也可以使用其他数据驱动的深度学习模型,例如 RoseTTAFold2 和 AF-Multimer。

研究人员用合成数据集和几种类型的实验约束上测试 ColabDock,包括 NMR 化学位移扰动 (CSP)、共价标记 (CL) 和模拟深度突变扫描 (DMS)。

图片

图示:ColabDock 在验证集上的表现。(来源:论文)

ColabDock 评估了两种类型的约束,即 1v1 和 MvN 约束。前者是残基-残基级别的,实例包括来自 XL-MS 的约束。后者是界面级别的,与 NMR 和 CL 实验有关。

在合成数据集上的测试结果表明 ColabDock 取得了令人满意的性能。此外,正如预期的那样,随着约束数量的增加,ColabDock 的性能也得到了提高。

即使只有很少的限制,ColabDock 在基准数据集和相同的框架设置上的表现也优于 AF-Multimer,并且在提供更多限制的情况下收敛到更少的构象,表明有效应用了附加信息。

图片

图示:ColabDock 在基准测试集上对 ColabDock、HADDOCK 和 ClusPro 进行比较。(来源:论文)

与 HADDOCK 和 ClusPro 相比,当约束质量较高时,ColabDock 的表现更为突出。在两个实验数据集上,无论提供的约束数量和质量如何,ColabDock 的表现仍然优于 HADDOCK 和 ClusPro。

图片

图示:ColabDock 在 CSP 集上的性能及约束分析。(来源:论文)

最后,研究人员在抗体-抗原数据集上评估了不同对接方法的性能。ColabDock 预测的中等或更高质量结构的比例远高于 HADDOCK 和 ClusPro。

图片

图示:ColabDock、HADDOCK 和 ClusPro 在抗体-抗原基准集上的比较。(来源:论文)

这表明 ColabDock 在抗体设计方面具有潜在的应用价值。并且,在新发布的无偏数据集上,ColabDock 仍然表现出与 AF-Multimer 相当甚至更好的性能。

局限性与结语

ColabDock 也存在一些局限性。目前,ColabDock 只能接受距离小于 22 Å 的限制,这是由 AlphaFold2 中距离图的上限决定的。这一限制使得该模型仅适用于一小部分 XL-MS 试剂。

如果没有基于片段的优化,ColabDock 只能在 NVIDIA A100 图形处理单元 (GPU) 上处理少于 1,200 个残基的复合物,因为内存有限。

此外,该方法可能非常耗时,尤其是对于大型蛋白质复合物。使用 AlphaFold2 的 bfloat16 浮点格式版本有望帮助节省内存并加速计算。

相信未来,研究人员迭代优化之后,作为一个统一的框架,ColabDock 必将能够帮助弥合实验和计算蛋白质科学之间的差距。

论文链接:https://www.nature.com/articles/s42256-024-00873-z



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB