SOTA性能,厦大多模态蛋白质-配体亲和力预测AI方法,首次结合分子表面信息

编辑 | KX

在药物研发领域,准确有效地预测蛋白质与配体的结合亲和力对于药物筛选和优化至关重要。然而,目前的研究没有考虑到分子表面信息在蛋白质-配体相互作用中的重要作用。


基于此,来自厦门大学的研究人员提出了一种新颖的多模态特征提取(MFE)框架,该框架首次结合了蛋白质表面、3D 结构和序列的信息,并使用交叉注意机制进行不同模态之间的特征对齐。

实验结果表明,该方法在预测蛋白质-配体结合亲和力方面取得了最先进的性能。此外,消融研究证明了该框架内蛋白质表面信息和多模态特征对齐的有效性和必要性。

相关研究以「Surface-based multimodal protein–ligand binding affinity prediction」为题,于 6 月 21 日发布在《Bioinformatics》上。

论文链接:https://academic.oup.com/bioinformatics/article/40/7/btae413/7697100

gitHub 地址:https://github.com/Sultans0fSwing/MFE

蛋白质-配体结合亲和力预测研究

作为药物发现的关键阶段,预测蛋白质-配体结合亲和力,长期以来得到了广泛的研究,这对于高效、准确的药物筛选至关重要。

传统的计算机辅助药物发现工具使用评分函数(SF)粗略估计蛋白质-配体结合亲和力,但准确性较低。分子动力学模拟方法可以提供更准确的结合亲和力估计,但通常成本高昂且耗时。

随着计算技术的发展和大规模生物数据的日益丰富,基于深度学习的方法在蛋白质-配体结合亲和力预测领域显示出巨大的潜力。

然而,目前的研究主要利用基于序列或结构的表示来预测蛋白质-配体的结合亲和力,对蛋白质-配体相互作用至关重要的蛋白质表面信息的研究相对较少。

分子表面是蛋白质结构的高级表示,它表现出化学和几何特征模式,可作为蛋白质与其他生物分子相互作用模式的指纹。因此,一些研究开始使用蛋白质表面信息来预测蛋白质-配体结合亲和力。

但现有的方法主要关注单模态数据,忽略了蛋白质的多模态信息。此外,在处理蛋白质的多模态信息时,传统方法通常以直接的方式连接来自不同模态的特征,而不考虑它们之间的异质性,这导致无法有效利用模态之间的互补性。

新颖的多模态特征提取框架

在此,研究人员提出了一种新颖的多模态特征提取 (MFE) 框架,该框架首次结合了来自蛋白质表面、3D 结构和序列的信息。

图 1:MFE 框架。

具体来说,研究设计了两个主要组件:蛋白质特征提取模块和多模态特征比对模块。

蛋白质特征提取模块用于从蛋白质表面、结构和序列信息中提取初始嵌入。

在多模态特征比对模块中,使用交叉注意机制实现蛋白质结构、序列嵌入和表面嵌入之间的特征比对,以获得统一且信息丰富的特征嵌入。

与目前最先进的方法相比,所提出的框架在蛋白质-配体结合亲和力预测任务上取得了最佳效果。

SOTA 性能

表 1 展示了 MFE 和其他基线模型在蛋白质-配体结合亲和力预测任务上的结果。所有模型都使用相同的训练集和验证集划分方法,并在 PDBbind 核心集(版本 2016)上进行测试。可以发现,与所有基线相比,MFE 方法实现了 SOTA 性能。

图片

消融研究

为了进一步证明不同模态特征和特征比对的有效性和必要性,研究人员进行了以下消融研究:W/O 蛋白质表面信息、W/O 蛋白质结构信息、W/O 蛋白质序列信息和无特征比对。结果如表 2 和图 2 所示。

图片

图 2:消融研究结果。

结果表明,当去除表面信息时,性能会明显下降,这表明表面信息在模型中起着至关重要的作用。同样,排除结构或序列信息都会导致性能下降,而序列信息的消除会导致更明显的下降。这是因为序列信息包含了蛋白质的全局信息,这对于模型对蛋白质的全面理解至关重要。

此外,在没有特征比对的情况下,模型的性能会下降。这强调了特征比对在处理多模态数据中的重要性,因为它有助于减少不同模态特征之间的异质性,从而提高模型有效整合不同模态特征的能力。

图片

超参数分析

为了研究不同超参数对模型性能的影响,研究人员进行了以下三个实验:(i)MFE-A-6:仅使用 6 种基本原子类型来表示表面的化学特性,包括氢、碳、氮、氧、磷、硫;(ii)MFE-P-256:仅选择最靠近配体中心的 256 个表面点作为蛋白质口袋表面;(iii)MFE-P-1024:选择最靠近配体中心的 1024 个表面点作为蛋白质口袋表面。

图 3:超参数分析。

图 3:超参数分析。

特征对齐分析与可视化

为了深入研究特征对齐对模型性能的影响,研究人员使用主成分分析 (PCA) 对测试集中的蛋白质表面、结构和序列特征进行降维和可视化分析。此方法旨在确定特征对齐是否可以减轻多模态嵌入之间的异质性。

图 4:特征比对前(a)和特征比对后(b)的蛋白质表面、结构和序列嵌入降维可视化结果。

图 4:特征比对前(a)和特征比对后(b)的蛋白质表面、结构和序列嵌入降维可视化结果。

研究发现,特征对齐显著增强了蛋白质表面、结构和序列嵌入之间的一致性。这是由于通过注意力机制优化了 Transformer 中的多模态特征交互,该机制计算了不同特征之间的注意权重。这增强了模型捕获关键信息的能力,使来自不同模态的数据在特征空间中更紧密地聚集,从而减少了模型识别蛋白质-配体相互作用时的噪音和错误。

最后,研究人员总结道,「总之,通过研究蛋白质的表面,我们可以更深入地了解蛋白质如何与其他生物分子相互作用。在未来的工作中,我们将更彻底地探索蛋白质表面,以揭示它们在生物信息学中的更广泛应用。」

注:封面来自网络


。注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要按照格式标准输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

快手开源LivePortrait,GitHub 6.6K Star,实现表情姿态极速迁移

近日,快手可灵大模型团队开源了名为LivePortrait的可控人像视频生成框架,该框架能够准确、实时地将驱动视频的表情、姿态迁移到静态或动态人像视频上,生成极具表现力的视频结果。如下动图所示:
图片

来自网友测试LivePortrait

图片

来自网友测试LivePortrait

快手开源的LivePortrait对应的论文题目为:
《 LivePortrait: Efficient Portrait Animation with Stitching and Retargeting Control 》
图片

LivePortrait论文首页

……

*以上为部分内容,完整内容请参考原文链接。



方法介绍

和当前主流基于扩散模型的方法不同,LivePortrait探索并拓展了基于隐式关键点框架的潜力,从而平衡了模型计算效率和可控性。LivePortrait聚焦于更好的泛化性,可控性和实用的效率。为了提升生成能力和可控性,LivePortrait采用69M高质量训练帧,视频-图片混合训练策略,升级网络结构,并设计了更好的动作建模和优化方式。此外,LivePortrait将隐式关键点看成一种面部混合变形 (Blendshape) 的有效隐式表示,并基于此精心提出了贴合 (stitching) 和重定向 (retargeting) 模块。这两个模块为轻量MLP网络,因此在提升可控性的同时,计算成本可以忽略。即使是和一些已有的基于扩散模型的方法比较,LivePortrait依旧很能打。同时,在RTX4090 GPU上,LivePortrait的单帧生成速度能够达到12.8ms,若经过进一步优化,如TensorRT,预计能达10ms以内!

……

第一阶段基础模型训练

图片

……

以上为部分内容,完整内容请参考原文链接。


拓展

多人驱动:得益于LivePortrait的贴合模块,对于多人合照,LivePortrait可以用指定驱动视频对指定人脸进行驱动,从而实现多人合照驱动,拓宽了LivePortrait的实际应用。

动物驱动:LivePortrait不仅对人像具有良好的泛化性,当在动物数据集上微调后,对动物肖像也可进行精准驱动。

图片

人像视频编辑:除了人像照片,给定一段人像视频,比如舞蹈视频,LivePortrait可以用驱动视频对头部区域进行动作编辑。得益于贴合模块,LivePortrait可以精准地编辑头部区域的动作,如表情、姿态等,而不影响非头部区域的画面。

图片

落地与展望

LivePortrait的相关技术点,已在快手的诸多业务完成落地,包括快手魔表、快手私信、快影的AI表情玩法、快手直播、以及快手孵化的面向年轻人的噗叽APP等,并将探索新的落地方式,持续为用户创造价值。此外,LivePortrait会基于可灵基础模型,进一步探索多模态驱动的人像视频生成,追求更高品质的效果。

参考文献

[1] Ting-Chun Wang, Arun Mallya, and Ming-Yu Liu. One-shot free-view neural talking-head synthesis for video conferencing. In CVPR, 2021.

[2] Arsha Nagrani, Joon Son Chung, and Andrew Zisserman. Voxceleb: a large-scale speaker identification dataset. In Interspeech, 2017.

……

以上为部分内容,完整内容请参考原文链接。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

人类模仿AI新赛道,AI:论疯癫,你是我爹

机器之能报道编辑:杨文

AI被人类带坏!
这个世界,太癫了……
最近,社交媒体上冒出来一堆搞怪视频,打着 AI 的旗号,真人 cos AI,甚至抖音还专门出了个热门话题——
人类模仿 AI 大赛。

(视频来自抖音博主「关妮乱石」)
视频链接:https://mp.weixin.qq.com/s/1DVc8skecSsO0a9QcklZlw

套路都一个样儿:左边一张旧照片,右边打着「AI 修复」的字幕,实际由真人演绎着脑干缺失的狗血「剧情」。


-1-
AI:第一次被人冒充,没想到比我还抽象
自从可灵、Luma 发布以来,全球网友组团整活,什么特朗普和拜登打啵,鳌拜和韦小宝秀恩爱,奥特曼和黄仁勋打起来……

只有你想不到,没有 AI「祸害」不到。(查看详情请移步:AI 在用 | 鳌拜和韦小宝秀恩爱、奥特曼和黄仁勋打起来,Luma 翻车离谱到可爱

于是,人类脑洞大开,发明了一个新赛道:
模仿 AI。
还记得那个三心二意男朋友的名场面吗?

抖音博主「一尾 studio」copy 了同款:

视频链接:https://mp.weixin.qq.com/s/1DVc8skecSsO0a9QcklZlw

画面中男主摆出手势,满脸笑容地等待女友来比心,但接下来的每个剧情都出其不意——

女友伸出手,牵出了第三者,两人扬长而去,只留男主一人在风中凌乱。然后……男主竟从椅子腿下捧出了一桶泡面,自顾自地吃了起来。

毫无逻辑,就是 AI 的逻辑。博主演出了 AI 的精髓。

还有更离谱的。
男女主正站在沙滩上试图打啵,这时镜头突现女路人,下一秒男主角转身就找女路人要电话号码。

AI 看了都得说一句:移情别恋这锅我不背。
抖音博主「黄粒粒」安排的剧情也相当逆天。

女主想秀恩爱,没想到正揉面的男友上来就是一巴掌,女主扬起胳膊 ——
拿出一把梳子给男友捋毛,两人开始 Kiss,再然后就是男友啃饼,女友吃泡面。

视频链接:https://mp.weixin.qq.com/s/1DVc8skecSsO0a9QcklZlw

不得不说,女主最后边吃泡面边摇头的慢动作跟 AI 有一拼。
抖音博主「关妮乱石」拿枕头想给朋友点教训,但朋友从另一边跑出镜,两人上演一出「友谊地久天长」。

视频链接:https://mp.weixin.qq.com/s/1DVc8skecSsO0a9QcklZlw

还有 B 站 up 主「西蒙的日常 Simon」模仿 AI 吃香蕉:

视频链接:https://mp.weixin.qq.com/s/1DVc8skecSsO0a9QcklZlw

同为 B 站 up 主的「街健呆木头」则是模仿 AI 扶单杠跳艳舞:

视频链接:https://mp.weixin.qq.com/s/1DVc8skecSsO0a9QcklZlw

网友纷纷评论。
真正的AI是把手上这根钢管吃了。
AI:我记得我还没有这么流畅。
别用AI来掩饰你那放浪形骸的内心。
以真乱假的效果也让不少网友上当。

-2-
教程:AI 让马斯克和奥特曼「冰释前嫌」
其实,这波人类模仿 AI 的灵感是从 AI 让老照片动起来汲取的。

我们也上手试了一下。
首先,找来两张照片,使用 P 图软件将其拼接在一起。例如,我们将马斯克和奥特曼的照片拼在一起。

然后,使用可灵或者 Luma 的「图生视频」功能,上传该照片、输入提示词和负向提示词,设置参数。

值得注意的是,使用可灵时,提示词不能出现「亲吻」等敏感词,可用 kiss 替代。

等待 2-5 分钟就能出片。效果如下:

我们还搞了个奥特曼和微软 CEO 纳德拉的亲密视频:

视频链接:https://mp.weixin.qq.com/s/1DVc8skecSsO0a9QcklZlw

OK,下班!古德拜!
以后我们会带来更多 AIGC 案例演示,也欢迎大家进群交流。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

科技景观:想知道AI将如何影响政府与政治?机器人有答案

什么样的影响将AI带给就业?这是关于技术最重要的问题之一,甚至在这项技术从科幻变为现实的过程中也难以确定。


在这个问题上,有一个轻微乐观的说法是新技术只是创造了新的工作岗位;而在另一端,人们担心企业将用AI工具取代整个工作人员。有时,争论并非关于最终状态,而更多是关于过渡速度:在几年内完成的动荡对于中间受影响的人来说是毁灭性的,而在花费两个十年的情况下可能是可以忍受的。即使是过去的类比也并不像我们希望的那么清晰。内燃机最终终结了工作马的时代,但蒸汽机则产生了截然相反的效果,在英国大大增加了受雇运输货物的包裹动物的数量。为什么?因为铁路导致国家范围内的货物运输繁荣,但不能完成从仓库到门口的交付。马需要做蒸汽机无法做的事情。直到它们也不再需要了。

蒸汽动力和内燃机是通用技术的例子,它们改变了整个社会结构。即使从书写开始计数,也并没有太多这样的例子,或者甚至从火的诞生开始计数也是如此。我相信,“生成预训练变换器”这个术语具有相同的缩写是一个完全的巧合,所以GPT似乎是一个GPT。

人不是马,AI工具也不是人类。人不是马[需要引证]。看起来AI技术可能永远不会能够做到人类完全能做到的一切,因为人类所能做的一部分就是作为人类存在,这看似有些牵强,但却是一个重要的论断。马仍然参与赛马比赛,因为如果你把马换成了汽车,那就不是马术比赛了[需要引证];人们仍然会提供那些因为某种原因人们希望由人提供的服务。随着文化围绕着AI的崛起发生变化,人们觉得有些这样的服务可能会让我们感到惊讶。例如,医疗保健中的AI是被低估的,因为对很多人来说,“人情味”是一件不好的事情:你担心的那个医生是否在评判你的饮酒,或者那个你对其撒谎是因为你希望他们喜欢你的心理医生。

因此,很多人喜欢思考的不是工作岗位,而是“任务”。拿一个工作,用任务来定义它,然后问AI是否能够完成这些任务。通过这种方式,您可以确定一些任务在完全被AI吞噬的风险之中,一些任务是绝对安全的,而一个大部分则会“受到”AI的影响,无论结果如何。值得注意的是很明显的一点:这种方法论机械化地使得大量工作岗位受到“影响”,而只有少数工作岗位会被“销毁”。 (即使受到AI影响最大的工作可能也存在一些AI难以完成的任务)。这可能是OpenAI先驱的一种方法。在2023年的一篇论文中,与该实验室有关的研究人员估计:

「80%的工人属于被至少10%任务暴露于LLM的行业,而19%的工人所从事的行业中超过一半任务被标注为暴露。」

该报告认为,包括数学家、法律秘书和……记者在内,有15至86个职业“完全暴露”。

经过一年后,由于批评者对该方法论提出了异议,报告再次成为新闻焦点,这主要得益于托尼·布莱尔研究所(TBI)发布的一份论文。这个强大的智库甚至在两周前的工党压倒性胜利之前就已经强大而有影响力;现在,它被视为斯塔默思想的缔造者之一。它认为公共部门正处于AI颠覆的时机。从该研究所的论文《AI对公共部门劳动力的潜在影响》(pdf)中:

「通过基于AI的软件,例如机器学习模型和大型语言模型,以及从AI启用的传感器到先进机器人的硬件的组合,公共部门工作者执行的超过40%的任务可以在一定程度上自动化。政府将需要投资于AI技术,升级其数据系统,培训其工作人员使用新工具,并覆盖与工作组早期退出相关的任何冗余成本。根据一个雄心勃勃的推出计划,我们估计这些成本相当于本届议会任期平均每年40亿英镑。」

在过去的几周里,TechScape一直在关注新政府对AI的态度。明天,预计国王演讲中将会有一个AI法案。TBI的论文为我们提供了一个锚定点:在转型投资是否会接近每年40亿英镑?虽然很多事情可以免费完成,但有更多的事情可以用大量资金完成。根据该研究所的估计,支出将有超过9:1的回报;但是在没有问题的情况下,20亿英镑的账单很难在议会中通过。

界定AI狂热者

经过周末,这份报告引起了第二波兴趣,批评者对研究方法提出了异议。根据404 Media发布:跳过通讯推广订阅在TechScape免费订阅Alex Hern的每周深入探讨技术如何塑造我们生活的通讯输入您的电子邮箱地址注册隐私声明:通讯中可能包含有关慈善机构、在线广告以及由外部政党资助的内容的信息。更多信息请查看我们的隐私政策。我们使用Google reCaptcha来保护我们的网站,适用Google隐私政策和服务条款。通讯推广后

这个预测的问题在于,基于专家采访的预测将会太困难。基本上,AI工具提出AI可以取代人类从事工作的发现,并从根本上改变政府如何运作的发现在很大程度上是由AI本身实现的。

伦敦大学学院副教授Michael Veale告诉我:“这种方法并没有验证语言模型在实质上是否能够自动化。自动化是一个复杂的现象 - 在政府领域,它涉及多个行政层次、共享标准、法律变迁以及极低的失败成本。这些任务并不是孤立存在的,而是成为更广泛的一系列实践和例行工作的一部分。”

将工作岗位细分为任务已经在美国劳工部创造了一个庞大的数据库。但是,描述哪些任务受到AI影响是一项繁重的工作。在OpenAI的类似论文中,“作者们亲自标记了大量任务和DWAs,并征集了有经验的人类注释者来审查GPT-3、GPT-3.5和GPT-4的输出作为OpenAI对齐工作的一部分”,但他们也委托当时新推出的GPT-4来完成同样的任务,并发现机器人和人类之间有60到80%的一致性。

TBI的论文跳过了专家,只是让AI来回答问题。在引起广泛关注后,该论文悄悄更新了一个长达八页的附录以捍卫这种选择:

「显然,这些方法之间存在权衡。没有哪种是完美的。对人类判断的依赖可能会限制分析到更广泛的任务分类并减少对时间节约的具体描述。另一方面,追求更详细的分类通常会更多地依赖AI来支持评估。」

但取消人类标注员并非OpenAI论文和TBI后续研究之间的唯一区别。职员们还使用了一个更为详细的提示,鼓励AI系统详细考虑给定任务所涉及的认知和身体劳动的性质,在问AI是否能够完成一个任务之前,并提出后续问题,以确保只有那些实际上可自动化的任务得到计算。这是“提示工程”的行动,通过鼓励AI系统采取逐步推理方法来改进其答案。这也是所谓的“过度悬挂”的一个例子:研究人员在两种情况下都使用了相同的GPT-4模型,但通过与之更好地合作,TBI团队能够从中得到更好的成果。随着尘埃落定,这份新附录可能是整个论文中最重要的部分。顶层发现可能是真实的,基本上是真实的,因为GPT-4非常擅长产生可能基本上是真实的文本。毫无疑问,如果有人有时间浏览它在标记上数以千计任务的许多页面,那么可能会存在一些误差、陈词滥调和幻觉。但在研究的规模上,它们并不重要。发现也不重要。“一些但不是所有的公共部门任务可能会受到AI的自动化影响”是一个相当容易的说法。将数字放在上面有助于为投资辩护,但您将是一个傻子如果赌“40%”比50%或30%更准确。相反,这篇论文是通过实践进行教学。您想知道AI将如何影响政府与政治?好了,在这里就有了。一份在很大程度上节省成本的论文被提交给了一个观众,这个观众的方法当中论文的创作方式本身对其结果表示怀疑。再重复八千个任务,您就会逐渐更接近于理解AI对工作的影响 - 并且会看到这将会是一个绝不干净的过渡。

探索更多关于这些主题的信息
技术
科技景观通讯
人工智能(AI)
就业
计算
工作与职业
公务员
托尼·布莱尔
特色

转载此内容。请注意:Title、Date、Body 三个部分的内容,放入到对应的位置;Title部分内容需翻译为中文。最后以Makedown格式标准输出。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

黑客声称从迪士尼窃取数据,抗议人工智能生成艺术品

黑客组织称其已从迪士尼内部聊天平台窃取超过一太字节的数据,并正在将这些信息在线泄露,以抗议他们称为公司反艺术家立场的行为。


这个自称为NullBulge的组织至少自五月以来一直活跃。他们声称受到一种“保护艺术家权利并确保公平对待他们工作”的愿望的驱使。上周五,他们通过去中心化的比特Torrent文件共享平台在线发布了迪士尼的整个内部Slack频道。

不同于许多企业黑客,NullBulge似乎不关心财务奖励。该组织没有公开向迪士尼索要赎金,并几乎立即发布了其窃取的数据集中的首批文件。“这是我从未想到会这么快就获得的一个,”该组织的匿名发言人在最初发布时说。“迪士尼。是的,就是迪士尼。袭击才刚刚开始,但我们有一些好东西。”

然而,其他人质疑该组织的动机。网络安全公司ImmuniWeb的首席执行官Ilia Kolochenko表示,这些声明可能只是“一个精心策划的烟幕,用于掩盖黑客的真实身份和真实动机”。

NullBulge表示,他们通过一款视频游戏修改工具侵入了迪士尼网络。照片:NullBulge

尽管如此,NullBulge的方法先前与其所声明的意识形态一致。今年六月,一款对AI图像生成器Stable Diffusion的热门插件被发现遭到该组织的攻击。该工具提供了一种易于使用的界面,用于图像生成器,但被黑客更新以包含恶意软件,用于窃取进一步的登录凭据并扩大他们的影响力。

该组织表示,他们是通过安装另一个被他们入侵的工具的开发者侵入了迪士尼网络,即一款视频游戏修改工具。

他们的网站上发布了一份近似使命宣言。“你入侵了我?为什么?”它问。“我们很抱歉我们不得不这样对待你,但只有在你犯了我们的罪时,我们才这样做。”“加密推广:我们不赞成任何形式的加密货币或与加密相关的产品/服务推广。人工智能艺术品:我们认为人工智能生成的艺术品损害了创意产业,应该受到反对。任何形式的盗窃:对Patreons、其他支持性艺术家平台或艺术家的任何盗窃都应受到抵制。”

甚至该组织的名称也很具有象征意义:NullBulge的吉祥物是一只穿着蓝色粘液覆盖的人格化“毛绒”狮子,在其胯部有一个明显的肿块。

NullBulge向《华尔街日报》发表声明称,他们立即发布数据是因为他们认为向迪士尼提出要求会 “无效”:“如果我们说‘你好迪士尼,我们有你所有的Slack数据’,他们会立即封锁并试图消灭我们。在一场决斗中,你最好先开火。”

探索更多关于以下主题的内容
黑客
华特·迪士尼公司
人工智能 (AI)
比特Torrent
网络犯罪
迪士尼频道
迪士尼+
新闻分享
重复使用此内容。

。注意:Title、Date、Body 三个部分的内容,放入到对应的位置,Title部分内容需要翻译为中文。最后只需要输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

自称比特币发明者的男子克雷格·赖特事件被转交检察院

克雷格·赖特是一位澳大利亚计算机科学家,曾虚假声称自己是比特币的创造者,他的案件因潜在的伪证和伪造指控被转交给了皇家检察院。


今年三月,赖特在与加密货币企业联盟的一场法律战中败诉,这些企业提前对他提起诉讼,以防止他在法庭上强制执行他的主张。在他被击败的证据如此明显时,首席法官梅洛尔先生在案件结束后几秒钟内作出了口头判决。梅洛尔表示:“证据是压倒性的,赖特博士并非比特币白皮书的作者。”在随后的书面判决中,梅洛尔表示,赖特在书面和口头证词中“大量而反复地撒谎”,“他撒的大多数谎言都与他伪造的文件有关,这些文件声称支持他的主张……赖特试图证明他是中本聪(Satoshi Nakamoto)的行为是对法院程序目前最严重的滥用之一。”赖特的书面证据在审理开始前就被指出可能是伪造的,他自己的专家证人似乎也持相同观点。在交叉审问中,赖特反驳了这些指控,并声称他的专家证人资质不够。“如果我伪造了那份文件,它会很完美的,”在某个时刻,他曾说。在周二的裁决中,梅洛尔表示,他将“相关”法律行动中的文件转交给皇家检察院,以考虑是否对赖特提出刑事指控。“在通过多个法律诉讼推进他的虚假中本聪主张的过程中,赖特对英国、挪威和美国法院的程序进行了‘最严重的滥用’,”裁决如是说。“在这些情况下,我毫无疑问应该将这起案件中的相关文件转交给皇家检察院,以考虑是否应对赖特因他的大规模伪证和伪造文件提起控诉,或者是否应该发出逮捕令,或者是否应该寻求从他目前所在地引渡他。”此前的一起法院案件是赖特起诉一位指控他是“说谎者”和“骗子”的比特币名人,最终以澳大利亚人胜诉告终,原告彼得·麦科马克主张其辩护基于事实真相。但赖特的胜利是一场伊底基的胜利:法官钱伯兰先生裁定他“提出了一个故意虚假的案件”,并仅授予象征性的1英镑赔偿金。更多内容请访问:比特币、加密货币、新闻。分享本文。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Avallano发布ProtocolCopilot™

Avallano正在推出ProtocolCopilot™,这是一种创新的基于人工智能的临床研究协议助手,旨在改变生物制药公司和临床研究机构管理和处理复杂临床试验方案的方式。图片{ width=60% }


ProtocolCopilot利用先进的人工智能技术来简化理解和遵守临床研究方案的流程。通过提供聊天机器人界面,确保用户可以轻松访问关键的协议信息,而无需浏览繁琐的文件。ProtocolCopilot™的主要特点包括:

  • AI 驱动的信息检索:利用复杂的AI来摄取、处理和回答有关协议的特定问题,消除了手动搜索和超链接导航的需求。
  • 增强的可用性:直接向用户提供答案,使他们能够跳过耗时的扫描长篇文件的过程。
  • 记忆提醒:帮助用户快速进行参考检查,有助于轻松记忆特定的协议程序。
  • 用户友好的学习:为用户提供一个引人入胜且直观的平台,让他们熟悉协议细节,提升整体用户体验。
  • 合规支持:促进遵守适当的程序、包含/排除和药物相关查询,特别是在紧张的时间表和繁重的工作负荷下。
  • 移动适用性:为繁忙的研究机构工作人员提供一个便捷的随身参考解决方案。
  • 可定制输出:可定制以不同语言和适当阅读水平提供答案,满足多样化用户需求。
  • “正确AI”保证:实施严格的流程,确保回答是基于事实、协议为基础且准确无误的。

通过ProtocolCopilot,临床研究专业人员可以更多地专注于关键任务,而不是被繁琐的协议文件所困扰。对于经常受到管理多个研究同时的认知需求的现场工作人员来说,这个工具尤为有益。

“我们很高兴将ProtocolCopilot™引入市场,提供一种尖端的解决方案,不仅提高效率,还支持临床研究的合规性和准确性。” Avallano 的首席执行官 Paul Della Maggiora 表示。“通过利用AI的力量,我们正在应对行业中的一个重要痛点,为研究专业人员提供一个了解他们需求的工具。”

Avallano正在寻求早期合作伙伴来测试和部署ProtocolCopilot™。要了解更多信息或请求演示,请联系 Jillian Stamatis。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

DataCore获得6000万美元融资加速增长和创新

DataCore获得6000万美元融资加速增长和创新

Vistara Growth的支持突出了DataCore在通过人工智能技术跨核心、边缘和云部署塑造数据生态系统未来的角色。图片{ width=60% }


数据基础设施和管理领域的行业领先者DataCore Software通过一轮由灵活增长资本提供商Vistara Growth领投的6000万美元融资实现了重要里程碑。这项投资将使DataCore能够扩展其技术产品并提高运营敏捷性,确保公司能够有效满足现代数据环境和基础设施堆栈的不断变化需求。通过拓宽市场覆盖范围以应对新兴用例,DataCore旨在支持其客户并确保他们在核心、边缘和云环境中取得成功。

随着数据量、复杂性和网络威胁不断增加,组织正面临数据管理方面前所未有的挑战。DataCore打算利用新资本的注入来推进其存储解决方案套件,集中精力提升基础设施和数据弹性。这项投资将推动AI技术的整合,使企业能够提取可行见解并通过智能自动化简化复杂工作流程。此外,继续专注于网络安全框架将帮助DataCore客户应对不断发展的威胁向量,提供更强大的数据保护防护措施。

领投Vistara Growth的约翰·奥多诺休表示:“作为数据存储和基础设施解决方案的先驱,DataCore正处于良好位置,可以利用企业数字转型产生的日益增长的数据量。我们亲眼看到DataCore的客户依赖于其灵活、硬件无关的解决方案进行重要的高可用性存储工作流程,并且我们很高兴能够合作实现其下一个增长阶段。DataCore提供先进基础设施解决方案的业绩得到了25年的研发和创新支持,进一步得益于战略收购。”

DataCore Software的首席执行官戴夫·扎布罗斯基表示:“这笔关键性融资标志着我们对客户和合作伙伴的承诺迎来新篇章,使我们能够通过协作和创新提供更大价值。在Vistara Growth的强有力支持下,我们有望加速发展智能和弹性解决方案,涉足新型数据基础设施领域,这些解决方案不仅解决当今的数据挑战,还为未来发展铺平道路。我们的目标是为企业提供在日益复杂的数字环境中取得成功所需的工具,推动长期成功并创造可持续影响。”

随着DataCore踏上这一新篇章,公司专注于利用变革性人工智能和网络安全解决方案推动产品创新,突破数据管理的可能性边界。这种有远见的战略将DataCore定位为进步的催化剂,使组织能够现代化和未来保护其数字基础设施和IT系统。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Datasaur整合亚马逊Bedrock降低AI项目成本

Datasaur,是一家专门提供私人大型语言模型(LLM)解决方案的亚马逊网络服务(AWS)合作伙伴网络(APN)成员,今天宣布将其LLM Labs产品与亚马逊Bedrock集成。图片{ width=60% }


亚马逊Bedrock是一个完全托管的服务,通过单个API提供来自领先人工智能(AI)公司的高性能基础模型(FMs)选择,并提供组织构建生成式AI应用所需的广泛能力,包括安全性、隐私性和负责任的AI。这种集成使用户能够更轻松地评估和比较多个FMs在成本、质量和推理时间等关键指标上的表现。
Datasaur促进私人LLM模型的训练和部署,这些模型能够无缝连接到组织的专有信息存储库。通过使用Datasaur的LLM Labs与亚马逊Bedrock,公司可以对比不同的LLM模型,包括专有模型与开源模型,以及在亚马逊Bedrock之外运行的模型。这意味着公司能够更灵活地验证他们是否选择了符合他们特定需求的正确模型。
Datasaur的LLM Labs与亚马逊Bedrock集成的主要好处:
成本降低:用户可以通过从专有模型转换为开源FMs,将成本降低高达70%。
推理时间优化:对于时间敏感的工作流程,Datasaur使用户能够在质量和速度之间评估权衡。例如,用户可能会选择质量下降15%,以换取推理速度提升5倍。
增强数据安全性:注重安全性的用户可以连接自己的AWS API密钥,允许数据保留在他们的AWS环境内,同时利用Datasaur的LLM Labs能力。
非技术用户可访问性:直观的界面旨在使主题专家(例如财务分析师、保健专业人员)能够轻松访问和利用亚马逊的强大功能。

“通过将我们的NLP专业知识与AWS的AI服务整合,我们为客户提供了快速获取顶级FMs的方式,加速了他们的决策过程,”Datasaur的首席执行官Ivan Lee表示。”与AWS合作标志着在为用户提供高效、具有成本效益的AI解决方案方面迈出了重要一步。”

“Datasaur的LLM Labs已将我们的模型开发过程从几周缩短到几小时,”领先的NLP开发公司GLAIR的首席执行官William Lim表示。”我们现在可以在不同项目中优化价格、价值和速度,灵活采用新一代模型。这种灵活性对我们的工作流程来说具有改变游戏规则的意义。”

访问 datasaur.ai/llm/llm-home 开始使用Datasaur和AWS构建您的私人LLM项目。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Juniper Networks推出Ops4AI实验室和验证设计

加速AI配置的时间价值,使用Juniper、AMD、Broadcom、Intel、NVIDIA保证网络
Juniper Networks®(纽约证券交易所:JNPR),安全、AI原生网络领导者,今天宣布了第一个也是最全面的多供应商实验室,该实验室用于验证端到端自动化AI数据中心解决方案和自动化运营,使用来自领先供应商的交换、路由、存储和计算解决方案,以及新的Juniper验证设计(JVD),加速在部署AI集群时的时间价值。图片{ width=60% }


此外,Juniper发布了新的关键软件增强功能,优化以太网上的AI工作负载的性能和管理。通过这些AI操作(Ops4AI)举措,Juniper正在密切与广泛的基础设施生态系统合作伙伴合作,以通过最灵活和易于管理的数据中心基础设施实现最佳的AI工作负载性能。

作为Juniper AI原生网络平台的关键要素,现有的用于AI的网络解决方案由通过AI优化的400G和800G QFX系列交换机和PTX系列路由器构成的脊-叶数据中心架构为基础。该解决方案通过行业领先的高性能防火墙进行保护,并通过Juniper Apstra数据中心保障软件和Marvis虚拟网络助手(VNA)进行管理。Juniper Apstra和Marvis提供关键的Ops4AI功能,例如基于意图的网络、多供应商交换管理、应用/流/工作负载意识、AIOps主动操作和GenAI会话接口。借助Juniper完整的AI网络解决方案,客户和合作伙伴可以降低AI训练作业完成时间(JCTs),减少推理过程中的延迟,并提高GPU利用率,同时将部署时间缩短最多85%,在某些情况下降低运营成本最多90%。

为了进一步简化AI集群并最大化网络性能,Juniper增加了新的Ops4AI软件增强功能,共同为客户提供独特的价值。今天宣布的增强功能包括:
用于AI的Fabric自动调整:利用来自路由器和交换机的遥测数据,使用Juniper Apstra的闭环自动化功能自动计算和配置传输控制中的拥塞控制的最佳参数设置,以提供AI工作负载性能的峰值。全局负载均衡:利用网络中的拥塞热点的端到端视图(即本地和下游交换机),实时负载平衡AI流量,提供更低的延迟、更好的网络利用率并降低JCTs。从网络到SmartNIC的端到端可见性:提供对网络的端到端整体视图,包括来自Nvidia(BlueField和ConnectX)等SmartNIC。

行业首个多供应商Ops4AI实验室,与生态系统合作并验证运营
开放性和协作是Juniper网络使命的核心,因为这是将AI数据中心从目前的早期采用者阶段推进到有效的大规模市场部署的唯一途径。完整供应商的AI数据中心基础设施的端到端运营一直很困难,导致垂直集成的AI数据中心解决方案被供应商锁定且交货时间长。因此,Juniper推出了行业首个Ops4AI实验室,其参与者包括Broadcom、Intel、Nvidia、WEKA等行业领先公司。Ops4AI实验室位于Juniper位于加利福尼亚州圣尼瓦尔(Sunnyvale)的总部,对所有希望使用最先进GPU计算、存储技术、基于以太网的网络布局和自动化运营测试其自有AI工作负载的合格客户和合作伙伴开放。使用经过验证的以太网布局的Ops4AI实验室测试提供与基于InfiniBand的AI基础设施相当的性能。

希望获取在Juniper Ops4AI实验室中的位置的用户应联系他们当地的Juniper Networks销售团队。

Juniper验证设计提供保障
Juniper验证设计是详细的实施文档,使新客户有信心他们选择的解决方案和拓扑是经过充分描述、经过测试和可重复的,从而加快成功部署的时间。所有JVD都经过验证的集成解决方案,在特定平台和软件版本之上进行了最佳实践设计的测试。

Juniper发布了专门针对AI数据中心的第一个预验证蓝图,该蓝图建立在Nvidia A100和H100计算、来自Juniper生态合作伙伴的存储以及Juniper数据中心脊和叶交换机组合。这种新的Ops4AI JVD补充了Juniper现有的面向自动化、安全数据中心的JVD,其中包括QFX和PTX脊柱、QFX叶交换、数据中心自动化以及Juniper的用于数据中心安全的SRX和vSRX/cSRX解决方案。

在7月23日注册参加首选网络AI事件
组织受邀参加由CUBE的Bob Laliberte和Juniper AI专家共同主持的7月23日的Juniper的抓住AI时刻的虚拟活动,详细了解与AMD、Broadcom、ePlus、Intel、WEKA和AI数据中心最终用户Deutsche Bahn和PayPal一起构建的快速演变的AI数据中心生态系统。与会者可以了解这些出色的行业领导者和客户如何创建专门为今天和未来打造的可持续高性能AI数据中心。

支持性语录
“DeepL的使命是打破商务领域的语言障碍,全球超过十万家企业都信任我们为他们提供翻译服务。为了满足我们业务发展的需求,我们需要一种提供更高吞吐量、可扩展性、出色可靠性和合理总体拥有成本的数据中心网络。Juniper的QFX交换机对于增强我们的AI工作负载至关重要,为我们整个基础设施高效运行的密集计算需求提供了坚固的网络基础。”– DeepL工程总监Guido Simon
“最优私的总会获胜,同样适用于AI数据中心中的计算、存储、网络和操作。Juniper在Ops4AI实验室、JVDs和一个新的推广计划方面进行了重大投资,旨在使我们的客户和合作伙伴在构建完整GenAI解决方案的方式上最大限度地享有选择、灵活性和稳定性。从未有过像现在这样构建高性能、低延迟、多供应商AI数据中心解决方案,这种解决方案简单、快速且经济部署和运行的时机。”– Juniper Networks AI与数据中心高级副总裁兼总经理Praveen Jain
“以太网协议是为了满足企业现场AI部署的不断增长需求而开发的一个新的流通、计算和存储生态系统,这将引领AI基础设施供应商格局的变化。国际数据公司估计,到2028年,生成式AI数据中心以太网交换市场规模将达到约90亿美元,并以约70%的复合年增长率增长。Juniper的方法非常适合满足市场需求。”– 国际数据公司云与数据中心网络研究副总裁Vijay Bhagavath
“真正无处不在而性能卓越的AI基础设施依赖于基于标准的技术、开源软件和通过Ultra以太网联盟等组织进行的行业范围的协作。AMD、Juniper以及我们在整个生态系统中的合作伙伴汇集了在创建和部署高性能、低延迟网络解决方案方面的丰富经验,从而提供AI创新。”– AMD网络与系统架构公司高级工程师Steve Scott
“以太网是AI集群的事实上的网络解决方案,在性能、可扩展性、可靠性、经济性、易用性和开放互操作性的所有度量标准上都表现出色。Juniper的Ops4AI实验室体现了我们对以太网网络在AI中的巨大信心。我们非常感激Juniper在这一关键领域的开创性领导。”– Broadcom核心交换集团高级副总裁兼总经理Ram Velaga
“生成式AI是一种非常苛刻的数据中心工作负载,而AI加速器(xPU)是其中心。成功的AI解决方案依赖于计算与高性能网络和存储的开放、协作集成,以实现可靠、低延迟的AI训练和推理。英特尔正在将人工智能带到企业的各个地方,从个人电脑到数据中心再到边缘,我们很高兴能与Juniper合作,因为他们在以太网网络方面的创新对于连接大型AI集群和优化任务完成时间至关重要。”– 英特尔数据中心与人工智能集团执行副总裁Justin Hotard
“在ePlus,提供自动化、易于部署、可扩展和管理的数据中心网络解决方案是我们的首要任务之一,尤其是当我们帮助客户支持他们的AI倡议时。作为解决方案合作伙伴,Juniper的AI优化网络与我们的READI网络架构(具有弹性、高效、灵活、防御、智能)、以及我们的AI Ignite策略良好集成,提供了连接我们计算和存储解决方案的连通基础,实现了性能、速度和效率的无缝连接。”– ePlus软件、战略、联盟与市场总裁Ken Farber

附加资源
由Amit Sanyal撰写的博客:Ops4AI加速高性能AI数据中心的时间价值,同时最小化运行成本和头疼



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB