高效、可泛化的高斯重建框架,只需3张视图即可快速推理,45秒便可完成优化

3D 重建和新视图合成技术在虚拟现实和增强现实等领域有着广泛的应用。NeRF 通过隐式地将场景编码为辐射场,在视图合成上取得了显著的成功。


然而,由于 NeRF 依赖于耗时的逐场景优化,极大地限制了其实用性。为了解决这一问题,出现了一些可泛化的 NeRF 方法,旨在通过网络前馈的方式从多视图中重建场景。然而,由于基于 NeRF 的方法需要在射线上查询密集的点进行渲染,因此速度受到了限制。最近,3D Gaussian Splatting(3D-GS)采用了各向异性 3D 高斯来显式表示场景,并通过可微分的光栅化器实现了实时高质量的渲染。

然而,3D-GS 同样依赖于每个场景的优化,每个场景需要几十分钟的时间。为了解决这个问题,后续出现了一些泛化性的高斯重建工作,尝试将 3D-GS 推广到未见过的场景,然而,这些方法的训练和渲染效率还有待提升且主要局限于物体或人体的重建。

基于此,来自华中科技大学、南洋理工大学、大湾区大学和上海人工智能实验室的研究者联合提出了一种高效的、可泛化的高斯重建模型,称为 MVSGaussian,用于未见过的一般场景的新视图合成。

论文名称:Fast Generalizable Gaussian Splatting Reconstruction from Multi-View Stereo

论文地址:https://arxiv.org/abs/2405.12218

项目主页:https://mvsgaussian.github.io/

代码开源:https://github.com/TQTQliu/MVSGaussian

演示视频:https://youtu.be/4TxMQ9RnHMA

该模型能够从稀疏多视角图像中学习场景的 3D 高斯表征。通过结合多视角立体(MVS)的显式几何推理和高斯溅射实时渲染的优势,MVSGaussian 在泛化推理上表现出色,能够以最快的速度实现最佳的视图渲染质量。此外,MVSGaussian 在逐场景优化方面也有显著优势,仅需 45 秒(约为 3D-GS 的 1/10)即可完成高质量的实时渲染。

基本原理

设计一种高效的、可泛化的高斯溅射框架,我们面临以下几个关键挑战:

1)与使用隐式表示的 NeRF 不同,3D-GS 显式地使用数百万个 3D 高斯球来表达场景。将预训练的 3D-GS 应用于未见过的场景时,3D 高斯球的参数(如位置和颜色)会显著不同。设计一种通用的表征来适配 3D-GS 是一项非平凡的任务。

2)可泛化 NeRF 方法通过体渲染实现了令人印象深刻的视图合成效果。然而,高斯溅射的泛化能力尚未…


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

1.8B参数,阿里云首个联合DNA、RNA、蛋白质的生物大模型,涵盖16.9W物种

编辑 | 萝卜皮

不久之前,Google DeepMind 发布了 AlphaFold3,再次引发了人们对「AI + 生命科学」的讨论。

在学界,科学家的目标往往是先认识世界,然后在认识的基础上改造世界。


但是在生命科学领域,人类对整个生命的理解与认识还如九牛一毛、冰山一角;建立对生命系统的多维度深刻认识是当前人类研究的重要一步,AI 是达成这一步的重要工具。

近期,阿里云飞天实验室发布并开源了业界首个联合 DNA、RNA、蛋白质的生物大模型「LucaOne」。这是一种新型预训练基础模型,旨在综合学习遗传和蛋白质组语言,涵盖 169,861 个物种的数据。

该模型不仅可以对核酸、蛋白质的内部特征进行挖掘,还可识别核酸与蛋白质之间的联系,可以帮助研究人员探索更多生物系统的内在逻辑与规则。

该研究的预印版本「LucaOne: Generalized Biological Foundation Model with Unified Nucleic Acid and Protein Language」,已于 2024 年 5 月 14 日发布在 bioRxiv 预印平台。

开源地址:https://github.com/LucaOne

论文链接:https://www.biorxiv.org/content/10.1101/2024.05.10.592927v1

LucaOne 为何能快速跨模态处理数据

LucaOne 的核心亮点在于其独特的自监督加半监督学习架构,该架构基于生物语言的本质属性设计,使得模型能够在 10 亿量级的序列与注释信息上进行学习,参数规模约 1.8 B。

这一设计不仅允许模型处理核酸和蛋白质数据,而且能够识别两者之间的内在联系,即生物学中心法则中「DNA 到 RNA 再到蛋白质」的转化过程。

通过学习「中心法则」,LucaOne 能够很好得识别 DNA 序列与对应蛋白质之间的内在联系,这对于理解生命活动的基本规律十分重要。模型提供的基础能力,可以帮助研究人员破译更多中心法则相关的细节,让人们更加深入地理解生物世界的底层逻辑。

「这个模型目标是希望学习生物系统的底层编码,目前这个版本以基因组、转录组、蛋白质组为核心。其中的核苷酸及氨基酸序列是生物系统里的两种模态,放在一起统一学习能帮助模型更快学习到生物系统的编码体系。」该项目的负责人、阿里云飞天实验室生物计算研究总监李兆融解释道。

「模型的参数有 1.8 B,什么概念呢?我们希望模型即足够「大」,能理解复杂生物系统,又不至于太大影响下游的使用效率。在整理高质量数据后,我们将模型参数设置在这个级别。」

LucaOne 在下游任务中的稳健性能

为了验证 LucaOne 对各类生物计算任务的价值,研究人员设置了一系列测试验证:首先是一个「异想天开」的任务,假设一群火星人来到地球,仅基于测序和建模能力,能否学习到分子生物学的一个核心规则:中心法则。

他们选取 13 个物种的核酸序列和其对应蛋白的正负样本数据集,关系对总数量为 24000,其中正负样本比例 1:2。其中基因序列数据是其在基因组的原始数据,包括了大量的非编码区(内含子,调控元件,及可能的「垃圾片段」等)。

为了验证模型的学习能力,研究人员采用训练:验证:测试比例为:4:3:25;即仅 3200 组数据作为训练,18750 组数据作为测试集来预测其核酸序列是否可以翻译成数据组里的蛋白序列。

实验结果显示,LucaOne 在中心法则学习任务上取得了显著成效,预测准确率达到 0.85,远优于其他计算方法。

当分析细分表现时发现,LucaOne 在处理具有特殊进化适应性的生物如海鞘时,预测表现特别差。海鞘利用中心法则的具体规则-密码子偏好性,与其他生物明显不同。研究人员表示,这种情况可以认为海鞘用的是一种中心法则语法「方言」。而这种「方言」在训练数据集里仅有 100 条,因此模型没有很好的学习到这种规则。这表明了生物世界的多样性与复杂性,也为模型未来的数据扩充和优化指明方向。

在另外广泛选取的 7 个任务里,LucaOne 也都表现优异,尤其是在流感 H3N2 病毒的免疫逃逸风险预测任务中,LucaOne 结合简单感知机模型实现了 100% 的准确率,可以为这一类公共卫生的重要问题提供了有力的支持。

这也是一个跨多个专业团队的长达1年的持续工作成果。

中山大学医学院施莽教授及其团队深度参与了 LucaOne 模型的数据设计与验证,提供了丰富的生物学视角和经验。

「LucaOne 是一项极为重要的尝试。我们首次尝试将整个生物界的基因组和蛋白质组的数据压缩到一个模型中进行学习,这为我们提供了一个前所未有的研究视角。」施莽教授表示。

「在这一研究过程中,我们已经发现了许多有趣的现象。最让我惊讶的是,在没有任何先验知识的前提下,LucaOne 确实能够更有效地学习中心法则中核酸与蛋白质之间的对应关系。这是一种全新的研究方法,我期待利用这个模型探索更多的生物学问题。」施教授说。

中国医学科学院北京协和医学院病原生物学研究所所长、美国微生物科学院会士舒跃龙教授及其团队参与了 LucaOne 在流感病毒方面的分析与验证工作,并与阿里云生物计算团队持续开展「AI + 病原学」的前沿探索。

舒跃龙教授表示:「将前沿的 AI 技术与病原生物学相结合具有重大的科学意义和社会价值。LucaOne 模型为这一交叉领域的研究提供了强大的工具。我们与阿里云团队正在进行更深入的合作研究。」

「我坚信,通过这种紧密的跨学科协作,我们能探索更多病原生物起源进化、跨种传播以及感染致病等方面的规律,为传染病防控和生物安全做出更大的贡献。」舒教授说。

李兆融表示:「有两件事情我们会继续往下做。第一是不断去突破生物系统基础模型的边界,我们行业正在积累更多的基础数据,也有非常丰富的其他信息可以补充学习,我们看到的,听到的,感受到的丰富多彩的生物世界都是模型学习的材料。这也会随着更多 AI 技术的创新一起推动这一类基础模型的进步。」

「同时我们在和多个顶尖的科研团队就几个特定领域进行持续的应用研究,主要围绕在微生物及病原学领域。这几个方向有明确的社会价值,以及也能和基础模型研发互相借鉴, 共同探索前进。」李兆融说。

该团队相信,随着更多数据、更丰富模态的加入,以及模型的持续升级,LucaOne 将更深入揭示生物系统的智能,推动 AI 在生物科学、疾病诊断、药物开发等领域的广泛应用。随着 LucaOne 模型的开源,全球科研人员将共享这一生物计算的强大工具,共同加速生命科学的探索与创新。


中山大学医学院

施莽教授

中国医学科学院北京协和医学院

舒跃龙教授

阿里云飞天实验室

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

再战Transformer!原作者带队的Mamba 2来了,新架构训练效率大幅提升

自 2017 年被提出以来,Transformer 已经成为 AI 大模型的主流架构,一直稳居语言建模方面 C 位。
但随着模型规模的扩展和需要处理的序列不断变长,Transformer 的局限性也逐渐凸显。


一个很明显的缺陷是:Transformer 模型中自注意力机制的计算量会随着上下文长度的增加呈平方级增长。
几个月前,Mamba 的出现打破了这一局面,它可以随上下文长度的增加实现线性扩展。随着 Mamba 的发布,这些状态空间模型 (SSM) 在中小型规模上已经实现了与 Transformers 匹敌,甚至超越 Transformers。
Mamba 的作者只有两位,一位是卡内基梅隆大学机器学习系助理教授 Albert Gu,另一位是 Together.AI 首席科学家、普林斯顿大学计算机科学助理教授 Tri Dao。
Mamba 面世之后的这段时间里,社区反应热烈。可惜的是,Mamba 的论文却惨遭 ICLR 拒稿,让一众研究者颇感意外。
仅仅六个月后,原作者带队,更强大的 Mamba 2 正式发布了。

图片

总体而言,本文提出了 SSD(state space duality)框架,基于此,研究者设计了一个新的体系架构 Mamba-2,其核心层是对 Mamba 的选择性 SSM 的改进,速度提高了 2-8 倍,同时在语言建模方面继续与 Transformers 竞争。
Tri Dao 表示,他们构建了一个丰富的 SSD 理论框架,许多线性注意力变体和 SSM 是等效的,由此产生的模型 Mamba-2 比 Mamba-1 更好、更快。

图片

Mamba-2 的新算法使其能够利用更大的状态维度 (16 → 256),同时训练速度更快。在需要更大状态容量的任务上,例如 MQAR 任务,它比 Mamba-1 有了显著的改进。

图片

此外研究者还发现,最近新出的混合模型(Jamba、Zamba)增加了一些注意力层来提高模型质量。基于这些发现,研究者将 4-6 个注意力层与 Mamba-2 层混合,其表现优于 Transformer++ 和纯 Mamba-2,因而得出注意力和 SSM 是互补的。

图片

这项研究的贡献概括为:

本文展示了状态空间模型与一类称为半可分矩阵的结构化矩阵族之间的等价性。这一联系是 Mamba-2 框架的核心,揭示了状态空间模型的新属性和算法。
本文显著改进了线性注意力理论,首先通过张量收缩的语言对其循环形式提供了一个明确的证明,然后将其推广到一种新的结构化掩码注意力(SMA)家族。
本文将 SSM(状态空间模型)和 SMA(结构化掩码注意力)联系起来,显示它们有一个很大的交集,彼此是对偶的,同时具有 SSM 式的线性形式和类似注意力的二次方形式。本文还证明了任何具有快速循环形式的核注意方法都是 SSM。
除了内在的理论价值外,研究者所提出的框架为理解和改进序列模型开辟了广阔的方向。
在算法层面。所提框架为计算 SSM 提供了新的高效且易于实现的算法。本文提出了一种基于半可分离矩阵块分解的 SSD 算法,该算法利用了 SSM 线性递推和二次对偶形式,在所有主要效率轴上获得了最优的权衡。基于 SSD 的实现比 Mamba 的优化选择性扫描实现快 2 到 8 倍,同时允许使用更大的循环状态大小(是 Mamba 的 8 倍甚至更高,且几乎不影响速度)。SSD 与优化过的 softmax 注意力实现(FlashAttention-2)具有高度竞争力,在序列长度 2k 时性能相当,在序列长度 16K 时速度快 6 倍。

架构设计。采用 SSM 等新架构的一个主要障碍是针对 Transformers 量身定制的生态系统,例如用于大规模训练的硬件高效优化和并行技术。本文框架允许使用已建立的惯例和技术来构建 SSM 的架构设计选择词汇表,并进一步改进它们。
本文还对 Mamba 块做了一些修改,这些修改允许实现张量并行,其主要思想包括引入分组值注意力 (GVA,grouped-value attention) 头结构。
将修改后的并行 Mamba 块与作为内部 SSM 层的 SSD 结合使用,形成了 Mamba-2 架构。研究者在与 Mamba 相同的设置中研究了 Mamba-2 的 Chinchilla 扩展法则,发现它在困惑度和实际运行时间方面均优于 Mamba 和 Transformer++。研究者还在 Pile 数据集上训练了一系列 Mamba-2 模型,结果显示 Mamba-2 在标准下游评估中匹配或超过 Mamba 和开源的 Transformers。例如,在 Pile 上训练了 3000 亿 token 的 2.7B 参数的 Mamba-2 在性能上超过了在同一数据集上训练的 2.8B 参数的 Mamba 和 Pythia 以及 6.9B 参数的 Pythia。

系统优化:SSD 框架连接 SSM 和 transformer,允许利用为 transformer 开发的丰富的系统优化工作。

图片

SSD 层

Mamba-2 的核心贡献是新的 SSD(state space dual)层。SSD 层可以被定义为选择性 SSM 的特例。与 Mamba 相比,Mamba-2 的改动会略微降低表达能力,但却显著提高了训练效率,特别是允许在现代加速器上使用矩阵乘法单元。

图片

SSD 层的对偶注意力:

图片

除了最新的 SSD 层,研究者也对 Mamba 的神经网络架构做了一些小的改变,Mamba-2 架构如下所示。

图片

Mamba-2 在网络架构上的主要变化是从顺序生成变为并行生成 SSM 参数,并且 Mamba-2 更适合张量并行等扩展方法。
通过提供状态空间模型的显式矩阵变换形式,研究团队揭示了理解和使用它们的新方法。从计算的角度来看,任何计算状态空间模型前向传播的方法都可以看作是半可分离矩阵上的矩阵乘法算法。半可分离矩阵视角为 SSD 提供了一个视角,其中双重模式分别指的是线性时间半可分离矩阵乘法算法和二次时间朴素矩阵乘法。

图片

研究团队定义了结构化状态空间模型和结构化注意力,讨论了它们的属性,并表明它们都有二次算法和线性算法。

图片

图片

自最初的 Mamba 论文研究了合成任务 —— 如:合成复制和归纳 Head 以来,许多后续工作开始研究更难的关联回忆任务。由 Zoology 和 Based 系列工作引入的 MQAR(multi-query associative recall)任务已成为事实上的标准。

图片

通过运行一个比文献中通常报告的版本要难得多的任务,该团队发现 Mamba-2 明显优于 Mamba-1,而改善性能的一个原因是状态大小(比 Mamba-1 大约 16 倍)。

在这篇文章中,作者深入探讨了模型背后的理论。

从两个完全不同的角度推导出 SSD 的「对偶性」:

  • 一个从 SSM 的角度出发;
  • 另一个从注意力机制的角度出发。

SSD 框架提供了状态空间模型、注意力机制和结构化矩阵之间丰富的联系。
虽然 SSD 模型可以被视为框架内每个分支的具体实例,但 SSD 框架本身更加通用,为未来的工作开辟了许多方向。

图片

SSD 算法

通常,矩阵乘法(matmul)的 FLOPs 速度要比非矩阵乘法 FLOPs 快得多(高达 16 倍):A100 GPU 具有 312 TFLOPS 的 BF16 矩阵乘法性能,但只有 19 TFLOPS 的 FP32 算术性能,而 H100 具有 989 TFLOPS 的 BF16 矩阵乘法性能,但只有 67 TFLOPS 的 FP32 算术性能。
Mamba-2 的主要目标之一是「利用张量核心加速 SSM」。

在绑定参数并引入 Head 结构后,Mamba-1 中的 SSM 变成了 SSD,这是一种更具限制性的形式,具有类似注意力的公式。并且由于 SSD 连接 SSM 和结

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

苏妈杀疯了:移动端最强NPU算力达50TOPS,最强AI芯片挑战英伟达

你方唱罢我登场。
一年一度的 Computex 科技大会成为了 GPU 厂商们秀肌肉的舞台,其中当属英伟达和 AMD 最为亮眼。


英伟达现场拿出了量产版 Blackwell 芯片,还公布了未来三年的产品路线,包括下一代 Rubin AI 平台。AMD 当然也不甘示弱,CEO 苏姿丰亮出了旗下的 CPU、GPU 产品及路线图,包括全新 Zen 5 架构的桌面端 Ryzen 9000系列 CPU、AI PC 芯片、数据中心芯片和 GPU。

全新 Zen 5 架构
锐龙 9000 桌面系列芯片首次亮相
苏姿丰在演讲中着重介绍了基于 Zen 5 架构的全新桌面端 Ryzen CPU,它们经过优化可以通过神经网络处理器来加速 AI 工作负载。下图为下一代高性能 CPU 核心 Zen 5 的各项规格,它不仅是当前 Ryzen 9000 系列处理器的核心,也将成为今年下半年推出的 Turin Epyc 霄龙服务器 CPU 的核心。苏姿丰表示,Zen 5 是 AMD 迄今设计的性能和能效均最高的核心,而且它是从头开始设计的。其中,该核心拥有一个新的并行双管道前端,旨在提高分支预测准确性并减少延迟,并能够在每个时钟周期提供更高的性能。此外,Zen 5 具有更宽的 CPU 引擎指令窗口,可以并行运行更多指令,以实现领先的计算吞吐量和效率。与 Zen 4 相比,Zen 5 的指令带宽增加了一倍,缓存和浮点单元之间的数据带宽增加了一倍,AI 性能增加了一倍,同时具有完整的 AVX 512 吞吐量。苏姿丰现场首次展示了采用 Zen 5 架构的 Ryzen 9 9950X。
Ryzen 9 9950X…
Zen 5…

50TOPS
AMD 最强移动端 NPU 算力
苏姿丰展示了下一代 AI PC 芯片 —— 锐龙 AI 300 系列 APU(第三代)。下图为锐龙 AI 300系列芯片实拍。锐龙 AI 300 系列芯片旨在提供下一代 AI PC 体验,因而要求 NPU、CPU 和 GPU 均要达到最佳。锐龙 AI 300 系列首发提供了两款型号,锐龙 AI 9 HX 370 和锐龙 AI 9 365。下图为锐龙 AI 9 HX 370 的参数规格。锐龙 AI 300 系列采用了 XDNA AI NPU,号称移动端最强 NPU,算力达 50TOPS。AMD 表示,搭载锐龙 AI 300 系列的笔记本将于今年 7 月起陆续上市。
最高 192 核心 384 线程
第五代 EPYC 霄龙问鼎数据中心芯片
苏姿丰现场也展示了第五代「Turin」EPYC 霄龙芯片,它号称全球最强数据中心 CPU。下图为第五代 AMD 霄龙 Turin 芯片的参数规格。目前没有透露太多细节,从基础信息参数来看,Turin 具有 192 个 Zen 5 核心和 384 个线程,采用与 Genoa Epyc 9004s 相同的 SP5 插槽适配。Turin 芯片可能会被命名为 「Epyc 9005s」。可以期待的是,在 IPC 方面,它与 Ryzen Zen 5 芯片相近。相较于 Zen 4 核心,IPC 改进可能在 15% 到 20% 之间。苏姿丰展示了 Turin 芯片的一…
对标英伟达
AMD 的 Instinct GPU 也一年一更
讲完了 CPU,接下来的重头戏就是 Instinct GPU 了,它将是 AMD 未来产品战略的一个重要抓手。苏姿丰表示,「Antares」MI300 系列是 AMD 历史上增长最快的产品,在 HPC 和 AI 工作负载方面的可用性看起来有点像英伟达 GPU,不过其所提供的性能优势以及 HBM 内存容量、带宽优势较为突出。比如在推理工作负载方面,通过对 Llama 3(具有 700 亿参数)进行推理检验性能的结果来看,一台配备 8 个 MI300X GPU 的服务器性能约为一台配备 8 个 H100 GPU 加速器的英伟达 HGX 性能的 1.3 倍。而在 Mistral 7B 模型上,单个 MI300X 的性能则是英伟达 H100 GPU 的…
随后,苏姿丰公布了 2024-2026 年的 Instinct GPU 路线图,今年推出 MI325X,2025 年推出 MI350,2026 年推出 MI400。MI325X 将具有更大的算力规模,并转向 HBM3E 内存。下图为 MI325X 的基础性能规格,内存增加了 2 倍,最高可达 288GB;带宽增加了 30%,达到了 6TB / 秒。下图为 MI325X 的数据传输速度与英伟达 H200(141GB 内存)比较的结果。据悉,MI325X 最快将在今年第四季度推出。不过到那时,英伟达将在该领域中凭借 B100 占据一席之地,并将大规模量产 H200。因此,AMD 感受到了危机,并且迅速行动。
这也是为什么 AMD 提前推出 MI350X 的原因,它采用了全新 CDNA 4 架构、台积电 3 纳米工艺、288 GB 的 HBM3E 内存以及 FP6、FP4 数据类型。MI350X 也将成为 AMD Instinct MI350 系列的第一款产品。在推理性能方面,CDNA 4 架构是 CDNA 3 的 35 倍。MI350 的内存容量将是英伟达 2025 年推出的 B200(Blackwell Ultra 架构)芯片的 1.5 倍,AI 计算能力是后者的 1.2 倍。AMD 这波就是奔着英伟达去的,到时候有好戏看了。

原文链接:https://www.nextplatform.com/2024/06/03/amd-previews-turin-epyc-cpus-expands-instinct-gpu-roadmap/
参考链接:https://www.anandtech.com/show/21415/amd-unveils-ryzen-9000-cpus-for-desktop-zen-5-takes-center-stage-at-computex-2024



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

titleLOOK® 宣布针对产权行业的 AI 辅助知识整合

titleLOOK® 由 Mainspring Services® 宣布推出针对产权行业知识模型的 AI 增强功能。图片{ width=60% }


利用 Azure AI 服务的先进功能,这一创新升级显著缩短了文档到数据分类的时间,同时也实现了对核保语言和清理产权清单所需的疗效行动的更全面分类。
“titleLOOK 平台的开发是基于这样一个理念,即产权代理人不仅仅是文档收集者,而是知识提供者,他们汇聚相关数据,针对缺陷采取行动,并将清理工作通知参与交易的各方。”,titleLOOK 产品总监马特·约翰逊表示。 “AI 助手的部署使我们的专业知识提供者能够更快速地、更准确地整合标题承诺和政策的例外、要求和注记语言中潜藏的知识。”
这一升级是 titleLOOK 持续致力于提高产权行业效率和准确性的又一步。通过利用 AI,titleLOOK 提升了产权代理人处理复杂文档和提供切实信息和见解的能力。这不仅加快了交易流程,还确保所提供的数据质量和可靠性更高。
虽然 titleLOOK®  知识模型目前仅限于该平台,Mainspring Services 计划将其他产业供应商纳入其中。这包括产权计划、搜索和审查程序以及启动交换,使他们能够将高级分类集成到其产品中。这种协作方式旨在为产权行业设定新标准,推动行业创新和卓越。
titleLOOK® 是提供极大节省产权制作流程时间并为承诺和预初报告创建新网络标准的软件即服务 (SaaS) 提供商。titleLOOK® 自动创建到产权搜索文档的超链接,总结产权例外,提醒用户执行清理任务和等级,并以适合任何设备的响应网络格式发布。titlelook.com
Mainspring Services 成立于 2016 年,以深刻理解产权和清算行业为荣。我们是 titleLOOK® 的创造者,这是一个 SaaS 提供商,为承诺和预初产权报告提供了第一个真正数字格式。mainspringservices.com
在 AITechPark 探索 AI、物联网、网络安全、AI 技术新闻以及行业专家的见解吧!



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

DataRobot加入IMDA,使LLM评估对AI构建者更易访问

新框架和一套功能,用于基准测试和红队对抗AI评估
企业AI平台领导者DataRobot今天宣布,与新加坡政府机构新加坡信息与媒体发展局(IMDA)新倡议对齐的LLM评估措施集成。图片{ width=60% }


在新加坡亚洲科技峰会上发布的“Project Moonshot”倡议提供了帮助AI从业者和系统所有者管理LLM部署风险的新功能,通过提供基准测试和红队评估的共同框架。
数据机器人首席客户官Jay Schuren说:“在DataRobot,我们的重点是解决信心缺口,帮助组织扩大生成式AI的负责任使用。” “我们很高兴地宣布,我们最新的产品发布包含Project Moonshot的测试工具包及其基准测试和评估测试。结果是LLM评估更易访问,帮助扩大生成式AI的负责任使用,使从业者能够打开和配置守护模型以改变LLM的行为和响应。”
Project Moonshot为AI从业者和系统所有者提供了三个核心能力:

  • 为生成式AI解决方案提供自动化评估工具,可轻松集成到CI/CD管道中。
  • 提供基准库,让团队通过策划正确的基准测试来运行与其应用程序相关的评估。
  • 一个一站式工具,用于AI红队对抗,从越狱到定制攻击。
    “Project Moonshot的开发,是全球首个将红队,基准测试和基线测试集于一体的易于使用平台的开源工具之一,如果没有DataRobot等合作伙伴的贡献是不可能的。”,AI Verify基金会的理事会主席Dr Ong Chen Hui说。“Project Moonshot将为开发者提供一个直观的工具包,用于测试其LLM应用程序。这个新工具包标志着新加坡继续致力推进全球开源努力以解决生成式AI安全问题。”
    “我们为支持我们的投资组合公司DataRobot在东南亚的增长之旅感到自豪。”,EDBI首席执行官Paul Ng说。“该公司不仅扩大了在新加坡的业务范围,还促进了与IMDA的合作等惠及当地创新生态系统的合作。Project Moonshot为本地企业提供了部署生成式AI技术的正确工具,让他们充满信心。作为战略投资者,我们致力于为我们的投资组合公司创造价值,同时增强新加坡的创新能力。”
    DataRobot是IMDA认可公司,也是AI Verify基金会的成员,该基金会在2022年推出了世界首个AI治理测试框架和工具包。
    在AI TechPark 探索最新的AI、物联网、网络安全、AI技术新闻及行业专家的见解!


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

MLCommons与AI Verify将合作推进AI安全倡议

同意合作,共同制定LLM的AI安全基准
今天,在新加坡,MLCommons®和AI Verify签署了一份意向书,同意就为全球AI安全发展制定一套通用的生成式AI模型安全测试基准展开合作。图片{ width=60% }


成熟的安全生态系统需要跨公司合作,国家安全机构,审计机构和研究人员之间的合作。这份协议推动的AI安全基准工作的目标是为AI开发者、集成商、购买方和决策者提供一种全球公认的安全测试方法,用于生成式AI。
MLCommons AI Safety工作组是由全球学术研究人员、行业技术专家、政策和标准代表以及公民社会倡导者组成的,最近宣布了v0.5 AI Safety基准验证概念(POC)。AI Verify将开发可互操作的AI测试工具,这些工具将为预计于今年秋季发布的具有包容性的v1.0版本提供信息。此外,他们正在构建一个用于交互测试的工具包,以支持基准测试和红队行动。
“迈出迈向全球公认的AI安全基准和测试标准的第一步,AI Verify Foundation很高兴与MLCommons合作,以帮助我们的合作伙伴在其开发的文化环境和语言中建立对模型和应用程序的信任。我们邀请更多的合作伙伴加入这一努力,推动新加坡和全球AI的负责任使用,” AI Verify基金会董事会主席王振辉博士说。
AI Safety工作组鼓励全球参与,以帮助塑造v1.0 AI Safety基准套件及未来版本。要做出贡献,请加入MLCommons AI Safety工作组。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

解决MFA重置期间用户锁定的主要问题

Nametag公司拥有专利的突破技术,消除了重置多因素认证令牌时用户锁定的挫折感和安全风险
Nametag公司今天宣布,该公司已获得一项涉及帐户恢复的专利,结合Nametag的身份验证平台,解决了多因素认证(MFA)的一个关键挑战。图片{ width=60% }


使用Nametag的组织可以为用户提供使用政府颁发的身份证件和自拍照片快速、安全地注册新的MFA设备的体验。该技术弥补了一个关键的用户体验差距和一个威胁行为者经常利用的关键漏洞,导致帐户接管(ATO)进而导致数据泄露和勒索软件事件。

“这项技术标志着多因素认证的一个重要里程碑,”Nametag首席执行官亚伦·佩恩特表示。“部署MFA的组织迅速发现帐户恢复过程在体验和安全方面是一个主要盲点。我们的技术实现了无缝的MFA重新绑定,为我们的客户降低了成本和风险,同时节省了人们的时间和挫折感。我们对我们的团队获得这项专利并将这项技术引入行业以帮助改善安全性和用户体验的成果表示祝贺。”

根据Okta的数据,将近三分之二的用户使用MFA进行身份验证。但随着公司越来越多地采用强制性MFA政策,他们面临着在更换设备时被锁定的用户潮。公司需要验证这些请求是来自试图恢复对其帐户的访问权限的合法用户,还是来自试图接管这些帐户的不良行为者。

为了做到这一点,组织通常要求用户联系公司的帮助台以重置MFA和其他身份验证方法,如密码。但这给用户创造了一个漫长而令人沮丧的过程,并使帮助台代理面临着利用先进社交工程技术和人工智能生成的深度伪造图像的冒名顶替者的风险。

Nametag通过建立在身份验证技术的帐户恢复解决方案来解决这些问题,该技术积极防止数字注入攻击和深度伪造展示攻击。Nametag的自助和代理辅助解决方案将MFA和密码重置偏向于自助服务,同时赋予帮助台代理快速验证与其交谈的任何人。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

价值飙升30%,AI PC将拉动半导体出货潮丨AI脱水

图片来源:由GPTNB生成

由于处理器和DRAM的升级,大摩预测每台AI PC的半导体价值将增长20%-30%,PC平均售价也将提高7%。

作者 | 张逸凡
编辑 | 申思琦

台北国际电脑展即将于6月2日隆重开幕。


随着展会的临近,各种现象级的AI PC也蓄势待发。

图片来源:由GPTNB生成

就在上周,联想在业绩会上,首次提出了他们对AI PC的“五要素”定义,引发了行业内外的热烈讨论。
紧随其后,大摩也给出了他们对于AI PC的独到见解和定义。大摩认为,真正的AI PC应该具备以下两大核心特征:
1)配备了专用神经处理单元 (NPU)
2)高处理速度(超过 40 TOPS)

图片来源:由GPTNB生成

不仅如此,大摩还大胆预测了AI PC的普及将为整个产业带来前所未有的增益。

01

AI PC拉动产业增长

大摩预测,随着处理器和内存的升级,每台人工智能PC的半导体价值将增长20%-30%,PC平均售价也将提高7%。
AI PC与传统PC的主要区别在于增加了专用神经处理单元(NPU)。传统PC使用CPU+GPU架构,而AI PC则采用CPU+GPU+NPU架构。
为了让NPU充分发挥效能,AI PC还配备了更大容量的内存。微软指出,基础AI模型需要16GB内存,标准AI模型则需要32GB,高级AI模型则要求64GB或更多。
基于此,大摩预测:

  • 由于处理器 和 DRAM 的升级,预计每台 AI PC 中半导体的价值将增长 20-30%,这将为全球半导体公司带来额外的 300 亿美元收入;
  • 更先进的组件(如 NPU、更强大的 CPU 和更大的内存)将推高电脑的平均售价 (ASP)。与普遍的市场共识相比,电脑平均售价 (ASP)将上涨约 7%。

02

AI PC架构趋向于ARM

大摩指出,AI PC时代,随着处理器从x86转向arm架构,预计到2027年,arm架构的PC CPU销量将达到5000万颗,带来100亿美元的收入。
x86和arm是两种主流的处理器指令集。

  • x86架构指令长,擅长把多个任务用一条复杂指令表达;
  • arm架构指令短,擅长把复杂任务分成多条指令表达;
    这种表达上的差异,使得arm架构有着高性能、低功耗的特点。相比于x86,arm架构更适用于高功耗的AI计算。
    目前,高通、NVDA、AMD、联发科都相继推出了基于arm架构的AI PC处理器产品。
    大摩指出,随着Windows on Arm (WoA)生态系统的增长,预计到2027年,WoA PC芯片销量将达到5000万颗,带来100亿美元的PC CPU收入。

03

AI PC处理器的竞争

大摩表示,高通近期在AI PC推出的骁龙X Elite处理器值得关注。
高通自收购了Nuvia以来,处理器的性能有了大幅提升。已经在发布的骁龙X Elite中,也使用了最新架构,根据美银的报告,骁龙X Elite性能在一众AI PC处理器厂商中处于领先地位。

图片来源:由GPTNB生成

微软在近期推出的首批AI PC中,采用了高通骁龙X Elite芯片,用于支持Copilot的使用。这些电脑包括了Surface Laptop和Surface Pro。
此外,根据大摩整理的数据,联想、宏碁、华硕、戴尔、惠普和三星等其他主要电脑制造商也发布了各自的下一代人工智能电脑。这些电脑也搭载了X Elite/X Plus芯片。

而过去,微软的大部分处理器,采用的是英特尔的CPU。根据市场数据,2023年Q4,英特尔在PC CPU市场的份额为78%。这一份额也许会随着高通的强势入局而有所改变。

图片来源:由GPTNB生成

04

AI PC出货量预测

2024年,被视为是AI PC的出货元年,大摩也给出了AI PC出货量的预测。
大摩预测:

  • 2024年,AI PC将占电脑总出货量的2%;
  • 2028年,AI PC将占电脑总出货量的65%;
    这意味着,到2028年,人工智能电脑的出货量将达到1.79亿台,其中85%为笔记本电脑。
    得益于AI PC的出货,大摩指出组件供应商、电脑制造商和供应链参与者将受益:
  • 组件供应商: 像英伟达、高通、超微半导体和英特尔这样的公司,作为人工智能电脑 NPU 和 CPU 的关键供应商,预计将获得巨大收益。
  • 电脑制造商: 该报告指出,联想、戴尔、华硕和惠普将成为主要受益者,因为他们在电脑市场占据着有利地位。
  • 供应链参与者: 随着对人工智能电脑组件需求的不断增长,SK 海力士(内存)、联发科(芯片组)、台达电和研华科技等公司预计将从中获益。领先的芯片代工厂台积电预计也将从 CPU 订单的增加中获益。

图片来源:由GPTNB生成


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Qumulo的数据平台拥抱下一代网络技术

QUMULO的数据平台拥抱下一代网络技术
与Arista Networks,Intel Corporation合作并加入Ultra Ethernet协会
今天,Qumulo,管理任意规模数据的简单方式,成为首个加入Ultra Ethernet协会的网络存储供应商。图片{ width=60% }


此外,Qumulo宣布与Intel Corporation和Arista Networks合作,推动IT基础设施在网络、存储和数据管理交汇处的最新技术。这些技术提升了Qumulo的Scale AnywhereTM Data Management平台的性能和操作,从边缘到数据中心再到公共云,为数据中心、网络和存储运营商提供了有价值的运营优势。

“Ultra Ethernet协会的工作将塑造数据在网络中的流动方式,将系统、存储和网络更紧密地联系在一起,同时通过大规模的性能和可靠性改进简化架构,”Qumulo首席技术官Kiran Bhageshpur表示。“结合UEC即将推出的增强功能以及今天与数据中心交换领导者Arista Networks在数百个实际生产的规模任意主存储系统中的开发和执行,重新定义了企业数据管理的可能性。”

Qumulo已经与Arista Networks基于EOS的交换和路由系统在数百个客户中部署了超过一艾字节的存储。受益于Arista 7280/7800系列的深度缓冲区架构和经验证的叶/脊架构,Qumulo的客户可以在一个融合的网络上实现从千兆字节到艾字节规模的主要企业存储,消除了昂贵的传统存储网络。

“我们的UC圣地亚哥客户需要专门的存储互连网络,基于标准以太网基础设施,提供高达200 Gbps的规定性能。数据科学机器学习平台(DSMLP)在Qumulo上运行,在这里,数千名学生同时执行对性能敏感的AI工作负载。这些学生需要最佳的配置以确保在成千上万个NFS连接上运行GPU时的效率,”圣地亚哥超级计算中心基础设施总监Brian Balderston说。“借助Arista深缓冲区叶/脊和Qumulo Scale Anywhere数据管理,我们能够为DSMLP分配所需的性能,降低成本,并为其他学生组织提供一个共同的文件系统。”

提升性能的关键不仅在于使用具有现代化架构的正确供应商,还在于实现材料产品一体化,提供操作价值,简化配置和故障排除,同时适当利用各种IT技术的优势和功能。结果是一个一致的主要存储系统,在企业中被用于关键业务系统、SIEM系统、备份、AI工作负载的培训和推理,以及数据中心和云中的大规模分布式系统和应用。

“Arista Networks商务拓展与策略联盟副总裁Ed Chapman表示,”随着我们为开放和互操作IP和以太网协议上最大AI Pod开发高性能和规模网络,演变为超级以太网是为了简化网络,并将计算、AI处理和存储结合在一起。Qumulo加入UEC进一步验证以太网和IP是下一代通用、云和AI计算和存储的正确基础。“

要了解更多关于Qumulo,边缘、数据中心和云存储的Scale Anywhere数据管理,请访问qumulo.com。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB