小模型性能饱和、表现不佳,根源是因为Softmax?

小语言模型的出现是为弥补大语言模型的训练、推理等成本昂贵的缺点,但其自身也存在训练到某个阶段后性能下降的事实 (饱和现象),那么这个现象的原因是什么?是否可以克服并利用它去提升小语言模型的性能?

语言建模领域的最新进展在于在极大规模的网络文本语料库上预训练高参数化的神经网络。在实践中,使用这样的模型进行训练和推断可能会成本高昂,这促使人们使用较小的替代模型。


然而,已经观察到较小的模型可能会出现饱和现象,表现为在训练的某个高级阶段性能下降并趋于稳定。

最近的一篇论文发现,这种饱和现象可以通过较小模型的隐藏维度与目标上下文概率分布的高秩之间的不匹配来解释。这种不匹配通过著名的 softmax 瓶颈现象影响了这些模型中使用的线性预测头的性能。

论文链接:https://arxiv.org/pdf/2404.07647.pdf

本文在不同设置下衡量了 softmax 瓶颈的影响,并发现基于小于 1000 个隐藏维度的模型往往在预训练的后期采用退化的潜在表征,从而导致评估性能降低。

简介

表征退化问题是影响用于文本数据的自监督学习方法等多种模态的常见现象。对语言模型的中间表征进行的许多观察揭示了它们的低角度可变性(或各向异性),或者在训练过程中出现的异常维度。然而,这些观察大多是针对维度与 BERT 或 GPT-2 系列模型相当的相对较小规模的模型进行的。

这些模型通常由一个神经网络 f_θ 组成,该神经网络接受 token 序列,并在 R^d 中生成一个相对低维的上下文表征,其中 d 是模型的隐藏维度。然后它们依赖于一个语言建模头,该头部产生上下文 token 概率的对数。语言建模头的常见选择是一个线性层,其参数为 W ∈ R^(V×d),其中 V 是可能 token 的数量。因此得到的下一个 token 概率分布是其中 σ 是 softmax 函数。

在语言建模领域,当前的趋势在于扩展引入了 GPT-2 的生成预训练方法,这意味着在巨大的网络文本语料库上训练由数十亿参数组成的神经模型。然而,训练和应用这些高参数化模型会引发能源和硬件相关的问题,这需要寻求通过较小的模型实现类似性能水平的方法。

然而,对 Pythia 模型套件的评估表明,将小型模型训练在非常大的语料库上可能会导致饱和,表现为在预训练后期性能下降。本文通过表征退化的视角探讨了这种饱和现象,并发现这两种现象之间存在着强烈的相关性,同时进一步证明了表征退化在小型模型的语言建模头中发生,并在理论和实证上展示了线性语言建模头如何成为基于小隐藏维度的架构的性能瓶颈。

语言模型饱和现象

本文首先验证了确实可以观察和量化 Pythia 检查点的性能饱和,因为他们是一系列模型尺寸的唯一发布的中间检查点。本文测量了从他们的预训练数据集(即 The Pile)中随机抽取的 5 万个 token 的 Pythia 检查点的交叉熵。

在图 1a 中可以清楚地看到,连 4.1 亿参数的模型都遇到了饱和现象,表现为在高级训练阶段域内损失的增加。

在图 1b 中,本文根据 Hoffmann et al. (2022) 的方法,对从 4.1 亿参数开始的模型的数据点进行了拟合,只优化模型相关的常数(A 和 α),同时重用所有其他值(B = 410.7,β = 0.28,E = 1.69)。这里回顾了 Hoffmann et al. (2022) 给出的参数计数 N 和 token 计数 T 之间的关系:

本文发现最佳参数为 A = 119.09 和 α = 0.246。作者展示了与最佳和最终检查点相对应的 token 计数的拟合曲线。可以观察到,最终检查点的性能平均低于外推值约 8%。损失最小(最佳)检查点由于学习率冷却不完全,预计会低于外推法,但其表现仅低于外推法约 4%。

在用于语言模型评估工具(LM Evaluation Harness)评估的数据集中,也观察到了类似的性能饱和现象,如表 1 所示。

性能饱和是秩饱和(Rank Saturation)

规模各向异性

各向异性是是在各种小型语言模型中观察到的一种常见的表征退化形式,它包括特定层中表征分布的角度可变性降低。之前的研究(Ethayarajh, 2019; Godey et al., 2024)注意到,小型变形语言模型的几乎所有层都是各向异性的。衡量向量表征集合 H 中各向异性的常用方法是平均余弦相似度:

然而,目前尚不清楚各向异性是否会影响具有超过 10 亿参数的模型。为了解决这个问题,本文计算了一系列模型中间表征在层间的平均余弦相似度;即 GPT-2,OPT,Pythia 和 Gemma。本文使用了 The Pile 的子样本,因为假设该数据集的领域包括或匹配这些套件中使用的预训练数据集的领域。

在图 2 中,可以观察到,大多数 Transformer 模型的大多数层在某种程度上都是各向异性的,而不论其规模如何。然而,在最后一层中似乎存在一个二分现象,其中模型要么几乎是各向同性的,要么是高度各向异性的。本文注意到这种二分现象与 Pythia 套件的饱和现象之一相一致,其中只有包含 1.6 亿个或更少参数的模型受到最后一层各向异性的影响。

本文研究了 Pythia 套件中各向异性的训练动态,并将其与图 3 中的饱和现象进行比较。

Softmax 瓶颈与语言维度

自然语言的固有维度

直观地说,上文中观察到的奇异值分布饱和现象只适用于较小的模型,这就对 LM 头的优化所涉及的维度提出了质疑。本节建议根据经验测量 LM 头的秩的临界值,并估计该头的输出应该匹配的上下文概率分布的维度。

为了经验性地测量线性头部秩的影响,本文提出在预训练的上下文表征上训练秩受限的头部,这些上下文表征来自高参数化语言模型。为了控制最大秩 r,考虑形式为 W = AB ∈ R^(V×d) 的头部,其中 A ∈ R^(V×r) 和 B ∈ R^(r×d) 的系数从 N(0,1)中抽取。这种 W 矩阵的秩受参数 r ∈ [1, d] 的限制对一系列值进行了扫描。

通过冻结语言模型,并在大约 1.5 亿 token 上训练秩受限的头部,同时调整学习速率以适应可训练参数的数量。

在图 6 中可以观察到,无论模型大小如何,当语言建模头 W 的秩低于 1000 时,困惑度开始明显下降。这暗示了对于具有更大隐藏维度的模型来说,头部不是主要的性能瓶颈,但对于具有较小隐藏维度的模型来说,它可能会独立于输出表征的质量而损害性能。

另一个有趣的因素是估计数据本身固有的维度。为了避免与特定归纳偏差相关的可能影响,本文在覆盖范围各异的几个数据集上训练了朴素的 5-gram 语言模型(IMDb,Wikitext,以及 The Pile),使用了两种不同词汇量的分词器(Llama-2 为 30k tokens,Pythia 为 50k tokens)。给定 C 个观察到的 5-gram,本文考虑矩阵 W ∈ R^(C×V),其中每行是给定 4 个 token 上可能 token 的概率分布,并计算它们的奇异值分布,如 Terashima et al. (2003) 所述。

图 7 报告了 W-error,根据 Eckart-Young-Mirsky 定理预测的秩为 d 的矩阵 W 的最小近似误差,并将其归一化为 W 的 Frobenius 范数。

理论瓶颈

同时,W 的估计秩与隐藏维度的常规数量级相比也不可忽视。这里将从理论角度分析理想线性语言建模头的维度与性能之间的联系。

本节旨在确定上下文分布固有维度与可归因于语言模型输出表征的较低维度而产生的性能瓶颈之间的正式联系。为此构想了一个在理想上下文表征上优化的语言建模头,探讨了其谱特性与在相同表征上训练低秩头时产生的性能差距之间的关系。

更多研究细节,可查看原论文。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Meta训AI,成本已超阿波罗登月!谷歌豪言投资超千亿美元,赛过OpenAI星际之门

就在刚刚,Meta AI主管Yann LeCun证实:为了买英伟达GPU,Meta已经花了300亿美元,这个成本,已经超过了阿波罗登月计划!

300亿美元虽然惊人,但比起微软和OpenAI计划打造的1000亿美元星际之门,这还是小case了。

谷歌DeepMind CEO Hassabis甚至放话称:谷歌要砸进的数,比这个还多。


这才哪到哪呢。

为了发展AI,Meta是破釜沉舟了。

在这个访谈中,主持人问道:据说Meta购入了50万块英伟达GPU,按照市价算的话,这个价格是300亿美元。所以,整个成本比阿波罗登月项目话要高,对吗?

对此,LeCun表示承认:是的,的确如此。

他补充道,「不仅是训练,还包括部署的成本。我们面临的最大问题,就是GPU的供给问题。」

有人提出质疑,认为这应该不是真的。作为史上最大的推理组织,他们应该不是把所有的钱都花在了训练上。

也有人戳破了这层泡沫,表示每个巨头都在撒谎,以此营造「自己拥有更多GPU」的假象——

虽然的确在英伟达硬件上投入大量资金,但其实只有一小部分用于实际训练模型。「我们拥有数百万个GPU」的概念,就是听起来好吹牛罢了。

当然,也有人提出质疑:考虑通货膨胀,阿波罗计划的成本应该是接近2000-2500亿美元才对。

的确,有人经过测算,考虑阿波罗计划1969年的原始价值、根据通货膨胀进行调整的话,它的总成本应该在2170亿或2410亿美元。

https://apollo11space.com/apollo-program-costs-new-data-1969-vs-2024/

而沃顿商学院教授Ethan Mollick表示,虽然远不及阿波罗计划,但以今天的美元计算,Meta在GPU上的花费几乎与曼哈顿计划一样多。

不过至少,网友们表示,很高兴对巨头的AI基础设施有了一瞥:电能、土地、可容纳100万个GPU的机架。

开源Llama 3大获成功

此外,在Llama 3上,Meta也斩获了亮眼的成绩。

在Llama 3的开发上,Meta团队主要有四个层面的考量:

模型架构

架构方面,团队采用的是稠密自回归Transformer,并在模型中加入了分组查询注意力(GQA)机制,以及一个新的分词器。

训练数据和计算资源

由于训练过程使用了超过15万亿的token,因此团队自己搭建了两个计算集群,分别具有24000块H100 GPU。

指令微调

实际上,模型的效果主要取决于后训练阶段,而这也是最耗费时间精力的地方。

为此,团队扩大了人工标注SFT数据的规模(1000万),并且采用了诸如拒绝采样、PPO、DPO等技术,来尝试在可用性、人类特征以及预训练中的大规模数据之间找到平衡。

如今,从最新出炉的代码评测来看,Meta团队的这一系列探索可以说是大获成功。

Symflower首席技术官兼创始人Markus Zimmermann在对GPT-3.5/4、Llama 3、Gemini 1.5 Pro、Command R+等130多款LLM进行了全面评测之后表示:「大语…

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

ChatGPT们的幕后先驱,斯坦福教授Manning的四十年NLP生涯

Christopher Manning 虽已成 NLP 领域先驱,却仍为 AI 大模型的未来殚精竭虑。

今年 1 月份,2024 年度 IEEE 冯诺伊曼奖项结果正式公布,斯坦福大学语言学和计算机科学教授、AI 学者克里斯托弗・曼宁(Christopher Manning)获奖。


曼宁教授是将深度学习应用于 NLP 领域的早期领军人物,在词向量 GloVe 模型、注意力、机器翻译、问题解答、自监督模型预训练、树递归神经网络、机器推理、依存解析、情感分析和总结等方面都有著名的研究。他还专注于解析、自然语言推理和多语言语言处理的计算语言学方法,目标是让计算机能够智能地处理、理解和生成人类语言。

可以说,在过去的四十多年里,他凭借对语言的终身热爱,一直在探索如何弥合人类和计算机的语言鸿沟。

此外,他还是斯坦福大学 Human-Centered 人工智能研究所(HAI)的共同创始人、以及 2024 年 IEEE John von Neumann 奖章获得者。

最近,他所在的斯坦福大学发布了一篇专题文章,介绍了他的学术探索之路。

NLP 领域的先驱

多年之后,曼宁教授仍记得自己想要研究语言的那一刻,并自述了当时对语言学的启蒙过程:

「有一天,在高中英语课上,我偶然发现了我老师的一本书,这本书涉及人类语言结构和语言学,」他说。「我开始阅读它,了解到了国际音标,它提供了一套用于表示任何语言发音的通用符号。当时,我已经花了很多个小时学习英语单词的拼写,为了拼写考试,其中的许多单词在学习时都是很随意且奇怪的。此外,我还学习了一些法语和拉丁语。这是我当时看到的第一件能够捕捉到语言学指导思想的事物,通过研究人类语言的共性并尝试在所有人类语言中产生一种共同的科学,是可以实现有用成果的。这也是我第一次开始作为本科生学习语言学的原因。」

四十年后,曼宁教授凭借对人类语言的持续热爱,以及先驱式地致力于帮助计算机学习、理解和生成语言,他成为自然语言处理(NLP)和机器学习领域的著名开创性人物。

斯坦福大学语言学和计算机科学教授 Dan Jurafsky 对曼宁教授的先驱生涯评价道:

「我会称 Chris 为一个极其有影响力的人物,在自然语言处理领域可能是最有影响力的人物。他绝对是该领域获得引用最多的人,几十年的研究影响了包括我们最近的模型在内的一切。每个自然语言处理的学者都知道他的作品。」

预见机器学习的转变

曼宁出生在澳大利亚昆士兰州的班达伯格市,他的父亲在 Fairymead 糖厂工作,负责维护、设计和建造机械。到了上高中时,全…
[Mardown文件格式过多,已超出了500字符的长度限制,请分多次输出。]

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Meta训AI,成本已超阿波罗登月!谷歌豪言投资超千亿美元,赛过OpenAI星际之门

【导读】
近日访谈中,LeCun亲口证实:Meta为购入英伟达GPU已经花费了300亿美元,成本超过阿波罗登月。相比之下,微软和OpenAI打造的星际之门耗资1000亿美元,谷歌DeepMind CEO Hassabis则放出豪言:谷歌投入的,比这个数还多!大科技公司们烧起钱来是越来越不眨眼,毕竟,AGI的前景实在是太诱人了。


图片来源:由GPTNB生成

就在刚刚,Meta AI主管Yann LeCun证实:为了买英伟达GPU,Meta已经花了300亿美元,这个成本,已经超过了阿波罗登月计划!

300亿美元虽然惊人,但比起微软和OpenAI计划打造的1000亿美元星际之门,这还是小case了。

谷歌DeepMind CEO Hassabis甚至放话称:谷歌要砸进的数,比这个还多。

这才哪到哪呢。

LeCun:Meta买英伟达GPU,的确超过阿波罗登月

为了发展AI,Meta是破釜沉舟了。

在这个访谈中,主持人问道:据说Meta购入了50万块英伟达GPU,按照市价算的话,这个价格是300亿美元。所以,整个成本比阿波罗登月项目话要高,对吗?

对此,LeCun表示承认:是的,的确如此。

他补充道,「不仅是训练,还包括部署的成本。我们面临的最大问题,就是GPU的供给问题。」

有人提出质疑,认为这应该不是真的。作为史上最大的推理组织,他们应该不是把所有的钱都花在了训练上。

也有人戳破了这层泡沫,表示每个巨头都在撒谎,以此营造「自己拥有更多GPU」的假象——
虽然的确在英伟达硬件上投入大量资金,但其实只有一小部分用于实际训练模型。「我们拥有数百万个GPU」的概念,就是听起来好吹牛罢了。

当然,也有人提出质疑:考虑通货膨胀,阿波罗计划的成本应该是接近2000-2500亿美元才对。

的确,有人经过测算,考虑阿波罗计划1969年的原始价值、根据通货膨胀进行调整的话,它的总成本应该在2170亿或2410亿美元。

https://apollo11space.com/apollo-program-costs-new-data-1969-vs-2024/

而沃顿商学院教授Ethan Mollick表示,虽然远不及阿波罗计划,但以今天的美元计算,Meta在GPU上的花费几乎与曼哈顿计划一样多。

不过至少,网友们表示,很高兴对巨头的AI基础设施有了一瞥:电能、土地、可容纳100万个GPU的机架。

开源Llama 3大获成功

此外,在Llama 3上,Meta也斩获了亮眼的成绩。

在Llama 3的开发上,Meta团队主要有四个层面的考量:

模型架构
架构方面,团队采用的是稠密自回归Transformer,并在模型中加入了分组查询注意力(GQA)机制,以及一个新的分词器。

训练数据和计算资源
由于训练过程使用了超过15万亿的token,因此团队自己搭建了两个计算集群,分别具有24000块H100 GPU。

指令微调
实际上,模型的效果主要取决于后训练阶段,而这也是最耗费时间精力的地方。

为此,团队扩大了人工标注SFT数据的规模(1000万),并且采用了诸如拒绝采样、PPO、DPO等技术,来尝试在可用性、人类特征以及预训练中的大规模数据之间找到平衡。

如今,从最新出炉的代码评测来看,Meta团队的这一系列探索可以说是大获成功。

Symflower首席技术官兼创始人Markus Zimmermann在对GPT-3.5/4、Llama 3、Gemini 1.5 Pro、Command R+等130多款LLM进行了全面评测之后表示:「大语言模型的王座属于Llama 3 70B!」

  • 在覆盖率上达到100%,在代码质量上达到70%
  • 性价比最高的推理能力
  • 模型权重开放

不过值得注意的是,GPT-4 Turbo在性能方面是无可争议的赢家——拿下150分满分。

可以看到,GPT-4(150分,40美元/百万token)和Claude 3 Opus(142分,90美元/百万token)性能确实很好,但在价格上则要比Llama、Wizard和Haiku高了25到55倍。

具体来说,在Java中,Llama 3 70B成功识别出了一个不容易发现的构造函数测试用例,这一发现既出人意料又有效。

此外,它还能70%的时间编写出高质量的测试代码。

GPT-4 Turbo在生成测试代码时倾向于加入一些明显的注释,但这在高质量的代码编写中通常是需要避免的。

测试代码的质量大大受到微调的影响:在性能测试中,WizardLM-2 8x22B比Mixtral 8x22B-Instruct高出30%。

想要赢得人工智能战争,代价昂贵到惨烈

如今,各大科技公司都在付出昂贵的代价,争取打赢这场AI战争。

让AI变得更智能,科技巨头们需要花费多少资金?

谷歌DeepMind老板Demis Hassabis在半个月前的TED大会上做出了预测:在开发AI方面,谷歌预计投入1000多亿美元。

作为谷歌人工智能计划最中心、最灵魂的人物,DeepMind实验室的领导者,Hassabis的这番言论,也表达了对OpenAI的毫不示弱。

根据The Information报道,微软和OpenAI计划花1000亿美元打造「星际之门」,这台超算预计包含数百万个专用服务器芯片,为GPT-5、GPT-6等更高级的模型提供动力。

当Hassabis被问及竞争对手花在超算上的巨额成本时,他轻描淡写地指出:谷歌的花费可能会超出这个数字。

我们现在不谈具体的数字,不过我认为,随着时间的推移,我们的投资会超过这个数。

如今,生成式AI的热潮已经引发了巨大的投资热。

根据Crunchbase的数据,仅AI初创企业,去年就筹集了近500亿美元的资金。

而Hassabis的发言表明,AI领域的竞争丝毫没有放缓的意思,还将更加白热化。

谷歌、微软、OpenAI,都在为「第一个到达AGI」这一壮举,展开激烈角逐。

1000亿美元的疯狂数字

在AI技术上要花掉超千亿美元,这1000亿都花会花在哪里呢?

首先,开发成本的大头,就是芯片。

目前这一块,英伟达还是说一不二的老大。谷歌Gemini和OpenAI的GPT-4 Turbo,很大程度上还是依赖英伟达GPU等第三方芯片。

模型的训练成本,也越来越昂贵。

斯坦福此前发布的年度AI指数报告就指出:「SOTA模型的训练成本,已经达到前所未有的水平。」

报告数据显示,GPT-4使用了「价值约7800万美元的计算量来进行训练」,而2020年训练GPT-3使用的计算量,仅为430万美元。

与此同时,谷歌Gemini Ultra的训练成本为1.91亿美元。

而AI模型背后的原始技术,在2017年的训练成本仅为900美元。

报告还指出:AI模型的训练成本与其计算要求之间存在直接关联。

如果目标是AGI的话,成本很可能会直线上升。

1.9亿美元:从谷歌到OpenAI,训练AI模型的成本是多少

说到这里,就让我们盘一盘,各大科技公司训练AI模型所需的成本,究竟是多少。
最近的《人工智能指数报告》,就披露了训练迄今为止最复杂的AI模型所需要的惊人费用。
让我们深入研究这些成本的细分,探讨它们的含义。

Transformer(谷歌):930美元
Transformer模型是现代AI的开创性架构之一,这种相对适中的成本,凸显了早期AI训练方法的效率。
它的成本,可以作为了解该领域在模型复杂性和相关费用方面进展的基准。

芯片竞赛:微软、Meta、谷歌和英伟达争夺AI芯片霸主地位

虽然英伟达凭借长远布局在芯片领域先下一城,但无论是AMD这个老对手,还是微软、谷歌、Meta等巨头,也都在奋勇直追,尝试采用自己的设计。

5月1日,AMD的MI300人工智能芯片销售额达到10亿美元,成为其有史以来销售最快的产品。
与此同时,AMD还在马不停蹄地加大目前供不应求的AI芯片的产量,并且预计在2025年推出新品。

4月10日,Meta官宣下一代自研芯片,模型训练速度将获巨大提升。
Meta训练和推理加速器(MTIA)专为与Meta的排序和推荐模型配合使用而设计,这些芯片可以帮助提高训练效率,并使实际的推理任务更加容易。

3月19日,英特尔也透露了自家最新的AI芯片——Gaudi 3 AI的更多细节。
英特尔表示,与H100 GPU相比,Gaudi 3可以在推理性能上获得50%提升的同时,在能效上提升40%,并且价格更便宜。

3月19日,英伟达发布了「地表最强」AI芯片——Blackwell B200。
英伟达表示,全新的B200 GPU可以凭倖2080亿个晶体管,提供高达20 petaflops的FP4算力。
不仅如此,将两个这样的GPU与一个Grace CPU结合在一起的GB200,可以为LLM推理任务提供比之前强30倍的性能,并且也可大大提高效率。

2月23日,英伟达市值一举突破2万亿美元,成为了首家实现这一里程碑的芯片制造商。
同时,这也让英伟达成为了美国第三家市值超过2万亿美元的公司,仅次于苹果(2.83万亿美元)和微软(3.06万亿美元)。

2月22日,微软和英特尔达成了一项数十亿美元的定制芯片交易。
据推测,英特尔将会为微软生产其自研的AI芯片。

2月9日,《华尔街日报》称Sam Altman的AI芯片梦,可能需要高达7万亿美元的投资。
「这样一笔投资金额将使目前全球半导体行业的规模相形见绌。去年全球芯片销售额为5270亿美元,预计到2030年将达到每年1万亿美元。」

参考资料:

https://twitter.com/tsarnick/status/1786189377804369942
https://www.youtube.com/watch?v=6RUR6an5hOY
https://twitter.com/zimmskal/status/1786012661815124024
https://symflower.com/en/company/blog/2024/dev-quality-eval-v0.4.0-is-llama-3-better-than-gpt-4-for-generating-tests/
https://techovedas.com/190-million-what-is-the-cost-of-training-ai-models-from-google-to-openai/
```

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

摩根大通正式发布IndexGPT,用ChatGPT方式进行投资

5月4日,彭博消息,全球最大金融机构之一摩根大通正式发布了IndexGPT,可自动创建“主题投资篮子”策略。
据悉,IndexGPT由OpenAI的GPT-4提供技术支持,能通过特定主题关键字创建投资篮子主题索引,再通过大模型进行深度分析扫描新闻等内容生成投资指数,以展示该公司的整体投资价值。


摩根大通市场交易结构主管Rui Fernandes表示,IndexGPT可以帮助我们的客户选出更多有商业价值的优质股票,扩大他们的投资视野挖掘那些小众且有潜力的公司,不再局限在那些传统的企业中。
早在2023年5月25日,CNBC便报道摩根大通正在开发一款类ChatGPT的金融工具,并且申请了一个名为“IndexGPT”的商标。
但由于美国专利商标局积压了大量业务,通常需要1年左右的时间才能过审,并且需要在3年内发布产品才能获得该商标的使用权。
加上金融领域对于生成的数据、信息的真实性要求非常高需要对该产品进行深度测试。现在,IndexGPT终于正式发布了,将为摩根大通的客户提供自动化服务。
摩根大通选择在“主题投资篮子”使用大模型产品,因为这是华尔街目前最火热的投资赛道,例如,受ChatGPT影响的AI概念股获得井喷式增长,微软、英伟达、谷歌等都是最大的受益者之一。
主题投资篮子是一种投资组合,将具有相似或相关投资主题的多家公司股票捆绑在一起的投资策略,包含股票、债券、商品等。
投资的领域包括可再生能源、AI、电池存储、电动汽车、制药、生物技术、医疗器械、电商、云计算、金融科技等上百个类别。
主题投资篮子的优点是多样化,可以降低投资的风险避免把资金全部压在一个地方,当出现金融危机或者股市震荡时赔的血本无归,同时又能增加资金的流动性,实现快进快出追风口赚热钱的策略。
所以,想玩投资篮子需要对海量金融、新闻数据进行深度分析,才能挖掘出那些潜力公司,这正是大模型最擅长的领域之一。
市场趋势分析:以摩根大通发布的IndexGPT为例,可以帮助分析特定主题投资篮子的相关市场趋势和新闻,为投资者制定投资策略。
例如,在生物技术领域,IndexGPT可以追踪最新的药物审批、临床试验结果以及政策变动,并分析这些因素如何影响投资决策。
主题投资篮子建议:可通过分析客户的风险偏好、投资目标和市场数据来推荐适合的主题投资篮子。例如,如果一个客户对可持续能源感兴趣,可以推荐一个包含太阳能和风能公司股票的投资篮子。
投资风险评估:通过与AI的深度交互式对话,摩根大通可以评估客户对各种市场风险的承受能力。例如,可以询问客户有关其对市场波动的看法,并根据回答推荐具有不同风险水平的主题投资篮子。
目前,生成式AI在华尔街投行中的应用非常火热,高盛集团、花旗集团等都相继开发了类ChatGPT产品,不仅能帮助客户提升投资收益,也能帮助员工节省大量时间和提升工作效率。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Interpres Security发布重要平台更新

Interpres,这家威胁暴露管理初创公司,宣布免费产品试用,并为其平台新增了新功能,如MITRE ATT&CK®分析、内置人工智能助手、自定义报告功能和增强的EDR策略。图片{ width=60% }


专注于优化防御以降低针对组织的实际威胁暴露的Interpres Security,今天宣布了其被授权的多租户SaaS产品Interpres Threat Exposure Management Platform的新功能和增强功能。更新内容包括发布新的MITRE ATT&CK®分析功能,允许自动映射,新的Interpres AI助手,自定义基线暴露报告,增强的EDR策略改进以及一个新的免费30天试用版本。
通过MITRE ATT&CK®分析功能,Interpres用户可以使用熟悉的用户界面自动将所有检测和可见性映射到MITRE ATT&CK®技术。这种扩展的用户界面显示了对组织最重要的威胁的优先处理视图,自动映射通过速度和规模的方式为安全团队节省了资源,通过识别覆盖间隙,提供了对威胁景观的重要背景。
“在Interpres,我们始终把客户需求放在首位。这就是为什么我们很高兴地宣布对我们的平台进行这些重大增强,为我们的客户提供更多关于其威胁暴露及相关防御对策的可见性,” Interpres的联合创始人兼首席执行官Nick Lantuh表示。 “通过增强平台的威胁映射和人工智能能力,对于处于管理防御准备前沿的安全运营团队来说将是一个游戏改变者。更重要的是,通过使MITRE ATT&CK®框架成为日常操作,我们使他们可以轻松识别整体安全计划中的覆盖间隙和低效性。”
具体来说,Interpres已通过以下产品功能和升级提升了其威胁暴露管理平台:
MITRE ATT&CK®自动映射功能:在MITRE ATT&CK®框架的背景下了解威胁景观和防御表面。这种功能允许将检测和安全控制自动映射到MITRE ATT&CK®,以查看优先级技术,了解检测覆盖水平,并识别安全防御间隙。Interpres AI助手:一种新的LLM动力聊天机器人,提供实时安全建议,立即支持防御准备,帮助公司进一步专注于最重要的威胁。Interpres AI助手解释您环境中的数据,并提供下一步操作,以确保您的防御能够最好地对抗对手的TTP。自定义基线暴露报告:允许安全团队根据对组织最重要的威胁生成报告。报告包括顶级勒索软件技术等其他高优先级威胁,为安全团队提供了一个完全可定制的、简化的安全堆栈视图,使其能够更好地了解并快速响应整个组织。改进的EDR策略:提供对现有EDR解决方案中的错误配置的可见性,使安全团队可以深入研究组织资产,找出存在什么样的错误配置,为何存在错误配置,并采取纠正措施。
Interpres Security还推出了其完整威胁暴露管理平台的30天免费试用。在试用期间,组织将能够:
生成基线威胁暴露报告,了解网络防御准备和资产暴露的优先级威胁。将检测和安全控制自动映射到MITRE ATT&CK®,以清晰地了解覆盖范围并识别最大的安全防御间隙。基于积极对抗性的目标,对漏洞进行优先排序。在几分钟内确定对最重要威胁和最新CISA建议的准备情况。
Interpres的产品负责人Ian Roth表示:”我们以在威胁暴露管理领域领先一步为荣。简而言之,没有其他解决方案可以像我们正在实现的那样看待组织攻击表面和防御表面之间的独特关系。没有Interpres提供的能力,包括我们的新AI助手和自定义报告功能,组织将错过构建和维护高效有效安全堆栈所需的重要部分。”
对Interpres Threat Exposure Management平台中的新功能感兴趣吗?立即注册开始您的30天免费试用。
想了解更多关于Interpres Threat Exposure Management平台的新功能和增强功能,探索博客-2024年第二季度产品更新:减轻威胁暴露并持续验证网络安全防御。
浏览AITechPark,了解人工智能、物联网、网络安全、AITech新闻以及行业专家的见解更新!

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Ro介绍Ro操作系统(ro.OS)

Technology designed to make it easy for millions of patients to access the most effective healthcare
领先的直接面向患者的医疗保健公司Ro今天推出了Ro操作系统(ro.OS)-其技术平台为数百万患者提供无缝、高质量的护理旅程。图片{ width=60% }


经过六年多的努力,ro.OS通过使用专有的应用程序、工具和功能,垂直整合了全国范围的远程医疗、实验室和药房服务。ro.OS旨在帮助患者更轻松有效地实现他们的健康目标。
“今天,高质量的护理是手工制作的奢侈品。作为一个社会,我们将仅有少数人能够获得的奢侈品转变为每个人都可以获得的商品的唯一途径是通过技术。这就是我们在Ro公司要做的事情,构建技术,使数百万人尽可能轻松地获得最有效的医疗保健。”Ro的首席产品官兼联合创始人Saman Rahmanian表示。
ro.OS通过四个终端用户应用程序连接了医疗保健系统的核心部分:
患者应用程序:患者应用程序帮助患者在整个护理过程中控制自己的护理。这是患者一站式的应用程序,可以与提供者通讯、报告副作用、跟踪进展、访问医疗记录和管理目标。
护理交付应用程序:护理交付应用程序是提供者有效交付、记录和监控患者护理的主要工具。无论是为患者提供咨询、审查实验室结果还是更改治疗计划,提供者都受益于能够在正确时间提供正确信息的工具,扩展他们的专业知识,支持护理的质量和安全。
药房应用程序:药房应用程序将药剂师直接整合到患者的护理旅程中,以便他们获得实时患者洞察力,并能够与提供者积极协调,确定潜在的安全问题,并提供快捷可靠的全国性药物提供服务。
实验室应用程序:实验室应用程序将测试整合到患者的护理旅程中,将他们与居家或当地选项连接起来,并提供自动化结果传递。这有助于患者获得他们健康的全面画像,并使提供者做出更明智的治疗决策。
ro.OS及其四个应用程序以及其中包含的工具和服务已经帮助数百万患者获得护理,并在全国范围内提供了数千万次治疗。
Ro的团队将继续增加和加强ro.OS套件中的应用程序和功能。这项工作得到了临床证据和研究、持续的患者反馈以及Ro附属提供者以及Ro的专家临床顾问网络的见解支持。请访问ro.co/os了解更多关于ro.OS的信息,并随时了解最新功能。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Doosan Robotics将在Automate 2024展示新品类Cobot

Doosan Robotics将在Automate 2024展示全新的最佳品类Cobot
2013年成立的顶尖运动平台公司将展示领先的产品,如屡获殊荣的Dart-Suite机器人生态系统和由人工智能驱动的调酒Cobot“Mixmaster Moodie”
全球领先的协作机器人(Cobot)制造商之一,Doosan Robotics Inc.,准备通过行业最新的Cobot进展在Automate 2024上改变机器人领域的格局,展示覆盖各个领域的最新Cobot进展。图片{ width=60% }


Doosan Robotics将在位于芝加哥伊利诺伊州McCormick Place展位850的Automate展览中展出,展期为5月6日至9日。
Doosan Robotics提供全面的Cobot和最新软件,如Dart-Suite和人工智能技术,致力于革新根据人类需求定制的运动解决方案。从机械装配到托盘处理、焊接和餐饮服务,公司为国内和全球市场提供多样化的现成解决方案。这就是为什么Doosan Robotics今年Automate的主题是“运动平台公司”。
5月6日,Doosan Robotics将揭示其最新的工业Cobot,该Cobot拥有该类别中任何机器最大的能力,包括30公斤的有效载荷。
Doosan Robotics展位将展示2024年RBR50*(Robotics Business Review)创新奖获奖的先进机器人生态系统Dart-Suite,该生态系统旨在重新定义客户如何利用Doosan Cobot。这个可扩展的平台通过提供无限可编程动作,同时确保各种界面的可访问性,提升了Cobot的能力。 Dart-Suite促进了一个协调的环境,在这个环境中,每个组件协同工作,让用户能够通过不同界面创建、推广、下载和激活功能。这种演变将机器人从仅仅是静态工具推进到动态、灵活的协作者。Dart-Suite平台还被评为2024年Automate创新奖中软件类别的入围者。
“我们Doosan Robotics团队很荣幸能够重返Automate 2024,这是北美自动化的顶级事件,”Doosan Robotics首席执行官William Ryu表示。“我们承诺改变机器人领域,Automate对我们来说具有巨大的战略意义,为我们提供了直接进入各个行业的门户。我们的Cobot系列的功能将完全展示出来,以及我们的定制功能和使用方式,这些功能将我们的技术区别于众多。我们期待分享我们的创新解决方案,并继续推动行业发展。”
在Automate期间,Doosan请您喝一杯!这家行业领先的运动平台公司将展示“Dr. Presso”,一个配备顶级咖啡机的无人模块化咖啡厅,以及由Microsoft的OpenAI提供动力的调酒Cobot“Mixmaster Moodie”。 “Mixmaster Moodie”搭配着Bridgestone的软机器人手“Tetote”,该手臂采用弯曲橡胶人工肌肉,以开创性的鸡尾酒推荐系统为视觉和听觉线索基础上为客户提供鸡尾酒。Doosan还将展示其培训套件,这是一套认证培训设备,让用户随时随地练习和体验Doosan的Cobot培训计划。

Doosan Robotics与著名的全球公司联手合作,每个公司都因其在市场上的专业知识和占主导地位而备受赞誉,为商业化开发AI Cobot解决方案铺平了道路。每个解决方案中的最佳伙伴包括Apex Motion Control的Baker-Bot Quad,这是一种首创性的模块化蛋糕装饰系统,包括顶部和侧面蛋糕糖衣、装饰边框、顶部花束和书写信息以及淋上涂料。其他合作伙伴包括Paltz Depalletizing System,这是一款具有视觉功能的机器人脱托工作单元,来自带有CMES视觉的BeRobox;Ellison Technologies的AutoPilot机器装配解决方案,这是一种理想的为制造业的CNC机床设计的装载/卸载系统;Cloos ArcBot,一款带有集成Cloos StarT焊接包的Doosan M1013 Cobot手臂;Hillside Automation的CNCtender,一种具有新一代控制器软件接口的完全机器装配解决方案;以及MARI AARS System,它简化了机器人自动化系统的部署、操作和维护,标志着用户友好的AI软件和即插即用硬件的突破性进步。
Doosan Robotics的愿景是提升日常体验,重新定义劳动工作流程。他们出色的AI Cobot系列旨在在包括制造业、物流、食品饮料、建筑和服务行业在内的各个领域引发变革。这些尖端解决方案突破了传统机器人的限制,灵活应对复杂场景,为任务注入了提高效率、安全性和创新性的要素。此外,该AI系统具有持续学习能力,可以轻松更新其模型,通过自动下载所需模块进行平滑集成。

Doosan Robotics的展示位于2024年5月6日至9日在芝加哥伊利诺伊州McCormick Place展位850处。
有关Doosan Robotics在Automate 2024活动中的更多信息,请联系doosanpr@rcpmk.com
*在过去的十几年里,RBR50 Robotics Innovation Awards已经认可了那些有望积极改变我们的工作和生活方式的机器人。WTWH Media的机器人编辑根据机器人如何应对技术和业务挑战来选择获奖者。2024年的优胜者将在Robotics Summit&Expo的首届RBR50盛典上庆祝。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Chuck Ros, SoftServe: Delivering transformative AI solutions responsibly

作为世界拥抱人工智能潜力的推动者,SoftServe正在开发尖端人工智能解决方案,并优先考虑负责任的部署。图片{ width=50% }


在即将举行的AI&Big Data Expo北美洲之前,该公司将展示其专业知识。SoftServe的行业成功总监Chuck Ros提供了有价值的见解,介绍了公司的人工智能倡议、面临的挑战以及其未来战略,以利用这一强大技术。

Ros介绍了最近的一项人工智能项目,展示了SoftServe创新方法的独特解决方案,针对领域服务管理行业的软件公司。其设想是创建一个易于使用的语言模型驱动界面,允许现场技术人员无缝访问服务历史、设备文档和维护计划,从而提高生产力和运营效率。

Ros解释道:“我们的人工智能工程师构建了一个可无缝考虑成本、处理时间、语义相似性和幻觉可能性的提示评估管道。这被证明是一个非常有效的架构,为客户改善了运营效率,提高了现场用户的生产力,为软件公司及其客户提供了竞争优势,更重要的是,激发了额外的创新。”

尽管人工智能的潜力不可否认,Ros承认了企业在部署人工智能解决方案时经常犯的关键错误,强调了拥有强大的数据战略、构建充分的数据流水线和彻底测试模型的重要性。他还警告不要匆忙部署生成式人工智能解决方案,而不充分评估可行性和商业性。他说:“我们至少需要像考虑是否应该构建一样多地考虑是否可以构建。”

为了应对伦理人工智能发展的关键问题,Ros强调了整个过程中人类监督的重要性。“管理动态数据质量,测试和检测偏见和不准确之处,确保数据隐私的高标准,以及人类监督对人工智能系统的道德使用。这一切都需要人类监督,”他说。SoftServe的人工智能开发方法包括结构化的参与,评估数据和算法的适用性,评估潜在风险,并实施治理措施,以确保问责制和数据可追溯性。

展望未来,Ros设想人工智能将在SoftServe的业务战略中发挥日益重要的作用,不断完善AI辅助软件开发生命周期,并引入新工具和流程以进一步提高生产力。SoftServe的调查显示,GenAI可以将编程生产力提高多达40%。

Ros表示:“我看到更多的模型每天协助我们,帮助我们编写电子邮件和文档,帮助我们越来越多地处理我们仍在进行的简单、耗时的单调任务。”他说:“在接下来的五年里,我预见我们将继续对AI在SDLC中进行细化,并定期推出新工具、新模型、新流程,将这40%的生产力提升推动到50%和60%。”

当被问及SoftServe如何利用人工智能造福社会时,Ros解释道,公司正在提供从机器学习模型帮助学生发现他们的激情和才能,实现个性化学习体验,到协助教师日常任务并使他们的工作变得更轻松的解决方案。

Ros解释说:“我喜欢这个问题,因为SoftServe的一项关键战略原则是推动我们的社会目标,让世界变得更美好。这显然是一个雄心勃勃的目标,但它对我们的员工和客户都很重要。”

“这就是为什么我们创立了Open Eyes基金会,并在公众、我们的客户、伙伴以及当然我们的员工的支持下筹集了超过1500万美元。我们通过各种技术需求自然支持Open Eyes基金会,包括人工智能。”

在AI&Big Data Expo北美洲,SoftServe计划举办题为“革新学习:在教育和其他领域释放生成式人工智能的力量”的主题演讲,将探讨生成式人工智能和大型语言模型在教育领域的革命性影响。

Ros表示:“当我们探讨生成式人工智能利用数据的机制时,包括微调和检索增强生成(RAG)等培训方法,我们将找出高价值、低风险的应用,承诺重新定义教育格局。”

“从一个新生想法到完全运行的人工智能解决方案的旅程充满挑战,包括部署人工智能解决方案中存在的伦理考虑和风险。通过Mesquite ISD的一个成功案例,此处使用生成式人工智能来帮助学生发现他们的激情和才能,实现个性化学习体验,这个演示将展示生成式人工智能在教育中的实际益处和变革潜力。”

此外,公司还将参加有关主题的小组讨论,包括“实现可投入生产-部署人工智能的挑战和最佳实践”和“导航数据和人工智能领域-确保大数据和人工智能系统的安全、保护和负责任性”。这些会话将为与会者提供宝贵的见解,SoftServe的专家将分享如何克服部署挑战、确保数据质量和用户接受度,并减轻与人工智能实施相关的风险。

作为活动的重要赞助商,SoftServe旨在为围绕人工智能解决方案的负责任和伦理开发做出贡献,同时分享其专业知识和愿景,以推动创新、提高生产力,并解决全球挑战。

Ros总结道:“我们当然总是对分享和了解在AI和大数据领域应用案例的多样性感兴趣:涨潮抬高所有船只的概念在AI和尤其是GenAI中肯定是相关的,我们为能成为AI技术社区的一部分感到自豪。”

想从行业领袖那里了解更多关于人工智能和大数据的知识吗?请查看在阿姆斯特丹、加利福尼亚和伦敦举办的AI & Big Data Expo。这一综合性活动与其他领先活动同时举办,包括BlockX、数字转型周和网络安全与云计算博览会。

请在这里查看由TechForge提供的其他即将举行的企业技术活动和网络研讨会。


注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Zenity现可安全保护Microsoft 365的Copilot企业使用

功能增强 使企业能够安全地拥抱AI生产力飙升 Zenity,作为业务应用和AI开发安全治理领域的领导者,今天宣布可以现在安全保护Microsoft 365的Copilot企业使用。图片{ width=60% }


Zenity是第一家为保护和管理企业AI Copilots使用过程提供专门的AI安全姿势管理解决方案的公司,使客户能够安全地利用全套AI在全企业范围内为所有业务用户提供动力。 根据微软的说法,70%的用户表示使用Copilot for Microsoft 365使他们更加高效。无论是自动执行重复任务、总结会议记录,还是使用文本提示构建应用程序,Copilot提供了宝贵的生产率增益。然而,Copilot for Microsoft 365无法从第三方服务检索实时信息,商业工作流通常也不仅仅在M365应用程序和数据格式上运行,这就需要使用插件。

在与Copilot for Microsoft 365一起使用并与之互动时,所有技术背景的业务用户可以集成现有插件,并开发自己的插件,以添加自定义功能以连接Copilot到各种系统和数据。然而,这种互连性可以指数级增加数据泄露的风险,原因是: 无法识别Copilot使用的业务上下文的DLP漏洞,导致权限最低限制违规。插件容易受到提示注入攻击的影响。超出设计范围的数据访问和使用,即使对于构建或与之交互的业务用户来说是未知的也是一样。插件设计困难,包括复杂的命名约定,可能会导致额外的操作挑战。

作为引领市场的安全治理平台,解放企业全员生产力,Zenity现在为客户提供了全面利用企业copilots的能力,为所有用户提供服务。通过这种开创性的AI安全方法,安全领导者获得以下好处:

增加了可见性:Zenity让客户能够查看跨企业使用Copilot for Microsoft 365时使用的插件列表。Zenity深入洞察还显示是谁在与插件交互以及出于什么业务原因。 风险评估:确定哪些插件和Copilot使用情形包含过多权限,可以访问敏感数据并暴露机密信息。Zenity还评估从Microsoft商店构建和下载的自定义插件的风险,这可能是危险且未经测试的。 增强的安全性:用户通过自动化playbook和缓解措施获得了额外的安全防护措施,以确保业务用户在定制和集成插件时做到安全。
Zenity首席执行官Ben Kliger表示:“客户希望通过扩展生成式AI Copilots的使用帮助推动业务发展,但他们需要一种安全、可靠的方式来实现这一目标。通过我们增强的功能,Zenity使我们的用户能够发现安全漏洞和风险,如第三方访问、嵌入式凭证和风险依赖。CIO和CISO可以放心地利用copilots的价值,增强生产力,简化运营,而不会带来安全隐患。”```

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB