AI争霸战开启!OpenAI急建10万块GB200超算,马斯克10万块H100月末开训

AI争霸战开启!OpenAI急建10万块GB200超算,马斯克10万块H100月末开训

文章来源:新智元

马斯克官宣xAI建造的世界最大超算集群,由10万块H100搭建,预计本月末开始投入训练。另一边,OpenAI再次加码,将打造由10万块GB200组成的超算,完全碾压xAI。


为了抵达AGI,全世界的公司们准备要烧掉所有的GPU!Information独家报道称,OpenAI的下一个超算集群,将由10万块GB200组成。这可用上了英伟达迄今为止最强的AI芯片。

另一边,xAI也在打造号称「世界上最大超算集群」,由100k H100组成,并将在本月末投入训练。在马斯克最新帖子中,针对报道——xAI与甲骨文终止服务器交易谈判,立即做出了回应。

他表示,xAI已经向甲骨文购买了24000块H100,并在这些芯片上训练的Grok 2。
Grok 2目前正在进行微调、错误修复,预计下个月准备就绪发布。

与此同时,xAI也在自行建设10万块H100搭建的集群,目标是实现最快的训练完成时间,计划本月晚些时候开始训模型。
这将成为世界上最强的训练集群,优势不言而喻。

我们决定自行建设10万块H100芯片系统,以及下一代主要系统的原因是,我们的核心竞争力取决于能否比其他AI公司更快。这是赶上竞争对手的唯一途径。
甲骨文是一家优秀的公司,还有另一家公司(暗指微软)在参与OpenAI的GB200集群项目中也表现出很大潜力。但是,当我们的命运取决于成为速度最快的公司时,我们必须亲自掌控,而不能只做一个旁观者。

简言之,在这个日新月异的时代下,想要超越竞争对手,必须确保有绝对的速度优势。

xAI甲骨文谈崩,百亿美元打水漂

今年5月,Information曾报道,xAI一直在讨论一项多年协议,即从甲骨文租用英伟达AI芯片。
这笔交易预计高达100亿美元,却因一些问题陷入僵局。
其中就包括,马斯克要求超算建造的速度,完全超越了甲骨文勺想象。还有甲骨文勺担心xAI首选地点没有足够的电力供应。

为了改变这一现状,只能依靠自力更生了。
现在,xAI在田纳西州孟菲斯市,正建起自己的AI数据中心,其中用到了Dell和Supermicro出货的英伟达芯片。
根据参与谈判的人士透露,甲骨文并没有参与这个项目。

其实,在此之前,xAI已经从甲骨文租用了许多英伟达芯片,成为这家云计算GPU供应商最大的客户之一。
尽管更广泛的谈判失败,但这项协议目前仍将继续。

从马斯克最新回应中,可以看出,甲骨文芯片数量已经从5月份的16000块增长到了24000块。

10万块H100串联

不过,马斯克依旧希望建造一台配备10万块英伟达GPU的超级计算机,将其称为「Gigafactory of Compute」。

他表示,xAI需要更多的芯片,来训练下一代AI模型——Grok 3.0。
老马在5月曾向投资者表示,希望在2025年秋季之前让这台超级计算机运行起来,而且他将个人负责按时交付超级计算机,因为这对于开发LLM至关重要。
他多次公开称,10万个H100组成的液冷训练集群,将在几个月后上线。

之所以Grok模型迭代至关重要,因其为X社交应用订阅套餐的一部分,起价为每月8美元,包含了各种功能。

就在上周,xAI还发布了马斯克和其他员工,在数据中心合照。照片后背景中,摆满了服务器。

虽然帖子中,并没有指明位置。但在6月的时候,Greater Memphis Chamber的主席表示,xAI正在孟菲斯的伊莱克斯…

To view more, please visit the original source.


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

人形机器人,A轮即被锁定!

文章来源:创投日报
记者 | 敖瑾

通用机器人公司逐际动力完成A轮融资,投资方包括招商局创投、尚颀资本等;而今年5月工商变更信息显示,阿里巴巴旗下投资平台成为逐际动力新增股东;尽管人形机器人行业在一笔笔大额融资中显得烈火烹油,但实际上这个风口行业仍处在早期发展阶段。

创投日报记者今日获悉,通用机器人公司逐际动力完成A轮融资,领投方为招商局创投、尚颀资本,老股东峰瑞资本、绿洲资本以及明势资本继续加持。


目前,本轮融资尚未在工商信息中体现。而就在今年5月,创投日报记者曾报道,工商变更信息显示,阿里巴巴旗下投资平台成为逐际动力新增股东,持有后者18.78%的股份,是仅次于创始团队的第二大股东。

可以看到,逐际动力本轮融资获得了不少产业资本的青睐。对此,逐际动力创始人张巍表示,公司A轮融资从一开始就锁定产投方,“因为场景就是时间、就是资金、就是技术,通用人形机器人的AI时代更需要科技公司懂场景。”

图片来源:由GPTNB生成

公司方面进一步对创投日报记者表示,接下来公司将重点推进人形机器人运动智能基础模型的建立。“要实现人形机器人的泛化能力,特别是操作上的泛化,我们认为关键在于用大量的运动数据进行预训练,然后在场景中进行微调。这将大幅提高算法迭代速度,出来的运动效果也更加稳定。”

人形机器人企业绑定主机厂

上汽集团企业的投资平台——尚颀资本的出手,无疑是逐际动力本轮融资的一大焦点。可以看到,截至目前,已有不少车企通过或亲自下场或对外投资的方式,投身到本轮人形机器人发展的火热浪潮当中。

事实上,最早掀起人形机器人在全球范围的热潮,就是知名新能源车企特斯拉。国内方面,蔚来汽车在2023年也组建了一个人形机器人“战队”,主要关注人形机器人的底层技术;小鹏此前也发布了自研人形机器人PX5;比亚迪则通过股权投资智元机器人,参与到了人形机器人产业当中。

车企对人形机器人的关注,除了有基础技术层面的能力迁移考量外,落地应用场景也是一个重要原因。

“人形机器人第一股”优必选,今年2月就发布了一条其工业版人形机器人Walker在新能源车厂首次实训的视频。

在今年4月举行的中国人形机器人生态大会上,蔚来汽车前瞻制造工程人形机器人战队负责人乙鹏在…

END

特别声明:文章内容仅供参考,不构成投资建议。投资者据此操作风险自担。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

国产大模型的技术突破与商业化探索

作者:一号
编辑:美美

国产AI大模型距离GPT,或许只差半年。
国产大模型正迅速崛起成为全球AI领域不可忽视的力量。


随着深度学习技术的不断突破,国产大模型在自然语言处理、图像识别等多个领域展现出惊人的潜力,它们不仅推动了人工智能技术的飞速发展,也在各行各业中发挥着越来越重要的作用。
然而,随着技术的快速迭代,国产大模型也面临着前所未有的商业化挑战。

技术革新与国际竞争
在全球人工智能的竞技场上,国产大模型正以惊人的速度迎头赶上,逐渐缩小与行业领头羊OpenAI的技术差距。据最新资料显示,这一差距已显著缩短至半年左右,标志着国产AI技术的一次飞跃。
以阿里的Qwen系列为例,其最新开源的Qwen2-72B指令微调版本,在国际开源模型排行榜上一举夺魁,超越了众多国际知名模型,显示了国产大模型在技术精度上的卓越表现。华为的盘古大模型5.0,以其对物理世界多模态数据的深刻理解,已在超过30个行业、400多个场景中得到应用,证明了国产大模型在行业落地方面的强大实力。科大讯飞的星火大模型V4.0,不仅在中英文12项大模型主流测试集中8个测试排名第一,更在文本生成、语言理解等多个维度超越了国际先进水平。

值得一提的是,国产大模型在多模态能力上的发展。腾讯的混元大模型,凭借其Di-T架构,在全球多模态大模型领域中占据了先发优势。而阶跃星辰的1T-MoE多模态大模型,更是在图像生成和多模态感知能力上展现出业界领先水平。这些进步不仅丰富了AI技术的应用场景,也为国产大模型在全球竞争中赢得了独特的优势。

开源与闭源双轨发展
开源与闭源模型的双轨发展策略,为国产大模型的技术创新和行业应用提供了双重动力。开源模型,以其开放共享的特性,加速了AI技术的迭代和创新。例如,阿里的Qwen系列模型,通过开源,不仅吸引了全球开发者的广泛关注和贡献…

內容較長,請點擊原文鏈接閱讀完整內容:原文鏈接

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI争霸战开启!OpenAI急建10万块GB200超算,马斯克10万块H100月末开训

AI争霸战开启!OpenAI急建10万块GB200超算,马斯克10万块H100月末开训

文章来源:新智元

【导读】马斯克官宣xAI建造的世界最大超算集群,由10万块H100搭建,预计本月末开始投入训练。另一边,OpenAI再次加码,将打造由10万块GB200组成的超算,完全碾压xAI。


为了抵达AGI,全世界的公司们准备要烧掉所有的GPU!Information独家报道称,OpenAI的下一个超算集群,将由10万块GB200组成。这可用上了英伟达迄今为止最强的AI芯片。

另一边,xAI也在打造号称「世界上最大超算集群」,由100k H100组成,并将在本月末投入训练。在马斯克最新帖子中,针对报道——xAI与甲骨文终止服务器交易谈判,立即做出了回应。他表示,xAI已经向甲骨文购买了24000块H100,并在这些芯片上训练的Grok 2。

Grok 2目前正在进行微调、错误修复,预计下个月准备就绪发布。与此同时,xAI也在自行建设10万块H100搭建的集群,目标是实现最快的训练完成时间,计划本月晚些时候开始训模型。这将成为世界上最强的训练集群,优势不言而喻。我们决定自行建设10万块H100芯片系统,以及下一代主要系统的原因是,我们的核心竞争力取决于能否比其他AI公司更快。这是赶上竞争对手的唯一途径。甲骨文是一家优秀的公司,还有另一家公司(暗指微软)在参与OpenAI的GB200集群项目中也表现出很大潜力。但是,当我们的命运取决于成为速度最快的公司时,我们必须亲自掌控,而不能只做一个旁观者。

简言之,在这个日新月异的时代下,想要超越竞争对手,必须确保有绝对的速度优势。

xAI甲骨文谈崩,百亿美元打水漂

今年5月,Information曾报道,xAI一直在讨论一项多年协议,即从甲骨文租用英伟达AI芯片。这笔交易预计高达100亿美元,却因一些问题陷入僵局。其中就包括,马斯克要求超算建造的速度,完全超越了甲骨文勺想象。还有甲骨文勺担心xAI首选地点没有足够的电力供应。为了改变这一现状,只能依靠自力更生了。现在,xAI在田纳西州孟菲斯市,正建起自己的AI数据中心,其中用到了Dell和Supermicro出货的英伟达芯片。根据参与谈判的人士透露,甲骨文并没有参与这个项目。其实,在此之前,xAI已经从甲骨文租用了许多英伟达芯片,成为这家云计算GPU供应商最大的客户之一。尽管更广泛的谈判失败,但这项协议目前仍将继续。从马斯克最新回应中,可以看出,甲骨文芯片数量已经从5月份的16000块增长到了24000块。

10万块H100串联

不过,马斯克依旧希望建造一台配备10万块英伟达GPU的超级计算机,将其称为「Gigafactory of Compute」。他表示,xAI需要更多的芯片,来训练下一代AI模型——Grok 3.0。老马在5月曾向投资者表示,希望在2025年秋季之前让这…



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI正在悄悄研发代号“草莓”的神秘项目,其能力或已达到博士水平

为了在飞速发展的人工智能领域保持领先地位,OpenAI正在秘密研发一种新的AI模型,代号为“草莓”。

这一消息来自路透社和一位知情人士透露的内部文件。


这家由微软支持的初创公司以其ChatGPT产品而闻名,目前正全力展示其模型具备的高级推理能力,这可能会成为AI技术的一大飞跃。

01.“草莓”项目内部一览

根据路透社5月份看到的一份最新内部文件,OpenAI团队正在深入研究“草莓”项目。虽然该文件的确切时间线尚不清楚,但它概述了OpenAI利用“草莓”进行高级人工智能研究的计划。

该项目被称为“正在进行中”,即使在公司内部也一直处于保密状态。“草莓”的目标是让人工智能不仅能生成答案,还能自主、可靠地浏览互联网,进行OpenAI所称的“深度研究”。

“这是迄今为止人工智能模型无法实现的。”消息人士指出了该项目的雄心勃勃。

image

在被问及“草莓”和这篇报道中的细节时,OpenAI的一位发言人在一份声明中说道:“我们希望我们的人工智能模型能像我们一样看待和理解这个世界。持续研究新的AI能力是业界的普遍做法,我们的共同信念是,随着时间的推移,这些系统的推理能力将不断提高。”

但这位发言人没有直接回答有关“草莓”的问题。

02.从Q到“草莓”推理新时代

有消息称,“草莓”是前一个名为Q的项目的继任者。

据两位知情人士透露,OpenAI内部已将Q视为一项突破,因为它能够回答复杂的科学和数学问题,超越了目前大多商业化模型的能力。

据彭博社报道,在今年的一次内部全体会议上,OpenAI展示了一个研究项目,展示了新的类人推理能力。

虽然路透社无法证实所展示的项目是否为“草莓”,但这与该公司一直以来为增强人工智能推理能力所做的努力不谋而合。

OpenAI首席执行官奥特曼强调了推理在AI中的重要性,他在今年早些时候表示,“最重要的进步领域将围绕推理能力展开”。

image

03.人工智能推理的挑战

研究人员认为,提高人工智能模型的推理能力是实现人类或超人级智能的关键。虽然大型语言模型可以高效地总结文本和撰写文章,但它们在常识性问题和逻辑任务上会经常失误,导致所谓的“幻觉”或生成错误信息。

根据AI研究人员的描述,推理涉及人工智能规划、理解物理世界和解决多步骤问题的能力。

OpenAI的“草莓”项目旨在通过采用专门的后期训练过程来克服这些挑战。这包括在大量数据集上对人工智能模型进行预训练后,对其进行微调。

据一位知情人士透露,“草莓”的方法与斯坦福大学的“自学推理”(STaR)有相似之处,后者允许人工智能模型迭代地创建自己的训练数据,有可能使它们达到更高的智能水平。

STaR的创造者之一、斯坦福大学教授Noah Goodman评论说:“我认为这既令人兴奋,又令人恐惧……如果事情继续朝着这个方向发展,作为人类,我们就有一些严肃的事情需要思考了。”

04.长任务规划和自主研究

“草莓”项目雄心勃勃的目标之一是能够执行长期任务(LHT),这要求人工智能在较长时间内计划并执行一系列行动。

内部文件显示,OpenAI正在一个“深度研究”数据集上训练和评估模型,以实现这些能力。

虽然该数据集的具体内容和延长时间仍未披露,但目标很明确:让人工智能能够在计算机使用代理(CUA)的帮助下自主开展研究,并根据研究结果采取行动。

05.竞争激烈的人工智能产业

在增强人工智能推理能力方面,OpenAI并非孤军奋战。谷歌、Meta和微软等大型科技公司以及众多学术实验室也在探索各种技术,以提高人工智能的推理能力。

然而,对于大型语言模型能否在预测中纳入长期规划和高级推理,人们的看法却不尽相同。Meta的现代人工智能先驱YannLeCun就经常对大语言模型(LLM)能否实现类人推理的能力表示怀疑。

“草莓”代表了OpenAI战略的重要组成部分,旨在解决当前AI模型的局限性。通过开发更先进的推理能力,OpenAI旨在为人工智能开启新的可能性,从科学发现到创建新的软件应用。

同时,该公司一直在向开发者和合作伙伴发出信号,表示即将发布推理能力显著增强的技术。“草莓”的开发包括微调等后期训练方法,其中涉及人类反馈和迭代学习过程。这些技术旨在完善人工智能模型,提高它们在特定任务中的表现。

通过“草莓”技术取得的进步可以重新定义人工智能的能力,并为这些模型所能达到的目标设定新的标准。

虽然前进的道路充满挑战,但潜在的回报也是巨大的,预示着一个智能、自主的人工智能系统的新时代即将到来。

用OpenAI发言人的话来说,“我们希望我们的人工智能模型能像我们一样看待和理解这个世界。如果‘草莓’项目取得成功,我们就离实现这一愿景更近了一步。”

OpenAI引入了一个五级系统来跟踪其在实现通用人工智能(AGI)的进展。这些等级从代表当前对话式人工智能的第1级,到设想能够管理和执行整个组织工作的第5级,涵盖了不同层次的AI能力。

下面是OpenAI划定的五个人工智能等级:

  1. 聊天机器人:具备对话语言的AI
  2. 推理者:具备人类水平的问题解决能力
  3. 代理者:能够采取行动的系统
  4. 创新者:能够帮助发明创造的AI
  5. 组织者:能够完成组织工作的AI

OpenAI认为“草莓”正在接近第2级,这一级涉及解决问题,类似于不借助工具的博士水平。该框架旨在提供一种结构化的方法来理解和开发人工智能系统,从而最终超越人类智能。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

国产大模型的技术突破与商业化探索

国产AI大模型距离GPT,或许只差半年。
国产大模型正迅速崛起成为全球AI领域不可忽视的力量。


随着深度学习技术的不断突破,国产大模型在自然语言处理、图像识别等多个领域展现出惊人的潜力,它们不仅推动了人工智能技术的飞速发展,也在各行各业中发挥着越来越重要的作用。
然而,随着技术的快速迭代,国产大模型也面临着前所未有的商业化挑战。

技术革新与国际竞争
在全球人工智能的竞技场上,国产大模型正以惊人的速度迎头赶上,逐渐缩小与行业领头羊OpenAI的技术差距。据最新资料显示,这一差距已显著缩短至半年左右,标志着国产AI技术的一次飞跃。
以阿里的Qwen系列为例,其最新开源的Qwen2-72B指令微调版本,在国际开源模型排行榜上一举夺魁,超越了众多国际知名模型,显示了国产大模型在技术精度上的卓越表现。华为的盘古大模型5.0,以其对物理世界多模态数据的深刻理解,已在超过30个行业、400多个场景中得到应用,证明了国产大模型在行业落地方面的强大实力。科大讯飞的星火大模型V4.0,不仅在中英文12项大模型主流测试集中8个测试排名第一,更在文本生成、语言理解等多个维度超越了国际先进水平。
值得一提的是,国产大模型在多模态能力上的发展。腾讯的混元大模型,凭借其Di-T架构,在全球多模态大模型领域中占据了先发优势。而阶跃星辰的1T-MoE多模态大模型,更是在图像生成和多模态感知能力上展现出业界领先水平。这些进步不仅丰富了AI技术的应用场景,也为国产大模型在全球竞争中赢得了独特的优势。

开源与闭源双轨发展
开源与闭源模型的双轨发展策略,为国产大模型的技术创新和行业应用提供了双重动力。开源模型,以其开放共享的特性,…

商业化挑战与市场潜力
在国产大模型的技术进步背后,商业化之路并非一帆风顺。尽管国产大模型在性能上取得了显著成就,但商业化的现状和挑战同样不容忽视。6月份大模型相关中标项目75个,披露的中标金额达到了1.38亿元,这一数字虽然可观,但与巨大的研发投入相比,仍显不足。
以百度和科大讯飞为例,2023年的研发费用分别为242亿元和34.81亿元,其中相当一部分投向了大模型的研发。这种投入与产出之间的差距,凸显了国产大模型在商业化过程中的困境。
价格战的爆发进一步加剧了这一挑战。随着字节跳动等厂商大幅降低Token价格,大模型的价格进入了所谓的“厘时代”,这无疑对整个行业的盈利模式和可持续发展构成了压力。价格战可能会短期内吸引用户,但长期来看,如何平衡成本和收益,寻找到可持续的商业模式,是国产大模型厂商需要深思的问题。
然而,挑战中也蕴含着机遇。国产大模型的用户接受度和市场潜力不容忽视。以百度的文心一言为例,其用户规模达到3亿,日调用量超过5亿,这一庞大的用户基础为国产大模型提供了广阔的市场空间。通过进一步优化用户体验,提升产品的易用性和实用性,国产大模型完全有可能在市场中占据更大的份额。
国产大模型在商业化的道路上,还需要在技术创新的基础上,更加注重市场需求和用户体验,通过不断的探索和调整,寻找到适合自己的可持续发展之路。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

特朗普遇刺照,用一张2100元?! 文章标题、配图,AI免费给你来一打

机器之能报道

编辑:Sia

据说,自媒体使用特朗普遇刺照片作为配图,一张付费 2100 元!

随便下一张图片给文章配图的日子,一去不复返咯。

不过,创作者们的麻烦并未到此为止。


写完一篇公众号文章,接下来的十几分钟最让人抓耳挠腮:

标题铺位,黄金地段,寸土寸金。除了突出内容亮点,还要确保标题足够吸引人点开看,这可比写文章难多了!

啥?酒香不怕巷子深?

在红海的公众号圈子里,这条行不通。

也别灰心!磨合一段时间,我们发现,大模型在解决这两个日常挑战上,还挺管用。


最短时间起一个合格标题

为了方便唠,咱就以这篇机器人基础模型新公司 Skild AI 报导为例。

如果对文章需要突出的亮点了如指掌,只是不知道怎么整出一个吸引人的排列组合,不妨告诉大模型:

  1. 这是一篇微信公众号的文章,需要一个吸引人的标题;
  2. 标题要突出数据优势、融资额度和机器人GPT

这是 Claude 3.5 sonnet 的主意,还不赖!


模仿生图,AI 主打一个省

为了避免版权纠纷,越来越多的人开始用 AI 生成文章的封面。

很多时候,比起让 AI 毫无头绪地天马行空,我们更希望 TA 直接模仿一些现成图片。

一般,我们会先让大模型看图说话,给出提示词,再将这些提示词扔给图片生成器。

这是一位同事的真实体验:

如果发现提示词不好使,可以让大模型( Claude 3.5 sonnet )「仔细描述图片细节和内容」:

然后,将这些描述扔给图片生成器。

这一次,可图的效果明显更胜一筹。

我们也尝试模仿《经济学人》创意独特的封面。

这一次,可图的视觉效果(右下)要优于 DALL-E-3 (右上)。但,糟糕的拼写让结果功亏一篑。

文字和手指

想要 DALL-E-3 的图片正确显示「西门子」,无论是英文还是中文,都很困难。

虽然早知道涉及手指细节部分,图片生成器依旧很容易出问题。

但万万没想到,哪怕是一张类似如花挖鼻孔的图片,也很难成功。

这也不奇怪。

图像生成器通常使用扩散模型,是从噪声中重建图像,学习的是覆盖更多像素的模式,文本、手指这样的细节生成上,自然表现较差。

当然,这并不是说文本生成器就一定是拼写高手,尽管图像和文本生成器背后的底层技术不同,它们在拼写等细节方面,都有类似的困难。

毕竟,还是缺乏物理世界、语言世界的基本常识。

以后我们会带来更多 AIGC 案例演示,也欢迎大家进群交流。

![图片](https://mmbiz

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Vertikal6和Brave River Solutions宣布战略合并

Uniting Excellence: Vertikal6 and Brave River Combine Forces to Deliver Unmatched Innovation and Client-Centric Solutions
Vertikal6是一家先进的托管IT解决方案和专业服务公司,而Brave River Solutions是一家网站和软件开发、数字营销和IT托管服务提供商,两家公司自豪地宣布它们已经合并。图片{ width=60% }


此次合并扩大了两家公司的合并服务,将为新英格兰地区的中小型企业提供企业级托管IT、数字营销、网站和应用开发、IT战略和专业服务等广泛服务组合。

合并后的公司将以Vertikal6品牌为名,由Rick Norberg担任CEO。与此同时,Brave River将作为“Brave River Solutions,Vertikal6公司”运营,由Jim McAssey继续担任总裁,确保愿景连续性和卓越的客户体验。此次合并扩大了两家公司的服务范围。由于此次合并,Vertikal6将开始为其客户提供网站设计和数字营销服务。Brave River Solutions的IT客户将受益于全面的托管IT解决方案、专业服务和IT战略服务组合。总部位于罗德岛的合并公司将专注于向美国企业提供优质客户服务和创新解决方案,利用他们在技术领域数十年的专业知识。

“新英格兰地区及全国各地的市场动态促使中小型企业领导者寻求最大限度地发挥其IT和营销资源的新方法,”Vertikal6CEO Rick Norberg表示。“Jim McAssey和我已经花了一年多的时间研究细节,对于我们互补的服务如何帮助这些企业获得竞争优势感到兴奋。”Brave River,即Vertikal6公司总裁Jim McAssey补充说:“尽管我们在同一地理位置竞争已超过二十年,但我们为市场的不同细分提供服务,这就是为什么我们的公司如此互补。” Norberg和McAssey都强调了Vertikal6和Brave River相似的企业文化和价值观的重要性。“两家公司均在普罗维登斯商业新闻最佳工作场所计划中获得多个奖项,因此我们相信会有很好的协同效应,从而提高员工和客户满意度的水平。”

此次合并扩大了Vertikal6提供的产品的深度和广度,充分整合了Brave River的能力。这扩大了公司的服务组合,增加了专业知识的梯队,并使其在新英格兰地区及更远地区实现更广泛的市场覆盖。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

早半年发arXiv,却被质疑抄袭:活在微软AutoGen阴影里的CAMEL

arXiv 不是同行评审期刊,所以发在 arXiv 上的论文不必被引用,这合理吗? 如果你对 AI 智能体感兴趣,那你一定知道微软的 AutoGen。它是一个用于构建 AI 智能体的开源编程框架,允许多个智能体通过聊天来解决任务。


其间,LLM 智能体可以扮演多种角色,如程序员、设计师,或者各种角色的组合。在 GitHub 上,这个项目已经收获了 28k 的 star 量,论文还在 ICLR 2024 LLM Agent Workshop 上获得了最佳论文奖。不过,这篇论文的背后其实是存在争议的。2023 年 11 月,一位 AI 研究者(阿卜杜拉国王科技大学博士,开源项目 Camel-AI.org、DeepGCNs.org 的发起人李国豪)发帖称,由于 AutoGen 与他们的论文 CAMEL 高度相似,他们每次出席活动的时候都会被问,二者有什么区别?对此,李国豪表示非常无奈,因为他们的论文发布在 arXiv 上的时间要明显早于 AutoGen,如今却被当成了 AutoGen 的模仿者(CAMEL 发布于 2023 年 3 月;AutoGen 发布于 2023 年 8 月)。 根据李国豪的说法,二者在方法论上存在以下相似之处: 甚至用到的例子也有点相似: 作为后来者,AutoGen 确实在论文中提到过 CAMEL,并指出了 CAMEL 与 AutoGen 之间的一些差异。但这些内容出现的位置令人费解 —— 它们统统出现在附录中。这可能也是导致其他研究者只知 AutoGen,不知 CAMEL 的一大原因。毕竟,有几个人会去仔细看附录呢? AutoGen 论文中提及 CAMEL 的段落:「CAMEL(Li et al., 2023b)是一个通信智能体框架,它展示了如何使用角色扮演来让聊天智能体相互交流以完成任务。CAMEL 还能记录智能体对话以进行行为分析和能力理解。CAMEL 使用了一种「inception-prompting」技术实现智能体之间的自主合作。与 AutoGen 不同的是,CAMEL 本身不支持工具使用(如代码执行)。尽管 CAMEL 被提议作为多智能体对话的基础设施,但它只支持静态对话模式,而 AutoGen 还支持动态对话模式。」 AutoGen 论文中提及 CAMEL 的段落:「AutoGen 可以帮助开发能力超强的智能体,充分利用 LLM、工具和人类的优势。创建这样的智能体对于确保多智能体工作流能够有效地排除故障并在任务中取得进展至关重要。例如,我们观察到,另一个多智能体 LLM 系统 CAMEL 在大多数情况下无法有效解决问题,主要是因为它缺乏执行工具或代码的能力。这一失败表明,仅有简单角色扮演的 LLM 和多智能体对话是不够的,还必须有具备各种技能的高级能力智能体。我们认为,开展更系统的工作,制定针对特定应用的智能体指南,创建大型 OSS 知识库,并创建能够发现和提升自身技能的智能体是必要的。」。根据李国豪的说法,两篇论文的作者其实在线下见过面,但发生了一些不愉快:李国豪希望能够通过发帖引起学术界的重视。对此,你怎么看呢?



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

太酷了!iPhone、iPad、MacBook老旧设备组成异构集群,能跑Llama 3

这次,你手里的硬件设备也能在 AI 领域大展拳脚了。

将 iPhone、iPad、Macbook 进行组合,就能组装成「异构集群推理方案」, 然后顺畅的运行 Llama3 模型。


值得一提的是,这个异构集群可以是 Windows 系统,也可以是Linux、iOS 系统,并且对 Android 的支持很快到来。

根据项目作者 @evilsocket 的介绍,这个异构集群包括 iPhone 15 Pro Max、iPad Pro、MacBook Pro (M1 Max)、NVIDIA GeForce 3080、2x NVIDIA Titan X Pascal。所有代码都已经上传到 GitHub。

看到这,网友纷纷表示,这位老哥确实不简单。

不过也有网友开始担心能耗问题,暂且不管速度,电费都耗不起。来回搬数据,损耗太大了。

上述功能的实现,离不开一个名为 Cake 的 Rust 框架。Cake 可以完成大模型(例如 Llama3)的分布式推理,旨在将消费级硬件组合成异构集群,其中消费级硬件采用多种操作系统,包括:iOS、Android、macOS、Linux 和 Windows,从而使 AI 更易于访问。

项目地址:https://github.com/evilsocket/cake

Cake 的主要思路是将 transformer 块分片到多个设备,以便能够让通常不适合单个设备 GPU 内存的模型运行推理。对同一工作线程上的连续 transformer 块的推理是分批进行的,以便最大限度地减少数据传输造成的延迟。

Cake 目前支持的系统和设备如下:

1
cargo build --release

假如用户想要在应用程序中生成 iOS 绑定,可以进行下述操作:

1
make ios

使用

运行 worker 节点:

1
2
3
4
5
cake-cli --model /path/to/Meta-Llama-3-8B \ # model path, read below on how to optimize model size for workers
--mode worker \ # run as worker
--name worker0 \ # worker name in topology file
--topology topology.yml \ # topology
--address 0.0.0.0:10128 # bind address

运行 master 节点:

1
2
cake-cli --model /path/to/Meta-Llama-3-8B \
--topology topology.yml

其中 topology.yml 确定哪些层由哪个 worker 提供服务:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
linux_server_1:
host: 'linux_server.host:10128'
description: 'NVIDIA Titan X Pascal (12GB)'
layers:
- 'model.layers.0-5'
linux_server_2:
host: 'linux_server2.host:10128'
description: 'NVIDIA GeForce 3080 (10GB)'
layers:
- 'model.layers.6-16'
iphone:
host: 'iphone.host:10128'
description: 'iPhone 15 Pro Max'
layers:
- 'model.layers.17'
ipad:
host: 'ipad.host:10128'
description: 'iPad'
layers:
- 'model.layers.18-19'
macbook:
host: 'macbook.host:10128'
description: 'M1 Max'
layers:
- 'model.layers.20-31'

关于内存和磁盘空间优化问题,用户可能希望只向 worker 提供模型中实际需要的数据,而不是整个文件夹,在这种情况下,可以使用 cake-split-model 。例如,要生成较小版本的 llama3 safetensors,可以采用如下代码:

1
2
3
cake-split-model --model-path path/to/Meta-Llama-3-8B \ # source model to split
--topology path/to/topology.yml \ # topology file
--output output-folder-name

参考链接:https://x.com/tuturetom/status/1812654489972973643



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB