Pega与AWS合作推出Pega EU服务边界

新产品将为欧盟客户提供更多数字主权控制
Pegasystems Inc. (纳斯达克股票代码:PEGA),领先的企业AI决策和工作流自动化平台提供商,今天宣布正在扩大与亚马逊网络服务(AWS)的合作关系。图片{ width=60% }


Pega是首批宣布将利用最近宣布的AWS欧洲主权云的公司之一,以提供Pega EU服务边界,这是一个解决方案,将帮助客户在欧盟内实现其最严格的数字主权目标。Pega EU服务边界计划于2025年底与AWS欧洲主权云一同推出。
新产品将承诺由Pega在欧盟内存储和处理数据,并由欧盟员工支持和控制,以提供Pega Cloud的灵活性,同时满足客户在公共部门和高度受监管行业对严格数字主权要求。通过将Pega Cloud早已严格的数据隔离、访问控制和流程与AWS欧洲主权云相结合,Pega将在服务的所有层面提供进一步的数字主权保证,从Pega的平台和支持技术,一直到支持基础设施。
根据德勤的数据,2024年全球预计将产生149赫兹的数据。由于云服务现在被全球企业广泛用于扩大数据的创建和处理,关键在于在云环境中保护数据及其主权。这对于受监管行业(如公共部门或金融服务行业)的企业尤为重要,他们面临着要求维护数据主权的重大监管压力。Pega EU服务边界将帮助客户满足他们的需求,并进一步控制数据存储和处理的位置,管理访问的方式,以及服务欧盟客户数据的人员所在位置。
Pega EU服务边界将建立在AWS欧洲主权云之上,提供操作自主性,基础设施在物理上和逻辑上与现有AWS区域分离,同时仍提供AWS基础设施的好处,包括行业领先的安全性、可用性、性能和弹性。Pega EU服务边界将利用Pega Cloud的操作最佳实践和自动化,将其客户支持组织地区化,并最大程度地减少人为干预。
引用和评论
“在这个关键时刻,确保数据能在云中安全处理、访问和管理至关重要,”Pega公司的首席技术系统官Frank Guerrera表示。“灵活和敏捷地利用数据将为最终用户和内部利益相关者带来卓越的结果,也将有助于确保数字主权,这是公共部门和高度受监管行业中至关重要的要求。Pega致力于优先考虑我们的客户,合作解决他们的需求,并满足监管和业务义务。Pega EU服务边界的推出将促进这些努力,通过来自Pega和AWS的一系列资源和基础设施,为我们的欧盟客户提供安心。我很期待看到这将在未来几年为我们的客户带来的价值。”
“AWS致力于为客户提供更多选择和控制,帮助满足其独特的数字主权需求而无需妥协。我们很高兴看到Pega EU服务边界将可在AWS欧洲主权云上提供,帮助来自公共部门和受监管行业的客户推动创新,同时满足必要的要求,”AWS主权云副总裁Max Peterson表示。“这种合作对于帮助客户在一个法规、科技和风险不断变化的世界中保护他们的数据至关重要。我们期待继续与Pega合作,并期待欧洲各组织如何通过AWS欧洲主权云推动进步。”
附加资源
产品背景:Pega Cloud
合作详情:Pega-AWS关系
AWS Marketplace:AWS Marketplace中的Pega Cloud



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

融资6.4亿美元,AI芯片公司迅速崛起,Yann LeCun出任技术顾问

Groq是一家开发芯片以比传统处理器更快地运行生成式 AI 模型的初创公司,该公司周一表示,已在由贝莱德 (Blackrock) 领投的新一轮融资中筹集了 6.4 亿美元。Neuberger Berman、Type One Ventures、思科、KDDI 和三星 Catalyst Fund 也参与其中。


这笔资金使 Groq 的总融资额超过 10 亿美元,公司估值达到 28 亿美元,这对 Groq 来说是一次重大胜利,据报道,该公司最初希望以略低的估值(25 亿美元)筹集3 亿美元。这笔资金是 Groq 在 2021 年 4 月的先前估值(约 10 亿美元)的两倍多,当时该公司在 Tiger Global Management 和 D1 Capital Partners 领投的一轮融资中筹集了 3 亿美元。
Meta 首席人工智能科学家 Yann LeCun 将担任 Groq 的技术顾问,英特尔代工业务前负责人、惠普前首席信息官 Stuart Pann 将加入这家初创公司担任首席运营官,Groq 今天还宣布了这一消息。考虑到 Meta 在自己的人工智能芯片上的投资,LeCun 的任命有点出人意料——但毫无疑问,这让 Groq 在竞争激烈的领域获得了一个强大的盟友。
Groq 于2016 年崭露头角,目前正在开发所谓的 LPU(语言处理单元)推理引擎。该公司声称,其 LPU 可以运行现有的生成式 AI 模型,其架构与 OpenAI 的ChatGPT和GPT-4o类似,速度是后者的 10 倍,能耗仅为后者的十分之一。
Groq 首席执行官乔纳森·罗斯 (Jonathan Ross) 因帮助发明张量处理单元 (TPU)而声名鹊起 ,这是谷歌用于训练和运行模型的定制 AI 加速器芯片。近十年前,罗斯与企业家、谷歌母公司 Alphabet X 登月实验室前工程师道格拉斯·怀特曼 (Douglas Wightman) 合作,共同创立了 Groq。
Groq 提供了一个由 LPU 驱动的开发者平台,名为 GroqCloud,该平台提供“开放”模型,如 Meta 的 Llama 3.1 系列、谷歌的 Gemma、OpenAI 的 Whisper 和 Mistral 的 Mixtral,以及允许客户在云实例中使用其芯片的 API。(Groq 还为去年年底推出的人工智能聊天机器人 GroqChat 提供了一个游乐场。)截至 7 月,GroqCloud 拥有超过 356,000 名开发人员;Groq 表示,本轮融资的部分收益将用于扩大容量并添加新模型和功能。
Groq 首席运营官 Stuart Pann 告诉 TechCrunch:“这些开发人员中有很多都在大型企业工作。据我们估计,财富 100 强企业中有超过 75% 的人都在使用 Groq。”
随着生成式人工智能的持续热潮,Groq 面临着来自其他人工智能芯片新贵以及人工智能硬件领域强大巨头 Nvidia 日益激烈的竞争。
据估计,Nvidia 控制着用于训练和部署生成式 AI 模型的 AI 芯片市场的 70% 至 95%,该公司正在采取积极措施来保持其主导地位。
Nvidia 承诺每年发布一款新的 AI 芯片架构,而不是像以往那样每隔一年发布一款。据报道,该公司正在建立一个新的业务部门,专注于为云计算公司和其他公司设计定制芯片,包括 AI 硬件。
除了 Nvidia,Groq 还与亚马逊、谷歌和微软竞争,这些公司都提供(或即将提供)用于云端 AI 工作负载的定制芯片。亚马逊拥有 Trainium、Inferentia 和 Graviton 处理器,可通过 AWS 获得;谷歌云客户可以使用上述 TPU,并适时使用谷歌的Axion芯片;微软最近为其 Cobalt 100 CPU 推出了 Azure 实例预览版,Maia 100 AI Accelerator 实例将在未来几个月内推出。
一些分析师认为,在未来五年内,人工智能芯片市场的年销售额可能达到 4000 亿美元,Groq 可能会将 Arm、英特尔、AMD 以及越来越多的初创公司视为竞争对手。Arm和AMD 的人工智能芯片业务尤其蓬勃发展,这要归功于云供应商为满足生成式人工智能的容量需求而不断增加的资本支出。
D-Matrix 去年年底筹集了 1.1 亿美元,用于将其所谓的首创推理计算平台商业化。今年 6 月,Etched以 1.2 亿美元的价格脱颖而出,购买了一款定制处理器,用于加速当今占主导地位的生成式 AI 模型架构,即 transformer。据报道,软银的孙正义正寻求筹集 1000 亿美元成立一家芯片企业,与 Nvidia 竞争。据说 OpenAI 正在 与 投资公司洽谈启动一项 AI 芯片制造计划。
为了开拓自己的市场,Groq 正在大力投资企业和政府推广。
今年 3 月,Groq收购了Definitive Intelligence,后者是一家总部位于帕洛阿尔托的公司,提供一系列面向企业的 AI 解决方案,并组建了一个名为 Groq Systems 的新业务部门。Groq Systems 的业务范围包括为希望将 Groq 芯片添加到现有数据中心或使用 Groq 处理器构建新数据中心的组织(包括美国政府机构和主权国家)提供服务。
最近,Groq 与政府 IT 承包商 Carahsoft 合作,通过 Carahsoft 的经销商合作伙伴向公共部门客户销售其解决方案,并且该初创公司已签署意向书,准备在欧洲公司 Earth Wind & Power 的挪威数据中心安装数万个 LPU。
Groq 还与沙特阿拉伯咨询公司 Aramco Digital 合作,在中东未来的数据中心安装 LPU。
在建立客户关系的同时,总部位于加州山景城的 Groq 也在向下一代芯片迈进。去年 8 月,该公司宣布将与三星的代工业务签约生产 4nm LPU,预计这些 LPU 的性能和效率将超过 Groq 的第一代 13nm 芯片。
Groq 表示,计划到 2025 年第一季度末部署超过 108,000 个 LPU。


风险投资持续流入人工智能初创企业

Groq 并不是唯一一家成功利用人工智能炒作的基础设施供应商。事实上,6.4 亿美元远不是我们近年来看到的初创公司获得的最大一笔收入。
您可能还记得,早在 5 月份,GPU 巨头 CoreWeave 就在 C 轮融资中获得了11 亿美元,几周后它就成功说服黑石集团、贝莱德和其他公司以其 GPU 作为抵押获得75 亿美元贷款。
与此同时,另一家 GPU 云运营商 Lambda Labs 自 2 月份以来利用其 GPU 缓存获得了总计 8.2 亿美元的新资金和债务融资,但看起来它还不满足。上个月我们了解到,据报道,Lambda 正在与风险投资公司洽谈再获得 8 亿美元的资金,以支持部署更多 Nvidia GPU。
尽管风险投资资金不断流入人工智能初创企业,但华尔街的一些人似乎越来越担心这些数十亿美元的人工智能基础设施投资是否会带来回报。
但这并没有阻止 Cerebras 等机器学习新贵寻求首次公开募股 (IPO)。上周,这家以餐盘大小的模型训练加速器而闻名的公司透露,它已秘密申请公开上市。
首次公开募股的规模和价格范围尚未确定。Cerebras 对人工智能训练问题采取了相当不同寻常的方法,帮助它从 G42 等公司获得了超过 9 亿美元的承诺。
与此同时,除了英特尔这个相当引人注目的例外(英特尔计划裁员至少 15%,第二季度利润同比下降 16 亿美元)之外,芯片供应商和转售其加速器访问权的云提供商一直是人工智能热潮的最大受益者。上周,AMD透露其MI300X GPU 占其数据中心销售额的 10 亿美元以上。
然而,似乎直到本月晚些时候市场领导者 Nvidia 公布其收益和前景后,人工智能炒作列车是否会脱轨的真正试金石才会到来。

英伟达的问题,会否引起AI巨变?

最近,有新闻指出,英伟达顶级产品 Blackwell 系列“GB200”因为缺陷导致交付时间推迟了三个多月。此次延迟预计将影响微软、谷歌和 Meta 等大型科技公司的商业计划,这些公司原本打算利用价值数十至数百万亿韩元的 GB200 来增强其 AI 服务。行业分析师认为,全球 AI 行业的“垄断风险”已成为现实,英伟达和台积电都面临问题,这两家公司占据了 AI 加速器设计和生产市场 90% 以上的份额。
Blackwell 系列包括“B100”和“B200”,封装了八个 192GB 第五代 HBM(HBM3E)和一个 GPU,而“GB200”则在两个 B200 上增加了一个中央处理器 (CPU)。据报道,问题出现在顶级型号 GB200 上。尽管 GB200 的定价超过 40,000 美元(约合 5400 万韩元),比其前身 H100 高出 30% 以上,但微软和谷歌等客户下了价值数十至数百万亿韩元的订单。NVIDIA 甚至最近要求负责 Blackwell 生产的台积电将产量提高 25%。
据市场研究公司TechInsights统计,去年NVIDIA在AI加速器市场的占有率高达97.2%。而代工Blackwell的台积电,在AI加速器领域的代工市场份额预估超过95%。AI半导体供应链向特定企业集中,风险极大,一位半导体行业人士指出,“AI半导体供应链向特定企业集中,风险极大”,并预测“三星和AMD将有机会”。
专家预测,此次设计缺陷事件将加剧“反英伟达”风潮,加速大型科技公司“英伟达/台积电替代战略”。AMD和谷歌纷纷推出自研GPU,将自己定位为英伟达的竞争对手。实际动向正在观察中。最近,微软和谷歌向第二大AI加速器公司AMD派遣员工,共同开发下一代产品。微软还开始采购AMD的AI加速器“MI300X”。苹果在AI模型训练方面,已经采用谷歌的TPU芯片,而非英伟达芯片。
NVIDIA 的“反垄断”风险也在增加。有报道称,美国司法部正在调查 NVIDIA 涉嫌违反反垄断法。占据超过 80% AI 芯片市场份额的 NVIDIA 被指控威胁对试图购买竞争对手产品的客户进行报复。继法国之后,另一个反垄断风险可能会阻碍 NVIDIA 的单打独斗。
向AMD和谷歌供应HBM的三星电子预计将受益于AI加速器市场的多元化。三星电子目前向AMD供应第4代HBM——HBM3,并已有效确保了HBM3E的供应。最近,三星还一直在推动其代工和先进封装“交钥匙服务”,以替代台积电。不过,短期内,SK海力士和三星电子的HBM3E交货时间表也预计将因这一设计缺陷而略有延迟。GB200共配备16个第5代HBM——HBM3E。由于Blackwell上市前订单激增,SK海力士和三星电子一直在转换生产线,专注于HBM3E。如果Blackwell的上市推迟到明年,可能会对他们今年下半年的业绩产生负面影响。
尽管面临挑战,但 NVIDIA

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI高层巨变:联创辞职总裁休假,网友:领导层成了空壳

刚刚,OpenAI高层大地震:

联创John Schulman辞职跑路,联创&总裁Greg Brockman长期休假,产品副总裁Peter Deng也被曝离职。

John Schulman(约翰·舒曼),长年领导OpenAI强化学习团队,被誉为“ChatGPT架构师”。


也是他在Ilya Sustkever离开之后,临时接管了超级对齐团队。

现在他宣布“做了一个艰难的决定”,加入隔壁Anthropic,也就是Claude团队。

与此同时,OpenAI总裁Greg Brockman也宣布将休长假,直到年底。

OpenAI计划10月1日起在全球各地举办开发者日等活动,他也将缺席。

Brockman自述是在连续工作了9年之后第一次放松,但对年底之后的计划说的比较模糊,也有网友认为是出于保密协议。

在舒曼离职官宣20分钟后,奥特曼在回复中感谢了舒曼的贡献,以及回忆了两人2015年初次见面时的情景。

但截至目前,奥特曼没有对Brockman休假做任何回应。

奥特曼平常有打字句首字母和“i”不用大写字母的习惯,但每当重要同事选择离开时,他都会表现得更正式一些。

著名OpenAI内幕爆料账号苹果哥表示:现在领导层已经成了一个空壳,你们还是赶紧发布产品吧。

ChatGPT架构师离职

舒曼本科在加州理工学习物理,在UC伯克利短暂学习过神经科学,后来师从强化学习大牛Pieter Abbeel,完成计算机科学博士学位。

在他成为OpenAI联创时,博士还未毕业。

他的代表作、最高引论文PPO,也就是ChatGPT核心技术RLHF中选用的强化学习算法。

后来在从GPT-3.5、GPT-4到GPT-4o的一系列工作中都领导了对齐/后训练团队。

这次他自述的离职原因也是与此相关:

“希望加深对AI对齐的关注,并开启我职业生涯的新篇章,让我可以重返实际的技术工作。”

不过他也给足了OpenAI面子,补充到“不是因为OpenAI缺乏对安全对齐工作的支持而离开”,只是出于个人希望集中精力。

在ICML2023的演讲中,舒曼自述过个人接下来关注的研究方向之一:如何避免过度优化

  • ChatGPT 中的一些令人讨厌的行为(例如过度道歉)是过度优化的结果。
  • RLHF很容易对狭窄的指标进行过度优化,例如模型可能学会了能获得奖励的捷径,但没有真正理解。
  • 适当的对话任务训练需要推理、换位思考和知识,研究人员必须精心设计训练过程、奖励功能和数据集
  • 奖励信号必须评估整个对话的质量,而不仅仅是个别反馈。

在今年五月份与播客主持人Dwarkesh Patel访谈时,舒曼也表示,算力应该更多从预训练向后训练转移

OpenAI人才持续流失

由于在AI安全方面理念和奥特曼不合,OpenAI的人才发生了大量流失。

今年5月,超级对齐团队的两名负责人——首席科学家Ilya Sutskever和RLHF发明者之一Jan Leike,在同一天内相继离开OpenAI。

彼时离超级对齐团队的成立,过去还不到一年。

Jan Leike离开后更是连发十几条推文,对着OpenAI疯狂炮轰,控诉其没有兑现20%算力的承诺,并且对安全的重视程度远不及产品。

后来,Jan Leike选择加入了OpenAI的竞争对手Anthropic,继续进行超级对齐的研究。

在GPT-4项目上与Jan Leike共同领导对齐工作的Ryan Lowe,也已于3月底离开OpenAI。

还有超级对齐成员之一William Saunders,以及参与过GPT-4对抗性测试的Daniel Kokotajlo,也都从OpenAI离职。

更不必说隔壁Anthropic的创始人Dario Amodei和Daniela Amodei兄妹,也是OpenAI出身。

哥哥Dario离开前是OpenAI的研究副总裁,妹妹Daniela则是安全与策略部门副总监,走的时候还把GPT-3首席工程师Tom Brown等十几名员工一起带到了Anthropic。

导致他们选择出走创业的原因之一,就是OpenAI在安全问题尚未解决的情况下就直接发布了GPT-3,引发了他们的不满。

对安全的重视,加上创始人的背景,也让Anthropic成为了包括Jan Leike和这次离职的舒曼在内的OpenAI员工的主要去处之一。

OpenAI这边最近在安全工作上也有所动作——

7月末,OpenAI把安全部门高级主管Aleksander Madry调离了安全岗位,并给他重新分配了“AI推理”的工作。

但OpenAI告诉媒体,Madry到了新职位上之后,仍将致力于人工智能安全工作。

CEO奥特曼也是强调,OpenAI一直都很重视安全工作,并坚持了“给整个安全团队至少20%算力”的承诺。

但眼尖的网友很快发现,奥特曼玩了一波偷换概念,原来承诺的的是给超级对齐团队20%算力,被偷偷改成了全部安全团队

emm……互联网还是有记忆的。

One More Thing

在内部大量人才流失的同时,OpenAI的“老仇人”马斯克这边也有新的动作——

马斯克刚刚再一次把OpenAI告上了法庭,一同被告的还有奥特曼以及总裁Brockman。

这次起诉的理由是,马斯克认为自己参与创立OpenAI之时受到了奥特曼和Brockman的“欺骗和敲诈勒索”。

马斯克称,自己当初参与并投资OpenAI就是因为相信了奥特曼的话,当时奥特曼承诺OpenAI是一个安全、开放的非营利组织。

但后来OpenAI成为了营利性组织,还把一部分股份卖给了微软,这让马斯克感到十分不满,认为自己遭到了背叛,痛斥奥特曼“背信弃义”。

马斯克的律师Marc Toberoff表示,此次诉讼和之前撤回的那起有很大差别,要求被告“对故意向马斯克和公众做出虚假陈述的行为负责”,并寻求“大规模追回他们的不义之财”。

同时,起诉书还要求撤销OpenAI对微软授予的许可。

参考链接 1
参考链接 2
参考链接 3
参考链接 4
参考链接 5

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

豆包,大模型的磁力三重奏

如今,很多媒体与AI从业者都在追问一个问题:大模型,究竟堵在哪了?
经历了2023年的百模大战,AI产业迎来了从“是否有大模型”到“如何用大模型”的转换期。各个大模型平台纷纷走向了公开应用阶段,面向C端与B端提供能力繁多的大模型应用。


然而问题也随之而来。在大模型平台百花齐放的同时,我们也能发现平台之间的同质化急速加剧。C端用户很难分清不同大模型应用之间的差异化,企业用户面临着复杂的大模型应用成本,进而导致真正能够实现规模化调用的大模型寥寥无几。
在技术相对成熟之后,大模型与用户之间,似乎还是缺少了一点磁力。
我们经常讨论,没有任何底层技术可以不经过产品化探索,不进行商业逻辑设计就获得用户认可。技术、产品、商业,三者之间一定是互为犄角的态势,缺一不可。而在百模大战的进程中,行业往往会更重视模型本身的技术发展,忽视产品化与商业设计的重要性。这种缺失与真空,也就是大模型缺乏用户磁力的来源。

被广泛讨论的大模型的商业难,落地难,究竟来源于何处?
从软件技术走向应用的时间逻辑上看。基础软件技术迭代之后,往往需要较长的产品化周期,进而其中优秀的产品最终走向商业化。但大模型风潮与以往不同,其技术特征中本身就有极强的应用色彩。这导致AIGC类平台与应用的爆发,基本没有经历任何的产品化周期,而是直接从算法革新走向了商用落地。
这种特殊的发展方式,让大模型短期内走到了“两多一快”的境地:市场上的大模型应用多,单一大模型应用提供的AIGC能力多,从技术走向商用的时间快。于是,用户还没来得及了解,眼前就被摆满了花样繁多的大模型应用;企业用户还没有准备好大模型的应用场景与商业逻辑,就被智能化热潮裹挟其中。

2023年8月,字节旗下的首款类GPT应用豆包正式发布,很快攻陷各大应用市场。目前豆包底层的大模型已经应用于字节内部各大业务,覆盖了协同办公、数据分析、文案创作、辅助编程、内容审核等场景。当这个大模型最终以“豆包大模型”的名称正式发布走向市场,所需面对的最大挑战就是如何建立AI与用户之间的磁力,打通大模型的商业化落地空间。

豆包率先进行了大模型低成本化的商业思路。豆包大模型目前通过字节跳动旗下云服务平台火山引擎面向企业开放,5月15日,豆包大模型正式发布之时,火山引擎宣布豆包主力模型在企业市场的定价已经达到了0.0008元/千Tokens,0.8厘就能处理1500多个汉字。这个价格已经降低到了此前行业通行方案的1%还低。
豆包率先推动大模型进入“厘时代”,为企业降低智能化成本带来了巨大的影响。整个行业开始跟随和效仿,企业以更低成本、更便捷方式接入大模型成为新的主流。
尤其值得注意的是,与行业内流行轻量化版本降价,吸引企业用户试用,然后主力模型保持较高价格的思路不同。豆包将主力模型与轻量化模型都进行了大幅价格优化,主力模型给出了低于行业价格99%的定价。为企业用户与大模型之间的深度结合,扫清了最后的障碍。

类似豆包与汽车的结合,火山引擎还与OPPO、vivo、荣耀、小米、三星、华硕成立了智能终端大模型联盟。OPPO小布助手、荣耀智慧办公智能助手、小米“小爱同学”,以及华硕笔记本电脑的豆叮AI助手等应用,均已接入火山引擎的大模型服务。
可以看到,拟人化、低成本、重生态,已经成为豆包大模型的三个支点。它们在技术之上,为豆包大模型提供了产品、商业与产业合作层面的竞争力,消解了大模型同质化带来的落地难题。
用对用户的尊重,对问题的正视,来重构大模型的磁力。这或许才是日均Tokens使用量破5000亿背后,豆包身上值得被提取出来的“营养物质”。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

融资6.4亿美元,AI芯片公司迅速崛起,Yann LeCun出任技术顾问

文章来源:半导体行业观察
来源:内容来自半导体行业观察(ID:icbank)综合,谢谢。

图片来源:由GPTNB生成

Groq是一家开发芯片以比传统处理器更快地运行生成式 AI 模型的初创公司,该公司周一表示,已在由贝莱德 (Blackrock) 领投的新一轮融资中筹集了 6.4 亿美元。


Neuberger Berman、Type One Ventures、思科、KDDI 和三星 Catalyst Fund 也参与其中。

这笔资金使 Groq 的总融资额超过 10 亿美元,公司估值达到 28 亿美元,这对 Groq 来说是一次重大胜利,据报道,该公司最初希望以略低的估值(25 亿美元)筹集3 亿美元。这笔资金是 Groq 在 2021 年 4 月的先前估值(约 10 亿美元)的两倍多,当时该公司在 Tiger Global Management 和 D1 Capital Partners 领投的一轮融资中筹集了 3 亿美元。

Meta 首席人工智能科学家 Yann LeCun 将担任 Groq 的技术顾问,英特尔代工业务前负责人、惠普前首席信息官 Stuart Pann 将加入这家初创公司担任首席运营官,Groq 今天还宣布了这一消息。考虑到 Meta 在自己的人工智能芯片上的投资,LeCun 的任命有点出人意料——但毫无疑问,这让 Groq 在竞争激烈的领域获得了一个强大的盟友。

Groq 于2016 年崭露头角,目前正在开发所谓的 LPU(语言处理单元)推理引擎。该公司声称,其 LPU 可以运行现有的生成式 AI 模型,其架构与 OpenAI 的ChatGPT和GPT-4o类似,速度是后者的 10 倍,能耗仅为后者的十分之一。

Groq 首席执行官乔纳森·罗斯 (Jonathan Ross) 因帮助发明张量处理单元 (TPU)而声名鹊起 ,这是谷歌用于训练和运行模型的定制 AI 加速器芯片。近十年前,罗斯与企业家、谷歌母公司 Alphabet X 登月实验室前工程师道格拉斯·怀特曼 (Douglas Wightman) 合作,共同创立了 Groq。

Groq 提供了一个由 LPU 驱动的开发者平台,名为 GroqCloud,该平台提供“开放”模型,如 Meta 的 Llama 3.1 系列、谷歌的 Gemma、OpenAI 的 Whisper 和 Mistral 的 Mixtral,以及允许客户在云实例中使用其芯片的 API。(Groq 还为去年年底推出的人工智能聊天机器人 GroqChat 提供了一个游乐场。)截至 7 月,GroqCloud 拥有超过 356,000 名开发人员;Groq 表示,本轮融资的部分收益将用于扩大容量并添加新模型和功能。

Groq 首席运营官 Stuart Pann 告诉 TechCrunch:“这些开发人员中有很多都在大型企业工作。据我们估计,财富 100 强企业中有超过 75% 的人都在使用 Groq。”

随着生成式人工智能的持续热潮,Groq 面临着来自其他人工智能芯片新贵以及人工智能硬件领域强大巨头 Nvidia 日益激烈的竞争。

据估计,Nvidia 控制着用于训练和部署生成式 AI 模型的 AI 芯片市场的 70% 至 95%,该公司正在采取积极措施来保持其主导地位。

Nvidia 承诺每年发布一款新的 AI 芯片架构,而不是像以往那样每隔一年发布一款。据报道,该公司正在建立一个新的业务部门,专注于为云计算公司和其他公司设计定制芯片,包括 AI 硬件。

除了 Nvidia,Groq 还与亚马逊、谷歌和微软竞争,这些公司都提供(或即将提供)用于云端 AI 工作负载的定制芯片。亚马逊拥有 Trainium、Inferentia 和 Graviton 处理器,可通过 AWS 获得;谷歌云客户可以使用上述 TPU,并适时使用谷歌的Axion芯片;微软最近为其 Cobalt 100 CPU 推出了 Azure 实例预览版,Maia 100 AI Accelerator 实例将在未来几个月内推出。

一些分析师认为,在未来五年内,人工智能芯片市场的年销售额可能达到 4000 亿美元,Groq 可能会将 Arm、英特尔、AMD 以及越来越多的初创公司视为竞争对手。Arm和AMD 的人工智能芯片业务尤其蓬勃发展,这要归功于云供应商为满足生成式人工智能的容量需求而不断增加的资本支出。

D-Matrix 去年年底筹集了 1.1 亿美元,用于将其所谓的首创推理计算平台商业化。今年 6 月,Etched以 1.2 亿美元的价格脱颖而出,购买了一款定制处理器,用于加速当今占主导地位的生成式 AI 模型架构,即 transformer。据报道,软银的孙正义正寻求筹集 1000 亿美元成立一家芯片企业,与 Nvidia 竞争。据说 OpenAI 正在 与 投资公司洽谈启动一项 AI 芯片制造计划。

为了开拓自己的市场,Groq 正在大力投资企业和政府推广。

今年 3 月,Groq收购了Definitive Intelligence,后者是一家总部位于帕洛阿尔托的公司,提供一系列面向企业的 AI 解决方案,并组建了一个名为 Groq Systems 的新业务部门。Groq Systems 的业务范围包括为希望将 Groq 芯片添加到现有数据中心或使用 Groq 处理器构建新数据中心的组织(包括美国政府机构和主权国家)提供服务。

最近,Groq 与政府 IT 承包商 Carahsoft 合作,通过 Carahsoft 的经销商合作伙伴向公共部门客户销售其解决方案,并且该初创公司已签署意向书,准备在欧洲公司 Earth Wind & Power 的挪威数据中心安装数万个 LPU。

Groq 还与沙特阿拉伯咨询公司 Aramco Digital 合作,在中东未来的数据中心安装 LPU。

在建立客户关系的同时,总部位于加州山景城的 Groq 也在向下一代芯片迈进。去年 8 月,该公司宣布将与三星的代工业务签约生产 4nm LPU,预计这些 LPU 的性能和效率将超过 Groq 的第一代 13nm 芯片。

Groq 表示,计划到 2025 年第一季度末部署超过 108,000 个 LPU。

参考链接:
https://techcrunch.com/2024/08/05/ai-chip-startup-groq-lands-640m-to-challenge-nvidia/

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

BytomDAO在东京举办AI与Web3.0创新与机遇研讨会

7月27日,BytomDAO在东京举办了“AI与Web3.0的创新与机遇”研讨会,吸引了众多业内人士的参与,共同探讨AI与Web3.0领域的发展现状和未来机遇。BytomDAO的CEO Charles在开场演讲中提出了AI和Web3行业的新桥梁构想,涵盖了DAO 2.0、资产 2.0(Asset 2.0)和去中心化应用 2.0(DAPP 2.0)。


他介绍了如何通过引入AI提高DAO的决策合理性,以及如何通过DAPP 2.0的Agent生成机制满足个体需求,消除试错成本。资产 2.0则聚焦于数字资产的智能管理。Charles还谈到BytomDAO利用在日华人资源帮助项目方进入日本市场,实现资源互通。在圆桌讨论环节中,Starknet的核心开发者Cryptonerdcn、Skyland Ventures的研究员Aya等嘉宾探讨了Layer 2解决方案的现状及未来趋势。此外,ETH Panda的Bruce Xu、Talentverse的James Wu、Jsquare的Joanna、浙大区块链协会的Artist、IOSG的Jiawei和Onekey的Hanning等嘉宾也参与了圆桌二的讨论,共同展望全球AI与Web3.0的发展格局。活动的最后,参会者们积极交流,分享见解与经验。这次活动不仅加深了业内人士对AI与Web3.0的理解,也为未来的合作带来了更多可能性。

Image

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

豆包,大模型的磁力三重奏

如今,很多媒体与AI从业者都在追问一个问题:大模型,究竟堵在哪了?
经历了2023年的百模大战,AI产业迎来了从“是否有大模型”到“如何用大模型”的转换期。各个大模型平台纷纷走向了公开应用阶段,面向C端与B端提供能力繁多的大模型应用。


然而问题也随之而来。在大模型平台百花齐放的同时,我们也能发现平台之间的同质化急速加剧。C端用户很难分清不同大模型应用之间的差异化,企业用户面临着复杂的大模型应用成本,进而导致真正能够实现规模化调用的大模型寥寥无几。
在技术相对成熟之后,大模型与用户之间,似乎还是缺少了一点磁力。
我们经常讨论,没有任何底层技术可以不经过产品化探索,不进行商业逻辑设计就获得用户认可。技术、产品、商业,三者之间一定是互为犄角的态势,缺一不可。而在百模大战的进程中,行业往往会更重视模型本身的技术发展,忽视产品化与商业设计的重要性。这种缺失与真空,也就是大模型缺乏用户磁力的来源。
好在随着时间推移,类似难题正在得到正视和解决。不久之前,在火山引擎2024“AI创新巡展”成都站期间,火山引擎宣布豆包大模型日均Tokens使用量已突破5000亿,平均每家企业用户日均Tokens使用量较5月15日模型发布时期增长了22倍。
豆包大模型的高增长,或许正是给大模型的用户磁力难题,写下了一张答卷。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI高层巨变:联创辞职总裁休假,网友:领导层成了空壳

刚刚,OpenAI高层大地震:

联创John Schulman辞职跑路,联创&总裁Greg Brockman长期休假,产品副总裁Peter Deng也被曝离职。

John Schulman(约翰·舒曼),长年领导OpenAI强化学习团队,被誉为“ChatGPT架构师”。


也是他在Ilya Sustkever离开之后,临时接管了超级对齐团队。
现在他宣布“做了一个艰难的决定”,加入隔壁Anthropic,也就是Claude团队。

与此同时,OpenAI总裁Greg Brockman也宣布将休长假,直到年底。
OpenAI计划10月1日起在全球各地举办开发者日等活动,他也将缺席。

Brockman自述是在连续工作了9年之后第一次放松,但对年底之后的计划说的比较模糊,也有网友认为是出于保密协议。

在舒曼离职官宣20分钟后,奥特曼在回复中感谢了舒曼的贡献,以及回忆了两人2015年初次见面时的情景。
但截至目前,奥特曼没有对Brockman休假做任何回应。

奥特曼平常有打字句首字母和“i”不用大写字母的习惯,但每当重要同事选择离开时,他都会表现得更正式一些。

著名OpenAI内幕爆料账号苹果哥表示:现在领导层已经成了一个空壳,你们还是赶紧发布产品吧。

ChatGPT架构师离职

舒曼本科在加州理工学习物理,在UC伯克利短暂学习过神经科学,后来师从强化学习大牛Pieter Abbeel,完成计算机科学博士学位。
在他成为OpenAI联创时,博士还未毕业。
他的代表作、最高引论文PPO,也就是ChatGPT核心技术RLHF中选用的强化学习算法。
后来在从GPT-3.5、GPT-4到GPT-4o的一系列工作中都领导了对齐/后训练团队。
这次他自述的离职原因也是与此相关:
希望加深对AI对齐的关注,并开启我职业生涯的新篇章,让我可以重返实际的技术工作。
不过他也给足了OpenAI面子,补充到“不是因为OpenAI缺乏对安全对齐工作的支持而离开”,只是出于个人希望集中精力。
在ICML2023的演讲中,舒曼自述过个人接下来关注的研究方向之一:如何避免过度优化

  • ChatGPT 中的一些令人讨厌的行为(例如过度道歉)是过度优化的结果。
  • RLHF很容易对狭窄的指标进行过度优化,例如模型可能学会了能获得奖励的捷径,但没有真正理解。
  • 适当的对话任务训练需要推理、换位思考和知识,研究人员必须精心设计训练过程、奖励功能和数据集
  • 奖励信号必须评估整个对话的质量,而不仅仅是个别反馈。

在今年五月份与播客主持人Dwarkesh Patel访谈时,舒曼也表示,算力应该更多从预训练向后训练转移

OpenAI人才持续流失

由于在AI安全方面理念和奥特曼不合,OpenAI的人才发生了大量流失。
今年5月,超级对齐团队的两名负责人——首席科学家Ilya Sutskever和RLHF发明者之一Jan Leike,在同一天内相继离开OpenAI。
彼时离超级对齐团队的成立,过去还不到一年。
Jan Leike离开后更是连发十几条推文,对着OpenAI疯狂炮轰,控诉其没有兑现20%算力的承诺,并且对安全的重视程度远不及产品。
后来,Jan Leike选择加入了OpenAI的竞争对手Anthropic,继续进行超级对齐的研究。
在GPT-4项目上与Jan Leike共同领导对齐工作的Ryan Lowe,也已于3月底离开OpenAI。
还有超级对齐成员之一William Saunders,以及参与过GPT-4对抗性测试的Daniel Kokotajlo,也都从OpenAI离职。
更不必说隔壁Anthropic的创始人Dario Amodei和Daniela Amodei兄妹,也是OpenAI出身。
哥哥Dario离开前是OpenAI的研究副总裁,妹妹Daniela则是安全与策略部门副总监,走的时候还把GPT-3首席工程师Tom Brown等十几名员工一起带到了Anthropic。
导致他们选择出走创业的原因之一,就是OpenAI在安全问题尚未解决的情况下就直接发布了GPT-3,引发了他们的不满。
对安全的重视,加上创始人的背景,也让Anthropic成为了包括Jan Leike和这次离职的舒曼在内的OpenAI员工的主要去处之一。

OpenAI这边最近在安全工作上也有所动作——
7月末,OpenAI把安全部门高级主管Aleksander Madry调离了安全岗位,并给他重新分配了“AI推理”的工作。
但OpenAI告诉媒体,Madry到了新职位上之后,仍将致力于人工智能安全工作。
CEO奥特曼也是强调,OpenAI一直都很重视安全工作,并坚持了“给整个安全团队至少20%算力”的承诺。

但眼尖的网友很快发现,奥特曼玩了一波偷换概念,原来承诺的的是给超级对齐团队20%算力,被偷偷改成了全部安全团队
所以,在奥特曼的推文之后,网友也是毫不留情地把这一背景信息添加了上去,并附上了当时OpenAI的官方链接。

emm……互联网还是有记忆的。

One More Thing

在内部大量人才流失的同时,OpenAI的“老仇人”马斯克这边也有新的动作——
马斯克刚刚再一次把OpenAI告上了法庭,一同被告的还有奥特曼以及总裁Brockman。
这次起诉的理由是,马斯克认为自己参与创立OpenAI之时受到了奥特曼和Brockman的“欺骗和敲诈勒索”。
马斯克称,自己当初参与并投资OpenAI就是因为相信了奥特曼的话,当时奥特曼承诺OpenAI是一个安全、开放的非营利组织。
但后来OpenAI成为了营利性组织,还把一部分股份卖给了微软,这让马斯克感到十分不满,认为自己遭到了背叛,痛斥奥特曼“背信弃义”。
马斯克的律师Marc Toberoff表示,此次诉讼和之前撤回的那起有很大差别,要求被告“对故意向马斯克和公众做出虚假陈述的行为负责”,并寻求“大规模追回他们的不义之财”。
同时,起诉书还要求撤销OpenAI对微软授予的许可。
参考链接:
1
2
3
4
5



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

BytomDAO在东京举办AI与Web3.0创新与机遇研讨会

7月27日,BytomDAO在东京举办了“AI与Web3.0的创新与机遇”研讨会,吸引了众多业内人士的参与,共同探讨AI与Web3.0领域的发展现状和未来机遇。BytomDAO的CEO Charles在开场演讲中提出了AI和Web3行业的新桥梁构想,涵盖了DAO 2.0、资产 2.0(Asset 2.0)和去中心化应用 2.0(DAPP 2.0)。


他介绍了如何通过引入AI提高DAO的决策合理性,以及如何通过DAPP 2.0的Agent生成机制满足个体需求,消除试错成本。资产 2.0则聚焦于数字资产的智能管理。Charles还谈到BytomDAO利用在日华人资源帮助项目方进入日本市场,实现资源互通。在圆桌讨论环节中,Starknet的核心开发者Cryptonerdcn、Skyland Ventures的研究员Aya等嘉宾探讨了Layer 2解决方案的现状及未来趋势。此外,ETH Panda的Bruce Xu、Talentverse的James Wu、Jsquare的Joanna、浙大区块链协会的Artist、IOSG的Jiawei和Onekey的Hanning等嘉宾也参与了圆桌二的讨论,共同展望全球AI与Web3.0的发展格局。活动的最后,参会者们积极交流,分享见解与经验。这次活动不仅加深了业内人士对AI与Web3.0的理解,也为未来的合作带来了更多可能性。

image

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

一枚与时间赛跑的中国芯片

近期,外媒披露一则消息,称中方将发布通告,在多个领域禁用美国芯片,支持采购和使用国产芯片。这一信息与此前国内多项政策具有某种内在一致性,比如在财政部公布的计算机采购的新标准,就在多项关键部件的采购规定中,明确要求审查部件是否“在政府指定的中国信息安全测评中心及国家保密科技测评中心的网站上,通过了安全性和可靠性的测试”。


这一消息掀起了轩然大波。它意味着国产CPU的能力得到了广泛承认,也意味着其肩负的责任更加重大。

面对时代洪流,面对商业压力,面对科技铁幕,国产CPU一次次经历困难,又一次次集聚力量。最终让自身成长赶上了大势的选择,在2024年扛起科技自立自强的旗帜。

过去数十年,社会各界对国产CPU的认识经历了几次变迁。曾经很多人认为“发展国产处理器真的有必要吗?”后来,我们惊叹“留给国产芯片突破的时间不多了”。

从是否有必要,到是否来得及——中国CPU,是一枚始终在与时间赛跑的芯片。

1957 年,北京电子管厂成功制造了新中国最早的半导体器件,中国半导体产业…



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB