拒绝谷歌 230 亿美元收购!目标 10 亿美元 ARR 冲击 IPO

7 月 23 日,在给员工的备忘录中,Wiz CEO Assaf Rappaport 宣布拒绝 Google 高达 230 亿美元的收购提议;他还表示, Wiz 下一个目标是实现 10 亿美元 ARR 并进行 IPO。

Wiz 成立于 2020 年,在 5 月的一轮融资中估值达 120 亿美元,吸引了 a16z、Lightspeed  以及 Thrive Capital 等投资者,Google 的收购价格相较于两个月前的估值翻了一倍。


目前,财富 100 强公司中有 40% 是 Wiz 的客户,其 ARR 高达 3.5 亿美元,投资者和分析师将 Wiz 的快速崛起归功于其早期识别出云安全作为一个未被充分开发的领域,并拥有丰富且不断增长的客户群。

但对于像 Wiz 这样的大型收购目标来说,Google 这样的科技巨头进行收购并不常见,而且可能会受到反垄断监管机构更多的审查。

Google 已经面临多个反垄断挑战,包括美国司法部指控其滥用搜索领域主导地位的诉讼,以及另一宗涉及其数字广告工具的诉讼。

两年前,Google 曾以 54 亿美元收购网络安全公司 Mandiant,这是其第二大收购,Mandiant 交易提升了谷歌在网络安全领域的可信度。在今年拉斯维加斯的一次会议上,谷歌展示了其 Gemini AI 模型如何帮助客户分析威胁并解决潜在漏洞。

如果能收购 Wiz,Google 的安全产品将更加完善;此外,总部位于纽约的 Wiz 与 AWS 和微软 Azure 等云存储提供商相连,扫描存储在那里的数据以发现安全风险。

据悉,Google 一直在努力增强其网络安全能力,作为其在云计算市场中获取份额的关键策略。虽然在这个市场中 Google 仍然落后于 AWS 和微软 Azure,但 Google 已经取得了进展,并且去年该部门首次报告盈利。

谷歌云安全工程副总裁 Eric Doerr 表示,AI是一种帮助公司在网络安全方面更加主动的工具,原本需要非常手动的研究任务,现在可以通过 AI 得到帮助。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

老外都在用!盘点全球最高效的十大办公AI工具

尽管人们担心人工智能会取代人类,但大部分“打工人”还是在工作中积极拥抱AI来提高工作效率。根据FlexOS收集的Similarweb网站流量数据,5月份,OpenAI的ChatGPT使用量增长了74%,网站访问量从4月份的18亿次增至31亿次。


ChatGPT是5月份全球工作中使用最多的生成式人工智能工具,紧随其后的竞争对手包括谷歌Gemini和Anthropic的Claude。根据FlexOS,以下是全球工作中最常使用的十大AI工具,按照使用频率从低到高排序。

10.ElevenLabs

ElevenLabs开发的AI模型可以生成音频语音、声音和音效,适用于包括有声书和视频游戏角色在内的内容,并且支持29种语言。据该公司称,其人工智能音频模型还被用于帮助失声者和特殊需求者。根据Similarweb的数据,从4月到6月,ElevenLabs在全球的总访问量为6387万次.
ElevenLabs

09.Poe

Poe由问答网站Quora创建,允许用户在一个平台上与ChatGPT和Claude等人工智能聊天机器人互动。根据Similarweb的数据,从3月到5月,该网站在全球的总访问量达到了1.48亿次.
Poe

08.Claude

Anthropic表示,Claude由人工智能初创公司Anthropic开发,是一款“为工作而生”的人工智能助手。根据Similarweb的数据,从3月到5月,该助手在全球的总访问量达到了1.86亿次.
Claude

07.GitHubCopilot

GitHubCopilot是一款面向软件开发人员的编程和编码辅助工具。根据FlexOS的数据,它是5月份增长速度第十快的人工智能工作工具.
GitHubCopilot

06.Suno

Suno是一款人工智能音频生成器,允许用户从文本中生成音乐。它和另一家人工智能音乐初创公司Udio正被环球音乐集团(UMG)、索尼音乐娱乐公司(SonyMusicEntertainment)和华纳唱片公司(WarnerRecords)等大型唱片公司起诉,指控它们未经同意使用艺术家的作品.
Suno

05.PerplexityAI

Perplexity是一个人工智能聊天机器人搜索引擎,旨在与谷歌一较高下。根据Similarweb的数据,这家自称为“传统搜索引擎替代品”的初创公司在3月至5月期间的全球总访问量达到了2.174亿次.
PerplexityAI

04.QuillBot

QuillBot是一款人工智能驱动的写作和编辑工具,有助于专业写作。根据Similarweb的数据,该网站6月份的总访问量为5270万次.
QuillBot

03.GoogleGemini

根据FlexOS的数据,谷歌人工智能聊天机器人Gemini是ChatGPT在大型语言模型(LLM)类别中最接近的竞争对手。它占据了5月份LLM流量的11%,也就是近4.19亿次访问.
GoogleGemini

02.CanvaAISuite

根据FlexOS的数据,CanvaAI套件被列入图像生成器和编辑器类别,占5月份100大人工智能工作工具流量的6%。该套件包括图片、视频和演示文稿生成器.
CanvaAISuite

01.ChatGPT

根据Similarweb的数据,OpenAI的ChatGPT是5月份全球最受欢迎的人工智能工作工具,网站访问量达31亿次。FlexOS指出,OpenAI在5月份将ChatGPT从原来的子域转移到了一个新域,但在3月份就已经开始重定向流量。据FlexOS称,虽然美国是ChatGPT的最大市场,但印度、印度尼西亚和巴西也是ChatGPT使用率最高的国家。该聊天机器人还占据了工作AI工具100强67%的流量.
ChatGPT

原文来源于:
https://qz.com/ai-artificial-intelligence-work-chatgpt-google-gemini-1851581083
中文内容由元宇宙之心(MetaverseHub)团队编译,如需转载请联系我们。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

130亿美元!OpenAI 或再入局!

文章来源:半导体行业观察
原标题:《OpenAI的自研芯片,再传新进展》

图片来源:由GPTNB生成

来源:内容由半导体行业观察(ID:icbank)综合自theinfornation等。

周四,据《Information》报道称,博通公司已讨论为 OpenAI 制造一款人工智能芯片,这可能使其进一步进入英伟达公司的领域。


此后,博通公司股价上涨近 3%。据新闻媒体报道,ChatGPT 聊天机器人的制造商 OpenAI 向博通提出了这个想法,这是该初创公司与芯片设计师进行更广泛讨论的一部分。OpenAI 的努力还包括聘请曾在谷歌 Tensor 处理器上工作过的前谷歌员工。报告发布后,博通在纽约交易中上涨 2.9%,至 160.53 美元。受该公司蓬勃发展的人工智能设备销售提振,该公司股价今年已上涨 44%。博通和 OpenAI 的代表没有立即回应置评请求。尽管英伟达是人工智能支出的最大受益者,但博通也在市场上迅速取得进展。它向数据中心运营商出售一系列组件,这些运营商正在迅速扩大其设施以适应人工智能服务。博通首席执行官 Hock Tan 表示,到 2024 财年,博通的人工智能销售额将超过 110 亿美元。与此同时,彭博社今年早些时候报道称,OpenAI 首席执行官萨姆·奥特曼一直在努力从全球投资者那里为芯片企业筹集数十亿美元的资金,计划利用这些资金建立一个生产半导体的工厂网络。金融时报表示,OpenAI 一直在与包括博通在内的半导体设计公司就开发新芯片进行洽谈,以期减轻对英伟达的依赖并加强其供应链。  此次谈判是该公司联合创始人兼首席执行官萨姆·奥特曼 (Sam Altman) 牵头的努力的一部分,旨在加强运行日益强大的人工智能模型所需的零部件和基础设施的供应。“人工智能的限制因素是容量:芯片容量、能源容量、计算容量。[OpenAI] 不会袖手旁观,让别人在前线开发这些,”一位了解OpenAI计划的人士表示。 Altman已与芯片制造商、微软等合作伙伴、政府机构和金融支持者进行合作,努力提高产能,并保持公司在该技术领域大规模繁荣的中心地位,这一繁荣是由这家旧金山公司于 2022 年底发布的 ChatGPT 聊天机器人引发的。 据一位了解OpenAI 与博通之间谈判情况的人士透露,谈判尚处于早期阶段,OpenAI 已经“与整个行业进行了接触”。 OpenAI 在一份回应中表示:“OpenAI 正在与行业和政府利益相关者进行持续对话,以增加对基础设施的访问,确保人工智能的好处能够广泛普及。”“这包括与顶级芯片设计师、制造商和数据中心的实体开发商合作。”博通没有回应置评请求。 强大的半导体是顶级 AI 公司最热门的商品之一。OpenAI、微软和主要竞争对手 Anthropic 和谷歌尤其依赖 Nvidia 的尖端图形处理单元来训练和运行他们的模型。 OpenAI 短期内不太可能与 Nvidia 的技术实力相媲美,但该公司一直在探索各种方式,以便在追求通用人工智能(可以在一系列认知任务中超越人类的人工智能)的过程中变得更加自力更生。 据知情人士透露,即使得到微软 130 亿美元的支持,这家初创公司仍需要外部资金支持或商业合作才能实现其计划。“可以公平地说,做这些事需要大量资金,”该人士表示。

参考链接
https://finance.yahoo.com/news/broadcom-gains-report-discussing-chip-201050180.html



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

强过「黄金标准」,快3,500倍,成本低10万倍,物理建模融合AI,谷歌天气模型登Nature

编辑 | KX

地球正以前所未有的方式变暖,但气温升高对我们的未来意味着什么尚不完全清楚。全球哪些地区将面临长期干旱?大型热带风暴将使哪些沿海地区的洪灾更加频繁?为了回答这些问题,科学家需要能够准确预测地球气候。


现在,Google Research 研究团队提出一种将传统的基于物理建模与 ML 相结合的新方法——NeuralGCM,可以准确高效地模拟地球大气层。比现有模型更快、计算成本更低、更准确。

NeuralGCM 可以生成 2-15 天的天气预报,比目前基于物理的「黄金标准」模型更准确。在 1 至 10 天预报方面与机器学习模型相媲美,在 1 至 15 天预报方面与欧洲中期天气预报中心的集合预报相媲美。

相关研究以「Neural general circulation models for weather and climate」为题,于 7 月 22 日发布在《Nature》上。

论文链接:https://www.nature.com/articles/s41586-024-07744-y

NeuralGCM 架构

NeuralGCM 将基于物理的大气循环模型与用于小规模过程的神经网络相结合。

NeuralGCM 的两个关键组成部分是:一个可微分的动力学 core,用于求解离散化的动力学控制方程;以及一个使用神经网络参数化物理过程的学习物理模块。

动力学 core 模拟在重力和科里奥利力(Coriolis Force)作用下大尺度流体运动和热力学过程。学习物理模块利用神经网络预测未解决过程对模拟场的影响,如云的形成、辐射传输、降水和亚网格尺度动力学。

NeuralGCM 转变气候建模

与传统模型一样,NeuralGCM 将地球大气层划分为立方体,并对空气和水分运动等大规模过程进行物理计算。但它不是依靠科学家制定的参数化来模拟云形成等小规模方面,而是使用神经网络从现有天气数据中学习这些…

视频链接:https://mp.weixin.qq.com/s/niZ_CpF1cI-2_dCzqdUanQ

NeuralGCM 预测了 2020 年全球热带气旋的路径。预测的风暴与 ECMWF 再分析 v5(ERA5)数据集中显示的当年实际气旋的数量和强度相匹配。(来源:Google Research)

开源、快速、高效的模型

NeuralGCM 比传统的 GCM 节省了几个数量级的计算量,计算成本也更低。

NeuralGCM 的 1.4° 模型比 X-SHiELD 快 3,500 倍以上,这意味着如果研究人员使用 X-SHiELD 模拟一年的大气,需要 20 天,而使用 NeuralGCM 只需 8 分钟。

虽然科学家只需要一台带有单个 TPU 的计算机即可运行 NeuralGCM,但他们需要请求访问具有 13,000 个 CPU 的超级计算机才能运行 X-SHiELD。

总体而言,使用 NeuralGCM 进行气候模拟的计算成本比使用 X-SHiELD 低 100,000 倍,速度的提高相当于高性能计算 25 年的进步。

视频链接:https://mp.weixin.qq.com/s/niZ_CpF1cI-2_dCzqdUanQ

NeuralGCM 可以比最先进的物理模型更快地模拟大气,同时以相当的精度生成预测。(来源:Google Research)

研究人员已将 NeuralGCM 的源代码和模型权重在 GitHub 上公开,供非商业使用。

开源地址:https://github.com/google-research/neuralgcm

此外,由于 NeuralGCM 可以在笔记本电脑上运行,而不需要超级计算机,研究人员希望更多的气候研究人员可以在他们的工作中使用这种最先进的模型。

未来方向

NeuralGCM 目前仅模拟地球大气层。研究人员希望最终将地球气候系统的其他方面(例如海洋和碳循环)纳入模型。这样,NeuralGCM 将在更长的时间尺度上进行预测,而不仅仅是预测几天和几周的天气,而是在气候时间尺度上进行预测。

NeuralGCM 提出了一种构建气候模型的新方法,这种方法可能比现有模型更快、计算成本更低、更准确。

基于物理定律和经验关系的模型在科学中无处不在。研究人员相信 NeuralGCM 的可微分混合建模方法有潜力将模拟技术转化为广泛的应用,例如材料发现、蛋白质折叠和多物理工程设计。

参考内容:

https://research.google/blog/fast-accurate-climate-modeling-with-neuralgcm/

https://x.com/GoogleAI/status/1815419503230287969

https://x.com/shoyer/status/1815453653710631271



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了

快准备好你的 GPU!

Llama 3.1 终于现身了,不过出处却不是 Meta 官方。

今日,Reddit 上新版 Llama 大模型泄露的消息遭到了疯传,除了基础模型,还包括 8B、70B 和最大参数的 405B 的基准测试结果。


图片

下图为 Llama 3.1 各版本与 OpenAI GPT-4o、Llama 3 8B/70B 的比较结果。可以看到,即使是 70B 的版本,也在多项基准上超过了 GPT-4o。

图片
图源:https://x.com/mattshumer_/status/1815444612414087294

显然,3.1 版本的 8B 和 70B 模型是由 405B 蒸馏得来的,因此相比上一代有着明显的性能提升。

有网友表示,这是首次开源模型超越了 GPT4o 和 Claude Sonnet 3.5 等闭源模型,在多个 benchmark 上达到 SOTA。

图片

与此同时,Llama 3.1 的模型卡流出,细节也泄露了(从模型卡中标注的日期看出基于 7 月 23 日发布)。

有人总结了以下几个亮点:

  • 模型使用了公开来源的 15T+ tokens 进行训练,预训练数据截止日期为 2023 年 12 月;
  • 微调数据包括公开可用的指令微调数据集(与 Llama 3 不同)和 1500 万个合成样本;
  • 模型支持多语言,包括英语、法语、德语、印地语、意大利语、葡萄牙语、西班牙语和泰语。

图片
图源:https://x.com/iScienceLuvr/status/1815519917715730702

虽然泄露的 Github 链接目前 404 了,但有网友给出了下载链接(不过为了安全,建议还是等今晚的官方渠道公布):

图片

不过这毕竟是个千亿级大模型,下载之前请准备好足够的硬盘空间:

图片

以下是 Llama 3.1 模型卡中的重要内容:

模型基本信息

Meta Llama 3.1 多语言大型语言模型 (LLM) 集合是一组经过预训练和指令微调的生成模型,大小分别为 8B、70B 和 405B(文本输入 / 文本输出)。Llama 3.1 指令微调的纯文本模型(8B、70B、405B)针对多语言对话用例进行了优化,在常见的行业基准上优于许多可用的开源和闭源聊天模型。

模型架构:Llama 3.1 是优化了的 Transformer 架构自回归语言模型。微调后的版本使用 SFT 和 RLHF 来对齐可用性与安全偏好。

支持语言:英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语。

从模型卡信息可以推断,Llama 3.1 系列模型的上下文长度为 128k。所有模型版本都使用分组查询注意力(GQA)来提高推理可扩展性。

图片

图片

图片

预期用途

预期用例。Llama 3.1 旨在用于多语言的商业应用及研究。指令调整的纯文本模型适用于类助理聊天,而预训练模型可以适应各种自然语言生成任务。

Llama 3.1 模型集还支持利用其模型输出来改进其他模型(包括合成数据生成和蒸馏)的能力。Llama 3.1 社区许可协议允许这些用例。

Llama 3.1 在比 8 种受支持语言更广泛的语言集合上进行训练。开发人员可以针对 8 种受支持语言以外的语言对 Llama 3.1 模型进行微调,前提是遵守 Llama 3.1 社区许可协议和可接受使用策略,并且在这种情况下负责确保以安全和负责任的方式使用其他语言的 Llama 3.1。

软硬件基础设施

首先是训练要素,Llama 3.1 使用自定义训练库、Meta 定制的 GPU 集群和生产基础设施进行预训练,还在生产基础设施上进行了微调、注释和评估。

其次是训练能耗,Llama 3.1 训练在 H100-80GB(TDP 为 700W)类型硬件上累计使用了 39.3 M GPU 小时的计算。这里训练时间是训练每个模型所需的总 GPU 时间,功耗是每个 GPU 设备的峰值功率容量,根据用电效率进行了调整。

训练温室气体排放。Llama 3.1 训练期间基于地域基准的温室气体总排放量预估为 11,390 吨二氧化碳当量。自 2020 年以来,Meta 在全球运营中一直保持净零温室气体排放,并将其 100% 的电力使用与可再生能源相匹配,因此训练期间基于市场基准的温室气体总排放量为 0 吨二氧化碳当量。

用于确定训练能源使用和温室气体排放的方法可以在以下论文中找到。由于 Meta 公开发布了这些模型,因此其他人不需要承担训练能源使用和温室气体排放。

论文地址:https://arxiv.org/pdf/2204.05149

训练数据

概述:Llama 3.1 使用来自公开来源的约 15 万亿个 token 数据进行了预训练。微调数据包括公开可用的指令数据集,以及超过 2500 万个综合生成的示例。

数据新鲜度:预训练数据的截止日期为 2023 年 12 月。

Benchmark 评分

在这一部分,Meta 报告了 Llama 3.1 模型在标注 benchmark 上的评分结果。所有的评估,Meta 都是使用内部的评估库。

图片

安全风险考量

Llama 研究团队致力于为研究界提供宝贵的资源来研究安全微调的稳健性,并为开发人员提供适用于各种应用的安全且强大的现成模型,以减少部署安全人工智能系统的开发人员的工作量。

研究团队采用多方面数据收集方法,将供应商的人工生成数据与合成数据相结合,以减轻潜在的安全风险。研究团队开发了许多基于大型语言模型 (LLM) 的分类器,以深思熟虑地选择高质量的 prompt 和响应,从而增强数据质量控制。

值得一提的是,Llama 3.1 非常重视模型拒绝良性 prompt 以及拒绝语气。研究团队在安全数据策略中引入了边界 prompt 和对抗性 prompt,并修改了安全数据响应以遵循语气指南。

Llama 3.1 模型并非设计为单独部署,而是应作为整个人工智能系统的一部分进行部署,并根据需要提供额外的「安全护栏」。开发人员在构建智能体系统时应部署系统安全措施。

请注意,该版本引入了新功能,包括更长的上下文窗口、多语言输入和输出,以及开发人员与第三方工具的可能集成。使用这些新功能进行构建时,除了需要考虑一般适用于所有生成式人工智能用例的最佳实践外,还需要特别注意以下问题:

  • 工具使用:与标准软件开发一样,开发人员负责将 LLM 与他们所选择的工具和服务集成。他们应为自己的使用案例制定明确的政策,并评估所使用的第三方服务的完整性,以了解使用此功能时的安全和安保限制。
  • 多语言:Lama 3.1 除英语外还支持 7 种语言:法语、德语、印地语、意大利语、葡萄牙语、西班牙语和泰语。Llama 可能可以输出其他语言的文本,但这些文本可能不符合安全性和帮助性性能阈值。

Llama 3.1 的核心价值观是开放、包容和乐于助人。它旨在服务于每个人,并适用于各种使用情况。因此,Llama 3.1 的设计宗旨是让不同背景、经历和观点的人都能使用。Llama 3.1 以用户及其需求为本,没有插入不必要的评判或规范,同时也反映了这样一种认识,即即使在某些情况下看似有问题的内容,在其他情况下也能达到有价值的目的。Llama 3.1 尊重所有用户的尊严和自主权,尤其是尊重为创新和进步提供动力的自由思想和表达价值观。

但 Llama 3.1 是一项新技术,与任何新技术一样,其使用也存在风险。迄今为止进行的测试尚未涵盖也不可能涵盖所有情况。因此,与所有 LLM 一样,Llama 3.1 的潜在输出无法事先预测,在某些情况下,该模型可能会对用户提示做出不准确、有偏差或其他令人反感的反应。因此,在部署 Llama 3.1 模型的任何应用之前,开发人员应针对模型的具体应用进行安全测试和微调。

模型卡来源:https://pastebin.com/9jGkYbXY
*参考信息:https://x.com/op7418/status/1815340034717069728 [https://x.com/iScienceLuvr/status/1815519917715730702](https://x.com/iScienceL

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

小米投资的具身智能机器人公司和焊接巨头官宣战略合作

近期,小米集团投资的首个具身智能企业“小雨智造”,与行业巨头松下的合资公司唐山松下达成重大战略合作,旨在共同开发先进的大模型智能焊接机器人。

7月18日,唐山松下产业机器人有限公司(下称“唐山松下”)与北京小雨智造科技有限公司(下称“小雨智造”)的战略合作签约仪式在唐山松下总部圆满完成。


松下产业机器有限公司总经理桥山祐一郎、执行副总经理柳铮,小雨智造创始人兼CEO乔忠良、联合创始人兼副总裁李川等领导共同出席了签约仪式,双方均对本次合作寄予厚望并充满信心。本次签约,双方聚焦于智能焊接机器人品类,就产品定义、技术创新、标杆客户打造等进行全方位战略合作,利用大模型技术共同拓展智能焊接机器人市场,为用户打造易用、高效的智能焊接机器人产品。

现场签约图

与行业巨头合作,拓展智能焊接市场

据了解,小雨智造是一家大模型智能科技公司,由原小米集团核心创始团队成员乔忠良于2023年创立。公司聚焦于打造工业领域的大模型智能机器人平台,核心技术是打造“一脑多形”的具身智能机器人,即用一个高泛化能力的智能体核心,控制多个场景下、不同形态的机器人本体,此次“一脑多形”将应用在智能焊接机器人上。

作为日本松下在亚洲设立的电焊机机器人研发中心和制造基地,唐山松下现正以领先的技术和卓越品质助力中国经济发展。迄今为止,有超过100万台电焊机、近5万套焊接机器人活跃在工业领域。目前,唐山松下的焊机年销量已达10万台,连续20余年稳居中国第一。如今,小雨智造大模型智能机器人技术的融入将助力唐山松下领跑智能焊接新时代。

唐山松下拥有CNAS国家认可的实验室,其S-AWP弧焊专用机器人系统在汽车零部件和新能源电池盒等高端制造领域中占据重要地位。全国50家代理店和6家技术应用中心,构建了完善的销售与服务网络,具有60多年焊接设备开发制造经验,其焊接技术水平一直处于行业领先地位。随着人工智能等新一代智能技术的引入,传统焊接行业无疑将焕发新的产业活力,此次唐山松下与小雨智造战略合作将有机会重构智能焊接行业。

背靠小米,大佬背书

小雨智造的创始团队均为业内顶尖人才。

据了解,创始人乔忠良是小米的初创成员之一,作为MIUI研发负责人,他负责过MIUI 9到MIUI 12等产品;联合创始人王文林,曾任职小米软件系统平台部总经理,主导了“小米大脑”和IoT系统的开发。团队其他成员来自于华为、字节、微软等知名大厂,可谓是豪华配置。公司的远景目标,是打造一个大模型生态平台,携手各行业龙头企业,共同提升行业开发效率,加速工业制造的智能化升级。

实际上,在焊接这一传统制造业领域,小雨智造早有动作。此前,某重工龙头企业与小雨智造签订了百台焊接机器人战略采购协议,首批产品的联合运营已经启动。这次与唐山松下的合作,标志着小雨智造再次携手行业巨头在工业领域的又一重磅落地。

这家新兴企业在工业大模型智能机器人领域的“一脑多形”创新理念迅速崭露头角,资本界对小雨智造的追捧更是热情高涨,公司轻松完成了亿元种子轮融资,投资者包括小米集团、机器人领域专家王田苗和北京智源人工智能研究院。这不仅让小雨智造成为了小米集团对外投资的第一家具身智能领域公司,也体现了小米生态链对于未来智能制造趋势的精准把握。

“小米系”产业版图再扩张

小米在智能制造领域的深耕有目共睹,自2017年起布局智能制造之后,小米智能工厂几经升级迭代。仅2024年内,便落成两座小米智能工厂并启动生产。

7月,位于北京昌平的新一代小米手机智能工厂正式启用,该工厂获得了“国家级智能制造标杆企业”认证,拥有11条手机产线和汽车电子零部件产线,年产能1000万台旗舰手机。据介绍,该工厂是国内智能化和数字化程度最高的手机工厂之一,拥有包含贴片、板测、组装、整机测试、成品包装全工艺段,是第二代手机高自动化率智能产线。

此前3月,北京亦庄小米汽车超级工厂也正式揭幕,4月便举办了小米SU7首批交付仪式。雷军当时透露,小米汽车工厂的目标是6月单月交付一万辆,全年交付10万辆。

在机器人技术领域,小米也不忘利用自己的技术优势,释放影响力。2021年,小米成立机器人实验室,推出了全尺寸人形仿生机器人CyberOne和仿生四足机器狗Cyberdog。2023年,小米将这一业务剥离,成立”北京小米机器人技术有限公司”,并获得亦庄国投的战略投资。

小雨智造作为小米在智能制造领域布局的一环,此次投资不仅进一步壮大了“小米系”的阵容,更体现了小米在洞察市场趋势、进行前瞻战略布局方面的敏锐洞察力和卓越决策力,小雨智造有望为小米产业链的未来增添更多的可能性。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B,Meta都写在这篇论文里了

经历了提前两天的「意外泄露」之后,Llama 3.1 终于在昨夜由官方正式发布了。Llama 3.1 将上下文长度扩展到了 128K,拥有 8B、70B 和 405B 三个版本,再次以一已之力抬高了大模型赛道的竞争标准。


对 AI 社区来说,Llama 3.1 405B 最重要的意义是刷新了开源基础模型的能力上限,Meta 官方称,在一系列任务中,其性能可与最好的闭源模型相媲美。下表展示了当前 Llama 3 系列模型在关键基准测试上的性能。可以看出,405B 模型的性能与 GPT-4o 十分接近。与此同时,Meta 公布了《The Llama 3 Herd of Models》论文,揭示了 Llama 3 系列模型迄今为止的研究细节。

[Llama3 论文亮点]
1、在使用 8K 上下文长度进行预训练后,Llama 3.1 405B 使用 128K 上下文长度进行连续训练,且支持多语言和工具使用。
2、与以前的 Llama 模型相比,Meta 加强了预处理和预训练数据的 Curation pipelines,以及后训练数据的质量保证和过滤方法。Meta 认为,高质量基础模型的开发有三个关键杠杆:数据、规模和复杂性管理。

更多技术细节,可参考原论文。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

为大模型提供全新科学复杂问答基准与测评体系,UNSW、阿贡、芝加哥大学等多家机构联合推出SciQAG框架

编辑 | ScienceAI

问答(QA)数据集在推动自然语言处理(NLP)研究发挥着至关重要的作用。高质量QA数据集不仅可以用于微调模型,也可以有效评估大语言模型(LLM)的能力,尤其是针对科学知识的理解和推理能力。


尽管当前已有许多科学QA数据集,涵盖了医学、化学、生物等领域,但这些数据集仍存在一些不足。

其一,数据形式较为单一,大多数为多项选择题(multiple-choice questions),它们易于进行评估,但限制了模型的答案选择范围,无法充分测试模型的科学问题解答能力。相比之下,开放式问答(openQA)可以更加全面地评估模型的能力,但缺乏合适的评估指标。

其二,现有数据集的内容很多来源于大学及以下等级的教科书,难以评估LLM在实际学术研究或生产环境中的高层次知识保持能力。

其三,这些基准数据集的创建依赖人类专家标注。

应对这些挑战对建立更全面的QA数据集至关重要,也有利于对科学LLM的更精准评估。

为此,美国Argonne国家实验室、芝加哥大学Ian Foster 教授(2002年戈登贝尔奖得主)团队、澳大利亚新南威尔士大学Bram Hoex教授UNSW AI4Science团队、AI4Science 公司GreenDynamics 与香港城市大学揭春雨教授团队联合提出了 SciQAG,第一个基于大语言模型(LLM)从大型科学文献语料库中自动生成高质量科学开放性问答对的新型框架。

论文链接:https://arxiv.org/abs/2405.09939
github链接:https://github.com/MasterAI-EAM/SciQAG

基于SciQAG,研究人员构建了一个大规模、高质量、开放式的科学QA数据集 SciQAG-24D ,包含从24个科学领域的22,743篇科学论文中提取的188,042 个QA对,旨在服务LLM的微调和科学问题解答能力评估。

实验证明,在 SciQAG-24D 数据集上对 LLM 进行微调可以显著提高它们在开放式问题解答和科学任务中的性能。

数据集、模型和评估代码已经开源(https://github.com/MasterAI-EAM/SciQAG),以促进AI for Science社区对开放式科学问答的共同开发。

SciQAG框架与SciQAG-24D基准数据集

SciQAG由QA生成器和QA评估器组成,旨在大规模快速生成基于科学文献的多样化开放式问答对。首先,生成器将科学论文转换为问答对,然后评估器过滤掉不符合质量标准的问答对,从而获得高质量的科学问答数据集。

QA生成器

QA评估器

SciQAG 框架的运用

SciQAG-24D 基准数据集

实验结果

总结与展望



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

全球IT故障让我害怕“升级”这个词

全球范围内因CrowdStrike对IT系统的误升级而引发的混乱,证实了我对“升级”一词已成为英语中最令人畏惧的词语之一的观点,甚至可能比“特朗普”还要令人害怕。


罗伯特·帕克希尔(伦敦)代表那些只听到“Windows”这个词就感到恐慌的电脑文盲,我们现在可以放心打开电脑了吗?我的电子邮件上个月被黑了,至今仍未完全恢复。玛格丽特·斯奎尔斯(圣安德鲁斯,菲夫)关于如何应对水费(来信,7月22日)的方法是给我的供水公司Affinity发送电子邮件,要求退还它代表泰晤士水公司收取的污水处理费,但后者未能妥善处理污水。它告诉我这是泰晤士水公司的问题。经过两次电话和邮件联系泰晤士水公司后,我收到了30英镑的赔偿支票。巴里·A·库姆伯(伦敦)克雷格·汉布林博士(7月22日来信)表示他是“一名中世纪教育和体育历史学家”。显然,他的职业导致了非凡的长寿。我们都应该引起注意。大卫·霍威尔(哈彭登,赫特福德郡)上周,我在购物时,凉鞋鞋底突然松了,一位老太太看到我束手无策,从她的包里拿出了一根皮筋(来信,7月22日)。我设法将鞋底固定到鞋面上,安全回家了,尽管走路显得有些别扭。维夫·罗斯(南安普顿)


。注意:Title、Date、Body 三个部分的内容,放入到对应的位置,Title部分内容需要翻译为中文。最后只需要输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

美国在数千航班取消后对达美航空展开调查

美国交通部在全球网络故障令航空公司运营陷入困境后,于周二表示将对达美航空展开调查。


运输部称,此举旨在确保乘客的关爱。

美国交通部周二表示,自上周五以来,达美航空已取消了5000多个航班,因为该航空公司努力从全球网络故障中恢复,全球各地的航空公司受到影响。虽然其他航空公司已能够恢复正常运营,但达美航空由于其机组调度系统存在问题,每天仍持续取消数百个航班。

自上周五以来,截至周一,达美航空每天取消30%或更多的航班,周二取消了444个航班,占计划的12%,截至上午11点延误590个航班,占比16%,据FlightAware统计,周一取消了1150个航班。交通部长皮特·布迪吉格周二表示,此次调查旨在“确保航空公司遵守法律并在持续的广泛中断期间照顾好乘客…我部将充分利用我们的调查和执行权力,以确保达美航空乘客的权利得到维护”。

达美表示已经收到美国交通部的调查通知,并正在全力配合。“达美团队正在不遗余力地照顾受延误和取消影响的客户,并在努力恢复可靠的准点服务,这是乘客已经期待的达美服务标准。”达美称,在早盘交易中,达美股价下跌了0.5%。

Delta首席执行官艾德·巴斯蒂安周一表示,在另外几天之后,美国运营将恢复。全球网络安全公司CrowdStrike的软件更新触发了 Microsoft 客户的系统问题,包括许多航空公司,这发生在周五。

达美因以可靠运营而备受尊敬。分析师表示,其准点率在到达和出发方面的表现帮助该航空公司巩固了其作为高端航空公司的地位。

这一问题令客户感到愤怒。许多人抱怨他们等待了数小时才得到帮助,因为航空公司的热线电话不堪重负。一些人被迫租车,驾车数百英里才能到达目的地,而其他人则称他们将不得不等待数天获得新的航班。

去年12月,西南航空公司同意就2022年假期服务崩溃事件支付纪录性的1.4亿美元民事罚款,此事件导致16900次航班取消,滞留200万名乘客,并了结了美国交通部的调查。

进一步了解这些话题:
Microsoft IT中断
微软
计算
航空业
航空运输
新闻
共享内容


。注意:Title、Date、Body 三个部分的内容,放入到对应的位置,Title部分内容需要翻译为中文。最后只需要输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB