从零开始手搓GPU,照着英伟达CUDA来,只用两个星期

从学习芯片的基础知识开始。

「我花两周时间零经验从头开始构建 GPU,这可比想象的要难多了。


总有人说老黄的芯片供不应求,大家恨不得去手搓 GPU,现在真的有人试了。

近日,美国一家 web3 开发公司的创始工程师之一 Adam Majmudar 分享了他「手搓 GPU」成功的经历,引发了网友们的一大片点赞。令人惊讶的是,他仅用两周时间就完成了这一脑力壮举。在 Twitter/X 的主题帖子中,Majmudar 进行了直播,一步步带我们回顾了整个过程。

自造 GPU 的实践当然也被公开在 GitHub 上,现在这个项目已有 5300 的 Star 量了。

项目链接:https://github.com/adam-maj/tiny-gpu

需要明确的是,该项目目前的节点是在 Verilog 中的芯片布局,最终通过 OpenLane EDA 软件进行了验证。在这之后,GPU 还将通过 Tiny Tapeout 7 提交流片,因此注定会在未来几个月内成为物理形态的芯片。

Majmudar 详细列出了设计 GPU 所完成的任务流程。显然,作为一个「从头开始」的项目,在试探性迈出第一步之前就需要进行大量的研究和思考。由于专有技术的主导地位,GPU 是一个相对复杂的研究领域,想想就难,实践起来更难。

手搓 GPU 要分几步?

实际上对于 Majmudar 来说,操作比这个步骤还要多,因为他真的没啥技术基础,是从学习 GPU 架构的基础知识开始的。

他首先开始尝试通过学习英伟达的 CUDA 框架来理解 GPU 软件模式,进而理解了用于编写 GPU 程序(称为内核)的相同指令多数据 (SIMD) 编程模式。

有了这些背景,Majmudar 开始深入学习 GPU 的核心元素:从全局内存、计算核心、分层缓存、内存控制器到程序调度。

然后在每个计算核心中,我们还要了解其中的主要单元:包括寄存器、本地 / 共享内存、加载存储单元 (LSU) 、计算单元 、调度程序、获取器和解码器。

好了,你已经是一个了解了现代 GPU 架构的人了,下面让我们来手搓一块 GPU 吧。

此处 Majmudar 表示,由于复杂性如此之高,我们必须将 GPU 简化到新手能够设计的水平,否则项目就工期爆炸了。

接下来就是创建一个自己的 GPU 架构。我们的目标是创造一个最小的 GPU 来突出 GPU 的核心概念,并消除不必要的复杂性,以便其他人可以更轻松地了解 GPU。

Majmudar 表示,设计自己的 GPU 架构是一项令人难以置信的实践。

他一边学习一边操作,随后决定在设计中强调以下几点: 

  • 并行化 - 在硬件中实现 SIMD 模式;
  • 内存访问 - 观察 GPU 如何应对从缓慢且带宽有限的内存访问大量数据的挑战;
  • 资源管理 - 最大限度提高资源利用率和效率。

通过对上述架构的多次迭代,Majmudar 决定专注于通用并行计算 (GPGPU) 功能,面向机器学习(machine learning)的更广泛用例。

设计称得上紧跟时代。

第三步是为这块 GPU 编写自定义的汇编语言。

Majmudar 表示,其中一个最关键的因素是他 GPU 实际上可以执行用 SIMD 编程模式编写的内核。为了实现这一点,就必须为 GPU 设计自己的指令集架构(ISA),以便用来编写内核。他制作了自己的 11 条小型指令 ISA,该 ISA 受到 LC4 ISA 的启发。在这之后,他又编写一些简单的矩阵数学内核作为概念证明。

接下来,Majmudar 编写了两个在其 GPU 上运行的矩阵数学内核。这些矩阵加法和乘法内核将演示 GPU 的关键功能,并提供其在图形和机器学习任务中应用有效的证据。

Majmudar 用 Verilog 构建 GPU 带来了许多问题。这是最困难的部分,学会了很多知识,但也多次重写了代码。值得一提的是,Majmudar 得到了美国知名黑客 George Hotz 的建议与帮助。 

最初,他将全局内存实现为 SRAM,大佬给出的反馈说这违背了构建 GPU 的整个目的 ——GPU 的最大设计挑战是管理访问有限带宽的异步内存(DRAM)延迟。

因此,Majmudar 最终使用外部异步内存重建了设计,并最终意识到还需要添加内存控制器。

其次,Majmudar 一开始是用 warp-scheduler 来实现 GPU 的,这是一个很大的错误,对于该项目来说太复杂且没有必要。还好 George Hotz 及时提出了反馈。当一开始收到反馈时,Majmudar 甚至没有足够的背景知识来完全理解它,所以花了很多时间尝试构建一个 Warp调度程序,这才醒悟过来。

这还没有完,一开始的设计中,Majmudar 没有在每个计算核心内正确实现调度,因此不得不回过头,分阶段设计计算核心执行以获得正确的控制流。

最终,Majmudar 对代码的第三次重写实现了目标,修复了计算核心的执行调度。

经过大量重新设计后,我们终于可以看到 GPU 运行矩阵加法和乘法时内核的景象了。看到一切正常工作,GPU 输出了正确的结果,这是一种不可思议的感觉。

然后,我们还需要将设计通过 EDA 流程,转换为完整的芯片布局。

完整的 Verilog 设计是通过 OpenLane EDA 实现的,采用 Skywater 130nm 工艺节点(用于 Tiny Tapeout)。Majmudar 特别解释说,一些设计规则检查 (DRC) 失败,需要返工。

经过两周的努力,Majmudar 的 GPU 设计的 3D 可视化如下图所示:

CPU、GPU 都做了出来

Adam Majmudar 表示自己在很短的时间内,了解了芯片架构的基础知识,掌握了芯片制造的细节,并使用 EDA 工具完成了他的第一个完整芯片布局,即手搓 CPU。

谈到如何能做到「手搓芯片」,Majmudar 总结主要分 6 步:

  • 学习芯片架构的基础知识;
  • 学习芯片制造的基础知识,包括材料、晶圆制备、图案化和封装等;
  • 通过逐层制作 CMOS 晶体管开始电子设计自动化;
  • 用 Verilog 创建第一个完整电路;
  • 为电路实施仿真和形式验证;

设计完整芯片布局,使用 OpenLane(一种开源 EDA 工具)进行设计和优化。

在工程师圈子里,时不时会有人去尝试「手搓芯片」,用最硬核的方式去了解芯片架构的基础知识。不过在以前,大多数人因为难度,尝试的是 CPU。

2020 年,中国科学院大学公布了首期「一生一芯」计划的结果,曾经引发了人们的热议。该计划是在国内首次以流片为目标,由 5 位 2016 级本科生主导完成一款 64 位 RISC-V 处理器 SoC 芯片设计并实现流片。

此项目还得到了 RISC 体系奠基人、图灵奖得主 David Patterson 教授的关注。

得益于开源芯片、敏捷设计等行业新趋势的发展,芯片的设计门槛正在越来越低。

或许手搓 GPU 的先例出现后,我们会看到更多、性能更加强大的自造芯片实践。

参考内容:



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

Meta FAIR 联合哈佛优化大规模机器学习时产生的数据偏差,提供了新的研究框架。

众所周知,大语言模型的训练常常需要数月的时间,使用数百乃至上千个 GPU。


以 LLaMA2 70B 模型为例,其训练总共需要 1,720,320 GPU hours。由于这些工作负载的规模和复杂性,导致训练大模型存在着独特的系统性挑战。

最近,许多机构在训练 SOTA 生成式 AI 模型时报告了训练过程中的不稳定情况,它们通常以损失尖峰的形式出现,比如谷歌的 PaLM 模型训练过程中出现了多达 20 次的损失尖峰。

数值偏差是造成这种训练不稳定性的潜在原因,由于大语言模型训练运行成本极高,如何量化数值偏差俨然成为关键问题。

在最新的一项工作中,来自 Meta、哈佛大学的研究者开发了一个原则性定量方法来理解训练优化中的数值偏差,以此评估不同的最新优化技术,并确定它们在用于训练大模型时是否可能引入意外的不稳定性。

结果发现,在一次单独的前向传递过程中,Flash Attention 的数值偏差比 BF16 的 Baseline Attention 大一个数量级。

具体而言,该方法包括两个阶段,包括:

(1)开发一个微基准来扰动给定优化中的数值精度;

(2)通过基于 Wasserstein 距离的数据驱动分析评估数值偏差如何转化为模型权重的变化。

研究者分析了 SOTA 优化技术 Flash Attention,并量化了可能引入的数值偏差。Flash Attention 是一种广泛用于加速注意力机制的技术,通常被认为是 Transformer 模型中的系统瓶颈。Flash Attention 在提高速度和减少内存访问量的同时,也依赖于算法优化,而算法优化有可能导致数值偏差的增加。

研究者假设添加重新缩放因子(rescaling factors )可能会引入无意的近似,导致数值折衷,这可能会在后续影响训练稳定性。

他们在多模态文本到图像工作负载的背景下分析了 Flash Attention,以确定 Flash Attention 与其基线之间数值偏差的潜在重要性。最终,他们引入了一个框架来量化训练优化的数值偏差及其下游影响。

研究者在数值偏差量化上主要作出了以下两点贡献:

(1)设计了一个微基准来分离数值精度对数值偏差的影响。

研究者所设计的微基准作为一种技术,用于衡量和量化传统黑盒优化(如 Flash Attention)所导致的数值偏差。通过扰动通常在提供的内核中不可用的方面,他们开创性地发现在低数值精度(BF16)下,与 Baseline Attention 相比,Flash Attention 的数值偏差大约高出一个数量级。

(2)基于 Wasserstein Distance 度量进行了数据驱动的分析。

通过该分析,研究者将观察到的数值偏差置于上下文,并为其对下游模型属性的影响形成一个上限(upper bound)。在研究者的案例研究中,他们能够限制观察到的数值偏差的影响,并发现:「Flash Attention 引入的模型权重偏差大约为低精度训练的 1/2 至 1/5 倍。」

这项研究强调了开发一种原则性方法的重要性:「不仅要量化,而且要将训练优化对数值偏差的影响置于上下文中。」通过构建代理(proxies)来将数值偏差置于上下文中,旨在推断通常难以衡量的下游模型效果(即训练不稳定性)的可能性。

实验方法

研究者首先开发了一个微基准来分离并研究 Flash Attention 引起的数值偏差。如图 2 所示,他们通过对 Flash Attention 进行数值上的重新实现,以分析不同的数值精度,并在算法的每个步骤应用潜在的优化措施。

图2: 微基准设计摘要。

这是必要的,因为 Flash Attention 内核目前仅支持 FP16 和 BF16 数值格式。该内核还是 CUDA 代码的包装 API 调用,这使得扰动算法以检查数值偏差的影响变得具有挑战性。

相比之下,他们的微基准设计允许在算法内部进行精度输入和修改。研究者将微基准与原始的 Flash Attention kernel 进行了验证。

他们进一步设计了一种技术,以比较模型执行过程中每个步骤的 Attention 矩阵的输出。并修改了模型代码,每次调用注意力时都计算 Baseline Attention 和 Flash Attention,这允许对相同的输入矩阵进行精确的输出矩阵比较。

为了将其置于上下文中,研究者还通过相同和独立的训练运行,使用 Max difference 和 Wasserstein Distance 度量来量化模型权重在整个训练过程中的差异。

对于训练实验,研究者则使用一种将文本输入转换为图像的生成式 AI workload(即文本到图像模型)。他们使用 Shutterstock 数据集重新训练模型,并在一组英伟达 80GB A100 GPU 集群上运行此实验。

通过微基准量化数值偏差

研究者首先分析了 Flash Attention 在前向传递过程中的影响。他们利用微基准测试,在随机初始化查询、键、值向量相同的情况下,检验不同数值精度对 Attention 计算的输出矩阵的影响。

正如图 3 所示,当研究者使用从 BF16 到 FP64 变化的不同数值格式时,Flash Attention 和 Baseline Attention 之间的数值偏差随着尾数位数的增加而减小。这表明数值差异是由于较少的尾数位数所固有的近似造成的。

图3:数值格式对于 Flash Attention 的数值偏差所产生的效果。

之后,研究者为进行标准比较,在 FP64 数值格式下的 Baseline Attention 设置了「黄金值」,然后将不同数值格式下的 Attention 输出与该值进行了比较(如图 4 所示)。

图4: FP64 下 Baseline Attention「黄金值」的比较。

结果表明,Flash Attention 的数值偏差大约是在 BF16 下 Baseline 的 10 倍。

为了进一步分析这种观察到的数值偏差,研究者保持 tile 大小和 SRAM 大小不变的同时,扫描了矩阵的序列长度(如图 5 所示)。

图5: 序列长度对 Flash Attention 数值偏差的影响。

如图所示,随着序列长度的增加,无论是通过最大差异上限的测量,还是通过差异的平均值和标准差的测量,Flash Attention 和 Baseline Attention 之间的数值偏差都在增加。

除此之外,研究者还利用微基准设计进行不同优化的实验,以便更好地了解数值偏差的影响(如图 6 所示)。

图 6a 显示了调换 block 维数的顺序如何导致 Flash Attention 和 Baseline Attention 之间的数值差异增大。图 6b 中的其他扰动,比如限制 tile 大小为正方形,不会对数值偏差产生影响。图 6c 表明了 block/tile 大小越大,数值偏差越小。

图6: 算法的改变及其对观察到的数值偏差的影响。

通过权重差异来了解数值偏差

虽然在前向传递过程中,Flash Attention 可能会导致 Attention 输出的数值偏差,但这项研究的最终目标是确定这是否会在模型训练过程中产生任何影响,以研究它是否会导致训练的不稳定性。

因此,研究者希望量化 Flash Attention 是否在训练过程中改变了模型,即上文观察到的 Attention 输出差异是否反映在训练过程中更新的模型权重中。

研究者利用两个指标来衡量使用 Baseline Attention 训练的模型与使用 Flash Attention 训练的模型之间的模型权重差异。首先计算最大差异,即找出权重矩阵之间差异的绝对值并取最大值,从而得出偏差的上限。

计算公式

虽然最大差值提供了数值偏差的上限,但它没有考虑到每个矩阵的分布情况。因此,研究者通过 Wasserstein Distance 来量化权重差异,这是衡量张量之间相似性的常用度量。虽然在计算上稍显复杂,但 Wasserstein Distance 包含了张量分布的形状信息以衡量相似性。计算公式概述如下:

计算公式

数值越低,表明矩阵之间的相似度越高。

利用这两个指标,研究者随后量化了在整个训练过程中与 Baseline Attention 相比,Flash Attention 的模型权重是如何变化的。

图8: 使用 Wasserstein Distance metric 测量的训练过程中的相对权重差异。

更多研究细节,可参考原论文。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI:自上次发布会后,我们更新了这些

来源:赛博禅心

OpenAI 明天有新发布会,上个发布会是去年 11 月 6 日。

我们一起回顾下,在过去的半年里,OpenAI 做了哪些更新,包括 ChatGPT 和 API。


(Sora 没发布,不在讨论范围内)

ChatGPT

图片来源:由GPTNB生成

2023年11月6日:GPTs
那时候,OpenAI 召开了第一届开发者大会,并发布了 GPTs,被认为是 OpenAI 发布的首款 toC AI Agent 产品,并在后续取代了 Plugin。

通过 GPTs,用户可以根据自己的需求创建包含特定指令、额外知识和技能组合的 ChatGPT。这些 GPTs 能在日常生活、特定任务、工作或家庭中提供帮助,并允许创作者与他人分享。

2023年11月21日:语音功能
ChatGPT 手机版的语音功能向所有用户开放。

2024年1月10日:GPTs 商店和 ChatGPT 团队
用户可以通过 https://chatgpt.com/gpts 来访问 GPTs 商店,查看和使用各种由 Plus 用户们创造的 GPTs。
同时团队套餐推出,25刀/人月,提供更高的 GPT-4 使用额度,并且对话信息不会被拿来训练。

2024年2月13日 ~ 4月29日:记忆功能
自2024年2月13日起,ChatGPT 开始测试记忆功能,能够跨对话记住用户信息,减少重复输入,提高对话效率。用户可以通过设置开启或关闭记忆功能,或通过对话管理记忆内容。到4月29日,该功能已向所有 ChatGPT Plus 用户开放,除欧洲与韩国外,后者计划将在不久后推出。

2024年4月1日:ChatGPT 无需注册
限 3.5 模型,同时启用了域名 chatgpt.com(以前的域名是 chat.openai.com)

API

2023 年 11 月 6 日(大更新)

  • 发布了 GPT-4 Turbo 预览版,并更新了 GPT-3.5 Turbo、GPT-4 Turbo with Vision、Assistants API、DALL·E 3 in the API 以及 text-to-speech API。
  • 弃用了 Chat Completions API 中的 functions 参数,改为支持 tools。
  • OpenAI Python SDK V1.0 正式发布。
  • GPT-4 模型降价(以 turbo 形式)

更多信息参见:https://openai.com/index/new-models-and-developer-products-announced-at-devday/

2023 年 11 月 30 日
发布了 OpenAI Deno SDK。

2023 年 12 月 14 日
工具调用中的 function 参数现已变为可选项。

2023 年 12 月 15 日
Chat Completions API 新增了 logprobs 和 top_logprobs 参数。

2023 年 12 月 20 日
Assistants API 新增了 additional_instructions 参数,用于创建运行时。

2024 年 1 月 25 日(大更新)

  • 发布了 embedding V3 模型和更新的 GPT-4 Turbo 预览版。
  • Embeddings API 新增了 dimensions 参数。
  • 3.5 模型降价

更多信息参见:https://openai.com/index/new-embedding-models-and-api-updates/

2024 年 2 月 1 日
发布了 gpt-3.5-turbo-0125,为 GPT-3.5 Turbo 模型的更新版本。

2024 年 2 月 9 日
Audio API 新增了 timestamp_granularities 参数。

2024 年 3 月 14 日
Assistants API 新增了对流式处理的支持。

2024 年 3 月 29 日
Assistants API 新增了 temperature 和 assistant message creation 支持。

2024 年 4 月 1 日
Assistants API 新增了通过 run_id 过滤消息的功能。

原文链接



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

人权律师苏茜·阿莱格雷:‘如果AI过于复杂无法解释,则有些领域不应使用’

Susie Alegre是一位国际人权律师和作者,原籍马恩岛,近年致力于技术对人权的影响。


作为一名法律专家,她曾就反恐和反腐等问题向国际特赦组织、联合国和其他组织提供建议。她的第一本书《Freedom to Think》于2022年出版,并入围了克里斯托弗·布兰德奖,探讨了思想自由的法律历史。在她的新书《人权,机器人的错误》中,她关注人工智能威胁我们在战争、性和创造力等领域的权利,以及我们可以采取的行动。

写这本书的动机是什么?

有两个触发因素。一个是ChatGPT的突然爆炸和关于每个人现在都可以成为小说家,AI将能够为我们完成所有工作的叙事,这让人感到绝望。另一个是有关一名比利时男子与AI聊天机器人进行了六周密集关系后自杀的故事。他的遗孀认为,如果没有这段关系,扭曲了他世界观的关系,他仍然会陪伴她和孩子们。这促使我思考-这绝对涉及生存权,家庭生活权,思想自由权和免受操纵的权利。我们如何思考人工智能以及它如何严重影响我们的人权?

您不太看重人工智能启示的威胁。

我认为那是在转移注意力。我们需要担心的是如何限制AI的发展、销售和使用方式。最终,在技术背后有人,在设计阶段特别是在营销中,以及在关于如何使用它的选择中。

我们所听到的关于人工智能的一切都表明它正在以难以想象的速度发展,并且模型的复杂性甚至连其创造者都无法掌握。监管者如何希望跟上?

我认为这里有很多幻觉。就像《绿野仙踪》中,托托拉开帷幕,我们看到帷幕后面发生的事情。因此,我们无需相信一切都是不可避免和全知全能的。我们仍然可以做出选择并提出问题。此外,如果某些东西过于复杂,无法解释,那么有些领域就不应使用它。

看法机构已经有足够的能力处理人工智能吗,还是我们需要建立新的框架?

我认为我们不需要新的框架,但我们真正需要的是获得司法途径。可能需要制定一些法律途径。但其中一个真正基本的挑战是,如何进行反击?我们如何执行监管?这就是我们在一些大型科技公司中看到的情况:他们的活动被认定为非法,他们被处以巨额罚款,但他们仍在继续。

您在性机器人和聊天机器人上有一章非常有趣。主要关注点是什么?

这是一个我之前从未考虑过的整个领域,当我意识到使用AI机器人代替人类伴侣是多么普遍时,我感到相当震惊。我感到担忧的原因是,这是私营部门技术被插入到人们的生活中以取代人际关系,而这在社会控制方面非常危险。这不是一个道德问题,而是一个关于这对人类社会和我们合作和联系能力的意义的问题?

AI对于负担不起法律代理的人来说不是好消息吗?

这取决于情况。如果你谈论的是仅涉及了解规则的非常基本纠纷,技术可以提高几方面的访问。但当你涉及更复杂的问题时,生成式人工智能实际上并不知道法律是什么,它很可能会给你一堆垃圾-当机器以权威的口吻传达信息时,人们很难对此持怀疑态度。

当您问ChatGPT时,“谁是苏茜·阿莱格雷?”发生了什么?

它说苏茜·阿莱格雷并不存在,或者至少没有在互联网上出现过。我有点恼火,考虑到我之前的第一本书已经出版了一年。我问它,《自由思考》是谁写的,它给出的第一个人是一位男生物学家。我一次又一次地问它,它给出了20个不同的名字,除了一个女性外,其他都是男性。就好像对于ChatGPT来说,一个女性写了一本关于思想的书是绝对不可思议的。

您对聊天机器人公司用“公平使用”辩护来捍卫吸收文字和图像来喂养他们的人工智能的做法有何看法?

我不是美国的版权律师,所以在这方面我没有专业知识,但看不出不同的司法管辖区如何审理案件将非常有趣。美国在言论自由问题上与世界上几乎任何地方都有完全不同的方法,以及如何利用之来支持科技行业的发展。无论“公平使用”辩护的合法性如何,它都为人类创造力、新闻学和信息空间的未来提出了巨大问题。这背后的基本问题是创作者报酬的大幅减少-总体趋势已经是剥夺创作者经济激励。

如果您所提出的所有关于监管的提议都得以实现,是否存在阻碍创新的危险?

这有点像草人,就是监管抑制创新的想法。监管实际上使创新在某个方向上发展,并关闭非常有害的方向。事实上,我认为存在反向风险,即如果允许人工智能在破坏我们自主思考的能力、重新夺回我们的注意力的方式上占主导地位,那我们将失去创新的能力。

您指出,人工智能不仅是漂浮在我们头顶上的什么善意的云。它基于物质的开采和对全球南方工人的剥削,并且运行起来会产生巨大的污染。但是,这其中很多都隐藏在视野之外。我们该如何解决这些影响?

这是一个巨大的问题。解决之一是从ESG(环境、社会和治理)的角度审视人工智能采用的问题。我们使用的所有设备,例如我们现在通话的手机,通常都是由矿物制成,其中包括使用童工从冲突地区采取。意识到这一点有望帮助转变社会需求和消费习惯。您可以使用生成式人工智能制作一个风趣的迷因,但您到底消耗了多少水和能源?难道您不能只拿起一支铅笔,这可能更加令人满足吗?

您是否有时希望人工智能可以被放回货架上?

这不是一个禁止人工智能或将其用于生活的每个方面的全是或全非的等式。这是一个选择我们想要将人工智能用于什么的问题。批判性地提出问题并不意味着您反对人工智能:这只是意味着您反对人工智能的炒作。

由Susie Alegre撰写的《人权,机器人的错误》由Atlantic Books出版(12.99英镑)。支持《卫报》和《观察家》,请在guardianbookshop.com订购您的副本。可能需要支付交付费用

探索更多关于这些话题的内容

人工智能(AI)、观察者、ChatGPT、采访

本文内容可重复使用

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

CoreWeave在英国投资10亿英镑,在伦敦开设总部和数据中心

CoreWeave,领先的人工智能专业云服务提供商,今天宣布已在伦敦开设一家办事处,作为其欧洲总部,作为扩展到欧洲大陆的一部分。图片{ width=60% }


这次英国新的扩张代表了一项价值10亿英镑的投资,旨在增强该国的人工智能潜力,并将在工程、运营、财务和市场推广等领域创造就业机会。CoreWeave计划在2024年开设两个英国数据中心,并计划在2025年进一步扩张。
“我们看到对人工智能基础设施的需求前所未有,伦敦是一个重要的人工智能枢纽,我们正在进行投资。在英国扩大我们的实体足迹是CoreWeave增长的下一个重要里程碑,”CoreWeave的联合创始人兼首席执行官Mike Intrator说道。“CoreWeave的基础设施将填补云市场的一处空白,为人工智能企业提供本地化的高性能计算解决方案,这将有助于构建和部署下一代人工智能应用程序。”
英国首相里希·苏纳克表示:“像CoreWeave这样的公司正在推动人工智能创新的未来,我很自豪他们已经向英国投资了10亿英镑,建立了英国数据中心,并在这里设立了他们的欧洲总部——进一步巩固英国作为人工智能和技术强国的地位。
“我们正在竭尽全力,使英国成为像CoreWeave这样的开创性公司生长的最佳场所。英国是全球第三大人工智能公司数量和私人投资人工智能的国家,我们的计划显然是行之有效的。”
英国科学、创新和技术大臣米歇尔·多纳兰表示:“CoreWeave选择将他们的欧洲总部设在伦敦,这不仅是对我们技术投资实力的一个信号,也是对我们在人工智能和创新方面的做法的充分信心。今天的10亿英镑投资将把两个新的数据中心引进我们的国土,这是帮助发展未来人工智能突破的重要工具。
“这也将带来新的高薪就业机会以及无数机会,让我们最聪明的人工智能人才和初创公司获得更多机会,而英国继续巩固其全球人工智能强国的地位。我们的信息是清晰的-在投资、扩大规模和创新方面,英国是最佳的家园。”
CoreWeave在伦敦的新欧洲总部位置得当,考虑到英国拥有的巨大人工智能人才。在英国投资建设是基于英国政府在促进全球对负责任人工智能的认识和参与方面已确立的领导地位,以及该国致力于通过计划在英国培训数百万人,使其具备人工智能技能。CoreWeave在该地区的存在将支持英国各地的人工智能实验室和企业客户的持续扩张,为英国提供迫切需要的计算能力。
CoreWeave现有的数据中心支持一些世界上最大规模高性能GPU集群的部署,通过针对工程师和创新者的设计,消耗这些集群的基础设施。CoreWeave Cloud得到领先人工智能实验室和企业的信任,通过自动化管理复杂性,为人工智能工作负载提供性能最高且效率最高的云基础设施。
请访问AITechPark,了解人工智能、物联网、网络安全、人工智能新闻和行业专家见解的最新进展!



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Kasada在2024年澳大利亚最佳科技工作场所排行榜中名列第四

致力于培养关爱、创新和影响力文化推动全球增长,并获得Great Place to Work®认可

Kasada是一家通过对抗自动化威胁背后的人类思维而超越机器人管理的先驱,今天宣布其被评为2024年澳大利亚最佳科技工作场所之一。图片{ width=60% }


这一备受尊敬的认可来自全球职场文化权威Great Place To Work®,突出了Kasada致力于培育以人为本、以目标为导向的环境。

Kasada在中小型企业类别中获得第四名的排名反映了其致力于培育卓越工作场所文化的承诺,这一点由严格的分析和保密的员工反馈所证实。值得注意的是,98%的Kasada员工肯定这是一个很棒的工作场所,远远超过了在澳大利亚的公司56%的平均水平。

Kasada的创始人兼首席执行官Sam Crowther表示:“这一认可证明了我们在构建卓越文化方面的努力,同时我们继续扩大团队规模并在全球范围内运营。我们为Kasada团队感到自豪,这支团队真正体现了我们关怀、创新和影响力文化。”

在Kasada,重点是营造一种支持性和灵活的环境,培育个人和职业成长,激励员工茁壮成长。公司的基础建立在相互信任之上,使员工能够在自己的岗位上产生巨大影响,每天保护数亿在线用户。

最佳科技工作场所榜单使用Great Place To Work For All™方法评估组织机构。该榜单突出了全国各地致力于在工作场所促进公平的科技组织,确保他们的员工感到安全、被倾听、受到挑战和受到重视。

Great Place to Work Australia的总经理Rebecca Moulynox强调,在2024年,组织内领导力的影响比以往任何时候都更为关键。随着澳大利亚日益成为技术创新中心,尤其是在一个由人工智能和尖端技术推动的科技行业中,培养信任、鼓励创新和确保公平机会的重要性至关重要。

“这些前五十五家最佳工作场所的突出之处在于其领导层的诚信和履行承诺的决心。这种高水平的领导力培养了信任,培养了优秀的员工体验,从而改变了组织。这样的工作场所不仅吸引和培养顶尖人才,而且建立了充满活力、具有韧性的文化,推动企业增长,增强了更广泛的产业和澳大利亚商业格局的发展,”Moulynox表示。

要了解更多关于Kasada的职业机会,请访问:https://www.kasada.io/join-our-team/。


注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

DMI与Appvance合作提供生成式AI软件质量平台

Appvance和DMI已经形成战略合作伙伴关系,旨在颠覆公共和私营部门企业的软件质量格局。图片{ width=60% }


这一合作关系标志着双方致力于通过利用生成式AI的力量加速数字转型,赋予组织提升竞争力和运营敏捷性的能力。

“我们很高兴与Appvance建立战略伙伴关系,为我们的客户提供变革性的人工智能解决方案”,DMI公司首席技术官Gary Wang表示。“这一合作关系为实现更快的应用交付、更低的成本和更高的质量提供了自主和持续软件测试的技术和服务,使我们的客户能够在数字现代化之旅中充满信心和效率。”

Appvance首席执行官Andre Liao补充道:“DMI向全球一些最杰出的企业、品牌和政府机构提供至关重要的技术解决方案。AIQ作为基础能力纳入AI为先的质量软件交付平台,强调了我们共同致力于加速这些高效数字客户成功的变革性数字倡议。”

AIQ检测应用程序缺陷的能力是当前所有可用技术的10倍,速度更快1000倍。DMI的客户现在有机会将AIQ集成到其软件交付基础设施中,并借助DMI/Appvance团队的综合专业知识,转向大幅缩短的发布周期,端用户满意度的显著提高,风险大幅降低,所有这些都是用更少的资源和更低的成本实现的。

要了解有关DMI/Appvance合作伙伴关系和联合解决方案的更多信息,请访问www.appvance.ai/news

探索AITechPark,了解人工智能、物联网、网络安全、人工智能技术新闻以及行业专家见解的最新进展!

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

LeddarTech、Immervision 合作,加速 ADAS、AD 感知模型培训

LeddarTech Holdings Inc.(“LeddarTech”)(纳斯达克:LDTC)和 Immervision Inc. 欣然宣布合作,旨在优化感知模型培训流程,使其更快、更具成本效益且更少依赖数据。图片{ width=60% }


LeddarTech 是一家提供专利的颠覆性基于人工智能的低级传感器融合和感知软件技术 LeddarVision™ 的汽车软件公司,用于先进驾驶辅助系统(ADAS)和自动驾驶(AD)以及停车应用。Immervision 是一家领先的先进视觉系统开发商,结合光学、图像处理和传感器融合技术。

这一联合努力结合了 LeddarTech 在基于人工智能的低级传感器融合和感知软件技术方面的专业知识以及 Immervision 在先进视觉系统领域的领导地位,形成了一种强大的协同效应,旨在改进 ADAS 和 AD 感知训练。

ADAS 中的感知技术的目标是为车辆控制系统提供准确及时的信息,使其能够做出明智的决策并在各种驾驶任务中协助驾驶员,如避撞、车道保持和自适应巡航控制。然而,开发和验证过程需要昂贵的数据收集和标记。

LeddarTech 和 Immervision 的合作旨在通过允许大规模数据重复使用来改善和显著优化这一流程。他们的研究团队取得的突破使数据可以跨多个 ADAS 和 AD 平台进行重复使用,实现了领域内的零模拟到现实差距。这意味着现有的数据资产现在可以用于新平台,大大缩短了感知模型的开发时间和成本,从而为整个系统的更快、更具成本效益的开发周期创造了条件。这种优化预计将导致 ADAS 和 AD 的更具成本效益和更安全的未来。

公司计划于 2024 年第三季度展示这项技术。

Immervision 的首席执行官 Michel Van Maercke 表示:“在 Immervision,我们与 LeddarTech 的合作是感知软件训练的一次飞跃。我们正在开创一种更快、更具成本效益的培训系统的方法,最小化对大量数据收集的需求。这一进步将减少开发先进视觉系统所带来的风险,是一项变革性技术。”“通过与 LeddarTech 的共同努力,我们打算推动 ADAS 和 AD 技术的发展,加速我们迈向更安全、更高效的自动驾驶未来。”

LeddarTech 的首席技术官 Pierre Olivier 表示:“我对这一合作充满热情,这有可能显著加速 ADAS 和 AD 解决方案的开发和部署。LeddarTech 和 Immervision 曾合作过,我们的团队共享一个关于工具和数据如何实现完全自动驾驶汽车梦想的愿景。”



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Acclinate筹集了700万美元A轮融资,加速健康平等革命

Acclinate,一个在推动多样化社区实现增强健康平等方面处于领先地位的公司,今天宣布完成了700万美元的A轮融资。图片{ width=60% }


由Cencora Ventures领投,Labcorp和Latimer Ventures也做出了重要贡献,此次融资将使Acclinate能够在临床试验多样性和健康平等领域扩大其影响力。

Acclinate的首席执行官兼联合创始人Del Smith表示:“这笔投资标志着Acclinate的一个重要里程碑,并强调了我们致力于以更大规模革新健康平等和临床试验多样性的承诺。在Cencora和Labcorp等知名医疗机构的支持下,我们有望加速在医疗行业中带来切实变革,并赋予多样化社区主动管理其健康的能力。”

Acclinate专注于通过一个独特的社区参与平台推动临床试验的多样化,该平台得到了顶级制药客户的信任,有助于使现有试验更具包容性,并规划未来进行更多样化的研究。Cencora Ventures,前身为AB Health Ventures,是AmerisourceBergen最初设立的企业风险基金,在成为全球医疗解决方案的领导者之前。该基金不仅投资于新兴的医疗保健初创公司,还为这一战略合作提供商业支持,为此次合作带来了无与伦比的专业知识和资源。这笔资金将有助于推动Acclinate的扩张,并增强其已经强大的增强临床试验多样性(e-DICT)平台。

随着Acclinate继续引领旨在促进医疗包容性和公平性的倡议,这笔资本注入将推动其使命向前迈进,让我们离一个真正对所有人都具有可访问性的医疗未来更近一步。


注意:Title、Date、Body三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Fountain Life推出Fountain Life CORE

Fountain Life CORE提供定期的、全面的、以长寿为重点的血液面板,配有Fountain Life长寿医生和健康教练的专业分析和持续指导。图片{ width=60% }


先进诊断、长寿和预防性健康公司Fountain Life今天宣布推出Fountain Life CORE,这是其新的会员套餐,为数百万美国人提供长寿和积极健康优化的切入点。
Fountain Life致力于通过在问题变成严重健康关注之前识别潜在问题,增强和保全每个会员的生活质量。该公司正在创造一种新型的预测性、预防性、个性化和数据驱动的医疗保健。通过利用信息化人工智能技术和先进的诊断测试在最早期阶段识别癌症、心脏病、代谢性和神经退行性疾病等疾病,Fountain Life赋予个人活得更长、更健康和更优化的生活。
每年$2995,Fountain Life CORE会员资格提供了一条新成员优先考虑健康并开始积极追求健康和长寿的旅程的途径。CORE包括每季度的血液测试,分析数十种生物标志物,揭示会员心血管健康、代谢健康、荷尔蒙平衡、炎症反应和营养水平的深层见解。每项测试后均由一名Fountain Life长寿医生进行远程会诊审查,该医生根据会员的生物标志物结果、生活方式、环境和遗传因素创建定制的优化计划。在医生就诊之间,CORE会员与Fountain Life认证的健康教练合作,实现定制健康计划中列出的目标。Fountain Life的方法植根于功能性医学的原则,包括在治疗症状的同时揭示健康问题的根本原因。
“Fountain Life正在根本改变健康和长寿的方法。我们意识到,传统的初级医疗保健医生常常在充分评估健康诊断以优化健康和促进长寿方面做得不够,并且通常不采用根本原因、功能性医学方法。通过我们的新CORE会员资格,我们正在为每个人打开积极健康的大门,同时也延伸我们的长寿关注。这一举措体现了我们致力于为积极管理健康和促进长寿提供资源的承诺,包括获得一些现有的最先进的诊断工具的途径。”William Kapp, MD, CEO兼联合创始人, Fountain Life。
Fountain Life CORE会员资格可通过独家Fountain Life移动应用程序体验轻松方便地管理。会员可以安排与Fountain Life医生和健康教练的血液采集和预约,随时监测他们的测试结果和长期进展,并访问广泛的长寿和与健康相关的内容库。此外,CORE会员还可以获得额外的按需诊断测试,以检测无症状的心脏疾病、癌症、神经退行性疾病和代谢功能障碍。Fountain Life中心提供一些当今最先进的健康诊断,包括AI增强的全身和脑MRI和冠状CT血管造影。
要了解有关Fountain Life的新CORE会员资格的更多信息,请访问fountainlife.com/core-membership。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB