Fortinet完成Lacework收购

Fortinet®(纳斯达克股票代码:FTNT),全球网络安全领导者,推动网络与安全融合的收购已于2024年8月1日生效,宣布完成Lacework的收购,后者是云安全和云原生应用保护平台(CNAPP)的先驱。图片{ width=60% }


“Lacework的加入与Fortinet致力于为客户提供创新解决方案,从而在本地和云环境中提供一致的安全性的承诺相一致”,Fortinet创始人、董事长兼CEO Ken Xie表示。“将Lacework有机开发的云原生平台与Fortinet安全组合集成,将实现最全面、全栈的人工智能驱动云安全平台,且来自单一供应商。”

与Fortinet一样,Lacework是一家以创新为先的公司,已经大力投入,从零开始构建了一个整合的云安全解决方案,为客户增加了有意义的价值。Lacework通过行业分析师的认可并最近被评为2024年《Gartner云原生应用保护平台市场指南》中的代表性供应商已获得其领先技术的认可。

除先进技术外,Fortinet还获得了多达225项专利和申请,其中许多与云安全和人工智能有关,并反映了创新重点,使得Fortinet的全球专利和申请数量将超过1800项,预计将超过最接近的三家纯粹安全供应商的总和。此次收购还带来了一支经验丰富的销售团队和一批才华横溢的工程师,他们的专业知识将对向Fortinet的客户交付行业领先解决方案至关重要。

其他资源

在Fortinet博客中了解更多有关此新闻和Lacework的云原生平台。

通过阅读Fortinet最新报告了解2024年云安全的现状。

访问fortinet.com/trust,了解更多有关Fortinet创新、合作伙伴、产品安全流程和企业级产品。

了解更多关于FortiGuard Labs威胁情报和研究以及Outbreak Alerts,提供及时应对正在发生的网络安全攻击的步骤。

阅读有关如何Fortinet客户保护其组织的信息。

在Twitter、LinkedIn、Facebook和Instagram上关注Fortinet。订阅我们的博客或YouTube。

注意:Gartner是Gartner, Inc.及/或其关联公司在美国和国际上的注册商标和服务标记,Magic Quadrant是Gartner, Inc.及/或其关联公司的注册商标,并在此处获得许可使用。保留所有权利。

Gartner不支持其研究出版物中描绘的任何供应商、产品或服务,并不建议技术用户仅选择得分最高的供应商或其他指定供应商。Gartner研究出版物包括Gartner研究组织的意见,不应被解释为事实陈述。Gartner对该研究不提供任何担保,包括但不限于对该研究的商业适销性或特定目的适用性的任何担保。

1 Gartner《云原生应用保护平台市场指南》,作者:Dale Koeppen、Charlie Winckless、Neil MacDonald、Esraa ElTahawy,2024年7月22日。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

一枚与时间赛跑的中国芯片

近期,外媒披露一则消息,称中方将发布通告,在多个领域禁用美国芯片,支持采购和使用国产芯片。这一信息与此前国内多项政策具有某种内在一致性,比如在财政部公布的计算机采购的新标准,就在多项关键部件的采购规定中,明确要求审查部件是否“在政府指定的中国信息安全测评中心及国家保密科技测评中心的网站上,通过了安全性和可靠性的测试”。


这一消息掀起了轩然大波。它意味着国产CPU的能力得到了广泛承认,也意味着其肩负的责任更加重大。

面对时代洪流,面对商业压力,面对科技铁幕,国产CPU一次次经历困难,又一次次集聚力量。最终让自身成长赶上了大势的选择,在2024年扛起科技自立自强的旗帜。

过去数十年,社会各界对国产CPU的认识经历了几次变迁。曾经很多人认为“发展国产处理器真的有必要吗?”后来,我们惊叹“留给国产芯片突破的时间不多了”。

从是否有必要,到是否来得及——中国CPU,是一枚始终在与时间赛跑的芯片。

1957 年,北京电子管厂成功制造了新中国最早的半导体器件,中国半导体产业由此拉开了大幕。但其第一次与全球信息化的洪流并轨,是在20世纪80年代。

1979年,上海元件五厂和上海无线电十四厂,联合仿制成功了8080八位微处理器。8080是英特尔在1974年推出的第二款CPU处理器,这次仿制成功,帮助中国抢占了技术机遇,也客观上推动了家用电脑走向国内市场。

随后,伴随着信息革命的到来,中国开始了第一次芯片产业化浪潮。无锡华晶、绍兴华越、上海贝岭、上海飞利浦和首钢 NEC 等多家集成电路公司相继成立。国家先后开展了1986 年的“531 战略”、1990 年的“908 工程”、1995 年的“909 工程”三次半导体技术攻坚。这个时间段,有更多的产业、资本与人才投身到半导体行业当中,为后续波澜起伏的中国芯片事业奠定了多方面的基础。

尽管如此,漫长的自主化CPU探索,却没有得到多少真正的成果。伴随着中国市场的开放,以及全球技术成果的涌入,稚嫩的国产CPU迎来了世界顶尖产品的冲击。很快,这次国产化芯片浪潮没有激发太大涟漪,就淹没在了全球化的科技汪洋里。

但芯片需要自主化的种子,却已经埋下。

伴随着PC革命的到来,中国市场在千禧年前后迎来了PC与软件产业的飞速发展。这也倒逼底层技术的进步,国产芯片命题又一次被提上了日程。

但在这一阶段,面对国外竞品的大范围输入,国产CPU面临着一个漩涡:国产半导体起步晚,发展慢,生态兼容难度高,难以形成规模化效应。这又导致了后续的研发成本大,产品差距被进一步拉开。

这…

2022—2023年中国信创生态及信创PC市场发展研究报告》显示,中国信创产业进入快速发展期,信创产业正在向关键基础行业扩展,并最终延伸至全行业。国产CPU正沐浴在科技自立自强的阳光中,迎接一个新的时代。

当不确定性变成了新常态,以国产CPU为主的方向已经确定,再也没有可犹豫,可迂回的余地。

眼前的路,只剩下徐徐前进,加大研发,在中国市场内部形成良性竞争,凝结多元计算生态。反而失去庞大且具有整体性的中国芯片市场的副作用,将回馈到逆全球化者自身。

几十年中一次又一次地尝试与失败,失败与尝试,终于被证明是对的。

现在,时间终于站在了我们这边。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

沉浸式观看巴黎奥运会,这家融资3.5亿的公司做到了

“行业观察者”是我们针对人工智能、XR、元宇宙和Web3等前沿科技而设立的专栏,主要分享这些领域中的新兴企业或者创业者们的故事。Infinite Reality是一家通过人工智能和沉浸式技术为下一代数字媒体和电子商务提供动力的创新公司,于2024年7月9日宣布获得高达3.5亿美元的少数股权融资,并同时以4.5亿美元收购沉浸式网络公司Landvault。


该公司持续开发IR元宇宙的背后有着怎样的商业构想?以下是我们的第20期内容,以下Enjoy。

疫情点燃了元宇宙之火,它实现了超越现实空间的面对面交互,让许多人得到了精神慰藉。然而现在,在很多人眼里,元宇宙行业如“焚后枯木”。

再过两天,万众瞩目的巴黎奥运会就要开幕了。作为后疫情时代的第一场奥运赛事,人们期待着在这场盛会里重燃集体热情。在官方运用阿里AI技术实现“最环保”的同时,国内的视频巨头们也没有闲着,纷纷开始上线沉浸式观赛直播间,致力于提供更多维更立体的比赛效果。而这些数媒空间,正…

image

Infinite Reality的产品主要通过创建逼真的虚拟环境,来增强观众的参与度和品牌忠诚度。其技术的核心在于提供高质量的虚拟体验,这些体验可以在电脑、手机、平板和智能电视等多种设备上观看和体验。iR的产品不依赖特定硬件,使得其应用范围更广,用户体验更灵活。

Infinite Reality凭借着优质产品,其创新团队早已得到了iR Studios的欣赏和强力支持。

iR Studios是一家位于加利福尼亚的1.5万平方英尺的制作工作室,此…

image


Please note: The images linked in the text have been preserved in the Markdown format.

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

小技巧大功效,「仅阅读两次提示」让循环语言模型超越Transformer++

在当前 AI 领域,大语言模型采用的主流架构是 Transformer。不过,随着 RWKV、Mamba 等架构的陆续问世,出现了一个很明显的趋势:在语言建模困惑度方面与 Transformer 较量的循环大语言模型正在快速进入人们的视线。


令人兴奋的是,这些架构在推理期间使用了恒定量的内存。不过,受制于有限的内存,循环语言模型(LM)无法记忆并使用长上下文中的所有信息,这导致了上下文学习(in-context learning,ICL)质量的不佳。因此,获得高效大语言模型的关键挑战在于选择存储或者丢弃哪些信息。

在最近的论文《Just read twice: closing the recall gap for recurrent language models》中,来自斯坦福大学、布法罗大学的研究者通过简单观察发现,数据在推理期间涌入循环语言模型的排序极大地影响了在有限内存中预测存储哪些信息的难度。

我们假设根据文档 D(比如伽利略・伽利莱的详细维基百科)来提问:伽利略是什么时候搬到的佛罗伦萨?这时,如果提示遵循了 [Q, D] 的排序,则模型只需要记住文档 D 中的一个事实即可。相反,如果提示遵循了 [D, Q] 的排序,则模型需要记住所有事实。

因此,本文首先从理论上形式化了数据排序如何影响内存需求,然后提出两种方法来减轻对数据排序的依赖,分别是 Just-read-twice(JRT)提示策略和 JRT 循环架构。本文主要分为以下几个部分展开:

  • 理解数据排序的作用。研究者得出的第一个洞见是:记忆问题的 hardness 要降低到与设置剥离(set disjointness,SD)相同,这是通信复杂度理论中持续数十年的最典型问题。SD 要求一种流算法(比如循环模型)来决定上下文中提供的输入集是否剥离。

  • 利用「正确的」排序。本文提出了一种非常简单的 JRT-Prompt 策略,在模型生成答案之前在上下文中将信息重复多次。在第二以及更多轮次中,语言模型在决定存储哪些信息时要以完整的上下文为条件,从而有效避免了将数据排序「归正」的问题。

  • 超越因果模型。本文提出了 JRT-RNN,它的灵感来源于简单的 Prefix-LM 编码器解码器架构设计。大多数的上下文学习输入包含两部分内容,分别是输入的提示(上下文、指令)和作为输出的模型生成文本。在 Prefix-LM 架构中,LM 并没有遵循因果逻辑地处理提示区域,而对输出进行了因果解码。

更多详情请参阅原文论文。
lopedia/p/781.jpg” style=”width: 70%;”/>

论文地址:https://arxiv.org/pdf/2407.05483

项目主页:https://github.com/HazyResearch/prefix-linear-attention

JRT-Prompt 方法概览

上下文学习任务以 (C, Q, Y) 作为输入,其中 C 为一些上下文来源(如文档或代码存储库),Q 为给定上下文时对模型的一些问题或请求,Y 为答案。对于使用自回归 LM A 的标准上下文学习,研究者输入 C 和 Q,并根据正确的完成情况 Y 来评估生成的输出 Yˆ = A (C, Q)。

JRT-Prompt 是一种极其简单的方法,在提示模型输出答案之前会在上下文中重复提示中的信息,例如 Yˆ = A (C, Q, C, Q)。因此,在上下文第二次出现时,模型根据完整的上下文来决定存储哪些信息。

此外,JRT-Prompt 可以与现成的 LLM 一起使用。研究者在零样本提示下,在一系列记忆密集型上下文任务上评估了以下 LM:

  • Based 预训练 LM,参数规模为 1.3B,在 Pile 的 10 − 50B 个 token 上进行训练;
  • Mamba 预训练的 LM,参数规模为 130M、370M、1.4B 和 2.8B,在 Pile 的 300B 个 token 上进行训练;
  • Gated Linear Attention 预训练的 LM,参数规模为 1.3B 和 2.7B,在 SlimPajama 数据集的 100B 个 token 上进行训练;
  • Mamba-2 预训练的 LM,参数规模为 130M、370M、1.3B 和 2.7B,在 Pile 的 300B 个 token 上进行训练。

结果如下表 1 所示,通过增加状态(state)大小,研究者发现 JRT-Prompt 方法在各个模型和任务上平均带来了 11.0 ± 1.3 百分点的性能提升,利用该方法的 Based 模型平均优于利用标准提示的 Transformer 模型。

他们还发现,JRT-Prompt 可以使 Transformer 模型受益,并且该方法在一些任务上(附录 2)比少样本学习更加有效。值得注意的是,Springer 等人在论文《Repetition improves language model embeddings》中提出使用自回归 Transformer 模型来重复上下文以实现生成嵌入的目的,本文的研究结果也类似。研究者专注于亚二次架构和上下文学习任务。

JRT-Prompt 虽然由于重复而增加了上下文长度,但是其使用的亚二次循环架构仍比使用二次 Transformer 模型更高效。研究者发现,在序列长度 N = 32768、批大小为 16 时,使用 JRT-Prompt(序列长度 2N)在英伟达 H100 上提供的吞吐量是 FlashAttention-2(序列长度 N)的 11.9 倍。

JRT-RNN:编码器 - 解码器循环架构

JRT-RNN 的灵感来自于 Prefix-LMs,但侧重于扩展质量 - 效率权衡空间的帕累托边界(Pareto frontier)。为了提高质量,JRT-RNN 在编码器端使用了单独的 k_e 和 v_e 映射,在解码器端使用了 k_d 和 v_d 映射。虽然 Prefix LM 模型对编码器和解码器区域使用了共享映射权重,但研究者发现使用两组映射可以提高质量。

为了提高效率,JRT-RNN 为编码器使用了非因果线性注意力,而为解码器使用标准因果线性注意力。研究者称为 Prefix Linear Attention(PLA)。

JRT-RNN 训练目标。Prefix LMs 通常不计算非因果区域的损失,而 JRT-RNN 将下一个 token 预测与掩码语言建模(MLM)目标进行了结合。并且对于添加的 MLM 目标,研究者用一个 [MASK] token 替换了来自编码器区域 {u_1, …, u_M} 的比例为 P 的 tokens,并在预测原始 token 时测量了交叉熵损失。

损失如下:

实验结果

在实验中,研究者评估了 JRT-RNN 在以下三个指标上的质量和效率:

  • 上下文学习质量
  • 整体语言建模
  • 生成

上下文学习质量

如下表 2 所示,研究者发现,JRT-RNN 在参数为 360M(30B tokens)时比仅解码器的基线(Based)平均高出 13.7 个百分点,在参数为 1.3B(50B tokens)时平均高出 6.9 个百分点。

同时,JRT-RNN 在参数为 360M 和 1.3B 时与 Transformer++ 的差距分别缩小到了 0.5 个百分点和 1.9 个百分点之内。

在下表 3 中,研究者比较了当 prefill 长度 l 小于编码器长度 M 时,JRT-RNN 与同类推理策略的表现。

整体自然语言理解

根据以往研究,研究者进一步将困惑度分为了两组:联想记忆「AR slice」包括了被称为「AR hits」的 tokens,它们需要模型按照顺序执行记忆以正确地预测下一个 token;而「Other slice」包含剩余的 tokens(如记忆的知识)。

对于记忆频率,JRT-RNN 在「AR slice」表现出色。对于训练期间不常见的二元组(即不太可能在模型参数中被记住的),JRT-RNN 的困惑度相对于 Based 和 Mamba 这两个强大的因果循环基线有所改善。

对于记忆距离,在「AR slice」中,JRT-RNN 与仅解码器基线之间的差距随着上下文中重复二元组的增加而扩大。这也进一步证明了 JRT-RNN 可以帮助完成更长的上下文记忆任务。

非记忆频率。对于训练期间很少见到的二元组的非记忆「Other slice」,JRT-RNN 的困惑度比仅解码器的 LM 更差。这是意料之中的结果,因为 JRT-RNN 计算了仅解码器 LM 的 65% tokens 的损失。

我们预计这一差距会随着规模和训练时间的延长而缩小(随着二元语法频率的增加而增加)。

生成吞吐量

生成可以分解为提示「prefill 处理」和解码「下一个 token 预测」两步。相较于标准的仅解码器循环模型,JRT-RNN 不会修改解码步骤,因此讨论重点在 prefill 阶段。

使用 Simran Arora 等人论文《Simple linear attention language models balance the recall-throughput tradeof》中提出的 Based CUDAn 内核,JRT-Prompt 在处理 prefill 时吞吐量分别是 FlashAttention-2 和 FLA Triton 内核的 11.9 和 13.7 倍。

当研究者将批大小增加到 64 时,JRT-Prompt 吞吐量分别是 FlashAttention-2 和 FLA Triton 内核的 6.1 倍和 7.2 倍。

接下来他们扩展了 Based 内核以支持 JRT-RNN,并且证明了当将序列长度增加到 32768 时,吞吐量分别是 FlashAttention-2 和 FLA 的 19.2 倍和 22.0 倍。当将批大小增加到 64 时,JRT-RNN 分别又提供了 9.7 倍和 11.5 倍的吞吐量提升。JRT-RNN 所需的时间是 Based prefill 的 1.24 倍,比 JRT-Prompt 更加高效。

更多技术细节和实验结果请参阅原论文。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Transformer作者回流谷歌,Character.AI创始团队被「收购」,只要人不要公司

AI 初创者的归宿还是大厂?

一觉醒来,生成式 AI 的「吃鸡大赛」再次缩圈了。初创公司 Character.AI 周五宣布已与谷歌签署协议,谷歌将获得 Character.AI 的大型语言模型(LLM)技术的非独家许可。


谷歌还宣布重新雇佣 Noam Shazeer 和 Daniel De Freitas。其中,Noam Shazeer 是 Character.AI 的创始人、CEO,也是 Transformer 论文作者之一,他曾在谷歌任首席软件工程师。而 Daniel De Freitas 是 Character.AI 的总裁,曾在谷歌担任高级软件工程师。

Daniel de Freitas(左)和 Noam Shazeer。图源

2021 年,Noam Shazeer 和 Daniel De Freitas 因对谷歌这家搜索巨头的官僚主义感到失望而离开谷歌,并在 2022 年创办了 Character.AI。而现在,他们又将与约 30 人的研究团队一起回到 Google DeepMind 工作。谷歌发言人在一封电子邮件中表示:「我们特别高兴地欢迎 Noam 回来,他是机器学习领域的杰出研究员。」

Character.AI 剩余的大约 140 名员工将留下来,面临着下一步抉择。Character.AI 官方发布了一份公开信,内容如下:

「2022 年,我们创立了 Character.AI,旨在为全球用户带来个性化的超级智能。在过去的两年里,我们在这一目标上取得了巨大进展。我们构建了越来越智能的模型,推出了与虚拟角色对话的沉浸式新功能,并迅速发展到服务数百万用户,成为他们日常生活的一部分。」

「当 Noam 和 Daniel 创办 Character.AI 时,我们实现个性化超级智能的目标需要全栈式方法。我们必须对模型进行预训练和后训练,以保证用户在 Character.AI 上能够获得独特的体验,并构建一个能够使全球用户共同使用的平台。然而,在过去的两年里,技术环境发生了变化 —— 现在有更多的预训练模型可用。鉴于这些变化,我们认为联合利用第三方大型语言模型(LLM)和我们自己的模型将具有优势。这使我们能够投入更多资源用于后训练和为不断增长的用户群体创造新的产品体验。」

「我们很高兴地宣布,我们已与谷歌达成协议,这将使我们能够加速进步。根据该协议,Character.AI 将为谷歌提供现有 LLM 技术的非独家许可。这项协议将为 Character.AI 提供更多资金,以继续增长,并专注于为全球用户构建个性化 AI 产品。Noam、Daniel 和我们研究团队的部分成员也将加入谷歌。Character.AI 的大多数才华横溢的团队成员将继续留在公司,继续构建 Character.AI 产品并服务于我们不断增长的用户群。」

「Character.AI 的总法律顾问 Dominic Perella 已担任临时首席执行官一职。Perella 之前是 Snap Inc. 的长期高管,自 2023 年中期以来一直是 Character.AI 核心领导团队的一员。这些变动将立即生效。」

「在我们进入下一个增长阶段时,我们将继续投资于我们的后训练能力,灵活使用我们自己的或外部可用的大语言模型。我们对 Character.AI 的未来充满期待,并致力于通过创新型产品来服务我们的用户。」

「我们对 Noam、Daniel 和其他团队使 Character.AI 从梦想化为现实表示无比感激。我们期待在他们已有贡献的基础上,Character.AI 在下一个增长阶段继续航行。」

虽然在技术层面上,公司的股份没有易手,但谷歌会以 25 亿美元的估值向 Character.AI 的投资者支付其股权价值。据消息人士透露,Character.AI 的员工也将根据其已归属的股份按该估值获得现金,并且随着其现有股票转移归属,他们还将获得偿付。Character.AI 此前从包括 Andreessen Horowitz 在内的投资者处筹集了 1.93 亿美元的风险资本,其最后一次已知估值为 10 亿美元。该公司也曾在谈判中表示希望从谷歌筹集数亿美元资金。这一协议类似于微软、亚马逊等公司在过去几个月与初创公司达成的协议。这些协议正受到监管机构的审查。科技巨头正投入数十亿美元来增强其 AI 基础设施,并从初创公司中招聘最优秀的研究人员。今年 3 月,微软支付 6.5 亿美元引入 AI 初创公司 Inflection 的联合创始人及数十名员工。前 Inflection 首席执行官 Mustafa Suleyman,已成为微软执行副总裁和新成立的微软 AI 组织的首席执行官。

前 Inflection 首席执行官 Mustafa Suleyman

与之相似,6 月,亚马逊则从另一家 AI 初创公司 Adept 中招聘了多名联合创始人和员工。这场从 AI 初创公司招募人才以扩展羽翼,为业务再开发赋能的战略部署已初见端倪。大型科技企业对 AI 初创公司的「蚕食」可能才刚刚开始。

参考链接:链接1 链接2 链接3



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

BytomDAO在东京举办AI与Web3.0创新与机遇研讨会

7月27日,BytomDAO在东京举办了“AI与Web3.0的创新与机遇”研讨会,吸引了众多业内人士的参与,共同探讨AI与Web3.0领域的发展现状和未来机遇。BytomDAO的CEO Charles在开场演讲中提出了AI和Web3行业的新桥梁构想,涵盖了DAO 2.0、资产 2.0(Asset 2.0)和去中心化应用 2.0(DAPP 2.0)。


他介绍了如何通过引入AI提高DAO的决策合理性,以及如何通过DAPP 2.0的Agent生成机制满足个体需求,消除试错成本。资产 2.0则聚焦于数字资产的智能管理。Charles还谈到BytomDAO利用在日华人资源帮助项目方进入日本市场,实现资源互通。在圆桌讨论环节中,Starknet的核心开发者Cryptonerdcn、Skyland Ventures的研究员Aya等嘉宾探讨了Layer 2解决方案的现状及未来趋势。此外,ETH Panda的Bruce Xu、Talentverse的James Wu、Jsquare的Joanna、浙大区块链协会的Artist、IOSG的Jiawei和Onekey的Hanning等嘉宾也参与了圆桌二的讨论,共同展望全球AI与Web3.0的发展格局。活动的最后,参会者们积极交流,分享见解与经验。这次活动不仅加深了业内人士对AI与Web3.0的理解,也为未来的合作带来了更多可能性。

Image

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

开发者利器!XREAL Air 2 ULTRA开售,沉浸式体验AI开发

北京时间7月31日下午2点整,XREAL系列AR眼镜的最新成员XREAL Air 2 Ultra在国内正式发售,目前在京东、天猫和抖音等平台都已上线,首发价3999元。
Image1
这款AR眼镜是主要面向开发者群体打造的旗舰级产品,旨在降低广大开发者进入空间计算的门槛,推动空间计算领域革新,建立更繁荣的AR生态体系。


赋能开发者六大核心能力
作为XREAL第二款6 DoF(Six Degrees of Freedom,六自由度)全功能眼镜,XREAL Air 2 Ultra也是目前业界唯一通过双环境感知传感器(SLAM Camera)来实现空间计算的轻量化AR设备。其通过搭载双环境感知传感器硬件+软件SDK,支持高精确度和低延迟的6DoF空间定位和手势交互,这意味着AR交互体验迈入全新阶段。
Image2
6DoF技术是重塑AR沉浸体验的重要环节,在增强现实(AR)眼镜设备中具有关键作用,它赋予了全方位的空间感知能力,让用户能够在虚拟与现实之间自由穿梭。该技术利用位于XREAL Air 2 Ultra两侧的双环境感知传感器,可以识别特征点,并监控摄像头图像中显示的特征点随时间推移而发生的移动。将这些点的移动与眼镜的IMU传感器数据相结合,NRSDK就能在空间导航过程中准确追踪眼镜的位置和方向。

在6DoF运动追踪之外,XREAL基于跨平台游戏引擎Unity构建的最新软件NRSDK,进一步强化了手部追踪和手势识别功能,可供开发者开发应用,为Air 2 Ultra注入强大的生命力。其中,NRSDK的“手部追踪”功能尤为出色,不仅稳定追踪手部关键点位置,同时无缝执行手势的实时识别。识别出的手部姿势会以第一人称视角直观呈现,便于开发者在真实世界中与虚拟对象进行直观、自然、身临其境的交互。

更深入来看,在6DoF运动追踪和手势交互之外,NRSDK还具备平面检测、图像识别、深度网格、空间锚点等几大核心能力,皆可通过Ultra的硬件能力实现,全面释放眼镜的硬件潜能。
Image3

通过计算机视觉和先进算法的融合,NRSDK的平面检测功能可实时准确地识别水平和垂直平面,精准捕捉并追踪环境特征,为开发者描绘精准、动态的三维空间地图。开发者可以利用这一功能在表面上定位3D物体、构建定制场景,并根据具体要求创建交互式3D场景。

深度网格也是NRSDK提供的一项核心功能,能够实时生成带有语义标签的三角形网格表面。在处理虚拟内容时,这种网格在实时遮挡渲染和碰撞检测中发挥着关键作用,使得虚拟内容与真实环境更好的融合。与平面检测不同,深度网格能够检测和重建各种复杂表面并与其进行交互,展现出更强的多功能性。
Image4

借助图像追踪功能,NRSDK还可以识别和追踪特定的图像,让数字对象与现实世界中的物品产生空间联系,极大地扩展了AR应用的可能性。例如,NRSDK可以检测到墙上的一幅画或桌上的一本书,也可以对移动图像进行追踪,如旋转广告牌或行人手持的海报。这一图像追踪功能,可帮助开发者实现自然环境中基于图片物体的虚拟内容显示,为广告、教育、娱乐等多个领域带来实用的AR解决方案。

Image5
Image6

空间锚点是重要的AR功能,NRSDK本次为XREAL眼镜提供了空间锚点功能,并引入共享锚点机制,使不同用户都能与锚定在现实世界中的相同虚拟对象进行交互,为多人协作场景开辟了全新可能性。开发人员也能在Unity项目中轻松创建和管理空间锚点,并确保虚拟对象在物理空间中的精确定位与持久存在。

由此可见,Ultra眼镜凭借其卓越的硬件性能与NRSDK软件功能的紧密融合,为开发者铺就了一条实现全方位、沉浸式AR体验的高速通路。也由于支持了大量前述空间计算技术,Ultra眼镜在开发者之外,还面向追求AR极致体验的先锋用户以及已具备AR应用场景、追求高效解决方案的企业级市场,能成为各界探索AR世界的重要能力伙伴。

针对追求极致体验的AR先锋用户时,Air 2 Ultra打造了顶配的空间计算体验。Air 2 Ultra引行业之先,加入钛合金边框,在进一步减重、提高结构强度的同时,能够在视觉上带来强烈的高端科技感。而在显示方面,Air 2 Ultra此次将FoV(视场角)提高至52°,使得等效4米的投屏画面从Air 2的130英寸,增加至154英寸,配合更出色的边缘清晰度优化,让视野更宽广、沉浸感更强。

搭配Beam Pro使用时,Air 2 Ultra还能够实现AR业界独有的6DoF悬停的空间观影体验,虚拟巨幕如同真实存在于现实世界,具有和物理显示设备一致的真实观感。据悉,Air 2 Ultra未来还将面向用户上线产品化手势功能,并作为系统级的交互方式。而Ultra+Beam Pro的组合,可视作XREAL为AR未来打造的专属一体化开发套件。

Image7

事实上,无论是Beam Pro还是XREAL Air 2 Ultra,相比高端竞品如Apple Vision Pro,XREAL的空间计算新品们在保持高性能同时,都采取了更具竞争力的价格,为用户提供了高性价比的选择,彰显了XREAL推进AR技术普及的终极愿景。

作为引领元宇宙从抽象概念向现实落地迈进的切实产品,AR眼镜已是国内外科技圈争相关注的焦点。当苹果、谷歌、Meta等巨头都在沿自己的道路向下一代空间计算入口合流,XREAL仅用7年时间就站在了全球AR眼镜市场的最前沿,达成了全球AR眼镜行业出货量第一的实绩,并以领域绝对创新者的姿态,努力定义空间计算的现在。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

微软击败收入预测,但云服务表现不佳拖累股价

微软在最新的季度财报中表现优于分析师预测,周二透露其收入同比增长了15%。


但备受关注的Azure云计算服务的增长未能达到预期,导致微软股价在盘后交易中下跌了多达7%。公司预计将在第四季度财报中报告稳健增长,主要依赖云服务。这些服务的收入增长了29%,低于分析师预测的30%至31%,导致抛售加剧,进一步加剧了大型科技公司最近的市场困境。

在微软的财报中,首席执行官萨特亚·纳德拉试图增强市场对公司业绩的信心。纳德拉在财报声明中说:“本财年的出色表现既归功于我们的创新,也归功于客户继续对微软的信任。作为一个平台公司,我们专注于满足客户在我们的大规模平台上的使命关键需求,同时确保我们引领人工智能时代。”

微软近年来已投资了数十亿美元用于人工智能,这是一项赌注,即基于人工智能的服务将主导科技行业。该公司还全力支持ChatGPT制造商OpenAI,进一步巩固了自己作为生成式人工智能商业化中心的地位。但随着人工智能行业的尘埃落定,人们开始质疑大型科技公司转向人工智能是否能够带来这些公司所吹嘘的收入提升。

与此同时,有关美联储降息的猜测等因素导致投资者在长达一段时间的对人工智能和股价飙升的乐观情绪降温。特斯拉和谷歌的股价在上周财报发布后急剧下跌,而微软的股价也从7月初达到的高点下跌。

微软还成为本月全球技术故障的中心,该故障导致数千架航班停飞,并在各行业造成了数十亿美元的混乱。网络安全公司CrowdStrike通过向Windows系统推送一个有问题的软件更新引发了这次故障,导致它们批量崩溃。本周早些时候,微软的Azure云服务遭遇了一次规模小得多且无关的故障,导致一些国家出现网络连接问题。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

沉浸式观看巴黎奥运会,这家融资3.5亿的公司做到了

“行业观察者”是我们针对人工智能、XR、元宇宙和Web3等前沿科技而设立的专栏,主要分享这些领域中的新兴企业或者创业者们的故事。Infinite Reality是一家通过人工智能和沉浸式技术为下一代数字媒体和电子商务提供动力的创新公司,于2024年7月9日宣布获得高达3.5亿美元的少数股权融资,并同时以4.5亿美元收购沉浸式网络公司Landvault。


该公司持续开发IR元宇宙的背后有着怎样的商业构想?以下是我们的第20期内容,以下Enjoy。

疫情点燃了元宇宙之火,它实现了超越现实空间的面对面交互,让许多人得到了精神慰藉。然而现在,在很多人眼里,元宇宙行业如“焚后枯木”。

再过两天,万众瞩目的巴黎奥运会就要开幕了。作为后疫情时代的第一场奥运赛事,人们期待着在这场盛会里重燃集体热情。在官方运用阿里AI技术实现“最环保”的同时,国内的视频巨头们也没有闲着,纷纷开始上线沉浸式观赛直播间,致力于提供更多维更立体的比赛效果。而这些数媒空间,正代表着元宇宙的“新生”。

Infinite Reality从没有停下拓展元宇宙的脚步,它将联合Landvault,运用最新融资的3.5亿美元探索沉浸式技术这项业务更广阔的未来。

01.1分钟项目速览

  1. 项目名称:Infinite Reality
  2. 成立时间:2019年
  3. 产品简介:
    专注开发元宇宙技术,主要从事数字媒体和电子商务平台的开发,同时为企业开发沉浸式体验提供最先进的工具和服务.
  4. 创始人团队:
    • 首席执行官:John Acunto
    • 首席创新官:Elliott Jobe
    • 首席商务官:Amish Shah
  5. 融资情况:
    2024年7月9日,Infinite Reality宣布完成3.5亿美元的A轮融资。

02.沉浸式数字环境的引领者

自成立以来,Infinite Reality有着从一而终的使命——成为沉浸式技术的全球领导者品牌。该公司希望通过他们所提供的沉浸式体验去促进人类创造力和人际关系的发展,并为那些致力于提高未来受众参与度和培养商业品牌的公司创造无限的价值。

Image

正因如此,Infinite Reality选择了元宇宙,也对开放式的元宇宙提出了相对应的愿景:让每个品牌、创作者及观众都能掌握自己的数字体验、数据以及分发内容、商业化创作和建立社区的方式.

Infinite Reality的引擎以创建端到端Web框架而闻名,这些框架使Infinite Reality能够开发出具有卓越用户界面的虚拟空间,以此进一步推进其愿景与品牌发展.

Image

凭借在设计和创建数字空间方面的丰富经验,Infinite Reality可以改进其内容创作、付费媒体和整体参与策略. 与此同时,Infinite Reality的创新团队利用公司技术团队的平台开发专业知识,为定制元宇宙空间的客户提供咨询、设计、管理和监督等相应的帮助.

为了巩固其引领沉浸式数字环境革命的基础,Infinite Reality在最近几年里一直积极地推进海外并购项目,而这些被并购的公司在元宇宙方面都拥有一定的成绩. Infinite Reality希望通过强强联手,整合自己的团队,在扩张公司业务范围的同时,不断提高…

03.沉浸式产品的无限运用

Infinite Reality的产品主要通过创建逼真的虚拟环境,来增强观众的参与度和品牌忠诚度. 其技术的核心在于提供高质量的虚拟体验,这些体验可以在电脑、手机、平板和智能电视等多种设备上观看和体验. iR的产品不依赖特定硬件,使得其应用范围更广,用户体验更灵活.

Infinite Reality凭借着优质产品,其创新团队早已得到了iR Studios的欣赏和强力支持.

iR Studios是一家位于加利福尼亚的1.5万平方英尺的制作工作室,此前曾获得艾美奖. 拥有14个录音棚、8K分辨率的XR舞台、电子竞技竞技场、动作和体积…

通过引用原文的方式进行展示:
- 本文链接:https://www.aixinzhijie.com/article/6846332。请注意转载需标注文章出处。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Sam Altman:为防止中国超越,美国应加强AI的4大投入

OpenAI联合创始人兼首席执行官Sam Altman在华盛顿邮报,最新发布了一篇名为《Who will control the future of AI?》的深度长文。

**Sam认为,谁能掌控AI的创新和持续发展,谁就能统治未来的世界。


** 目前,美国依靠ChatGPT、Copilot 等产品,在生成式AI、大模型领域取得领先地位,但这只是阶段性并不稳固。

而中国在生成式AI领域进行了大量投资,包括基础建设(电厂、算力集群)、监管条例、技术生态以及场景化应用等,已经成为美国的头号竞争对手,并且在未来很可能会超越美国。

所以,Sam建议美国应该联合英国、德国、日本、韩国等盟友,打造一个“世界级AI联盟”实现统一的战略目标,来对抗那些信仰、价值观不同的国家,从而获得领先的主导地位。可以从以下4个方面入手。

1、制定强大的安全措施: Sam强调了网络防御和数据中心的安全创新的重要性。以防止黑客窃取大模型权重和AI训练数据等重要知识产权。
可以通过AI来自动识别和阻挠潜在的网络威胁,同时还要确保这些防御措施可以快速适应不断演变的网络攻击手段。

2、基础设施建设: 主张通过建立公私合作伙伴关系来,投资必要的物理基础设施,这包括算力中心、网络光纤、发电厂等,这些基础设施对于AI的长期发展和技术创新至关重要。在建造这些基础设施的同时,还能提供全新的就业机会是一个多赢的举措。

3、商业出口管控: 可以制定明确的出口管制和外国投资规则的重要性,以及在全球范围内构建AI系统的指导方针。包括处理数据本地化的敏感问题,确保AI技术的健康发展和应用不受到政治和地理的限制。作为实际行为,OpenAI前不久刚停止了对中国API的支持。

4、全球模式: 需要创新地思考全球如何建立AI发展和部署的规范,特别是要关注安全问题,并确保历史上被忽视的南方和其他国家能够参与进来。但这需要像处理其他全球重要问题一样,与中国进行接触并持续对话。

Sam认为,可以建设一个类似国际原子能机构的组织,将日本、英国等国家正在建立的AI安全研究所网络联合起来,并设立一个投资基金,那些遵守民主AI协议的国家可以从中获得资金,以扩大他们国内的AI算力从而获取更多的盟友支持。

关于这篇文章有478个评论,多数人认为,Sam写这篇文章只是一个“自保”的行为,希望美国政府不要把OpenAI作为眼中钉肉中刺,总是三番五次的调查、制裁他们,应该集中火力一致对外。

同时他也非常有政治头脑,知道“中美对抗”是一个非常热门且正确的话题,他通过移花接木的方式把苗头转向第三方,从而降低自身所受到的伤害。

以下是部分网友对这篇文章的评论。

Sam Altman的立场并不诚实。他只关心其开发的产品能带来哪些名利和财富,对这项技术所带来的裁员等负面消息丝毫不关心。

即便你所谓的大语言模型也并不是真正的AI,你只是在模仿、抄袭别人的东西,然后再此基础之上进行二次创新。

我有一个小型的电子商务网站,需要不停阻止OpenAI的网络爬虫,因为它行为非常糟糕。所以,我对Sam Altman持怀疑态度,因为一个真正的好人,是不可能创建这么一个极端不负责任的网络爬虫。

我同意Sam的许多观点,但他过去的行为告诉我们他不值得信任。他会说什么是明智的,什么是人们爱听的,但他所说的与行动不一致。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB