突发!OpenAI CTO离职,Altman再发长文:感谢她做的一切,我将专注于技术和产品

文章来源:学术头条

图片来源:由GPTNB生成

“在过去的一年多时间里,我的大部分时间都花在了公司的非技术部分;现在,我希望将大部分时间花在公司的技术和产品部分。” Altman 回应道。


今日凌晨,在为 OpenAI 工作六年半之后,CTO Mira Murati 突然宣布,她即将离开公司,“想创造时间和空间来进行自己的探索”。

她在给 OpenAI 全体员工的公开信中表示,“离开自己珍视的地方永远没有理想的时机,但此时我感觉很合适”。

在加入 OpenAI 之前,Murati 曾在特斯拉从事人工智能工作。在长达六年的任期内,Murati 负责管理该公司广受欢迎的聊天机器人 ChatGPT 以及文本到图像生成器 DALL-E。

以下是 Mira Murati 的公开信全文:

大家好,
我有件事想和大家分享。经过深思熟虑,我做出了离开 OpenAI 的艰难决定。

我已经在 OpenAI 团队工作了六年半,这是我的荣幸。在接下来的几天里,我会向很多人表示感谢,但首先我想感谢 CEO Sam Altman 和总裁 Greg Brockman 对我领导技术组织的信任以及他们多年来的支持。

离开自己珍视的地方永远没有理想的时机,但此时我感觉很合适。我们最近发布的语音到语音转换和 o1 模型标志着交互和智能新时代的开始。这些成就是由你们的聪明才智和技术实现的。我们不仅构建了更智能的模型,还从根本上改变了人工智能系统学习和推理复杂问题的方式。我们将安全研究从理论领域带入实际应用,创建了比以往任何时候都更鲁棒、更一致、更可控的模型。

我们的工作使前沿人工智能研究变得直观易用,开发出能了够根据每个人的输入进行调整和发展的技术。这一成功证明了我们出色的团队合作,正是由于你们的才华、奉献和承诺,OpenAI 才站在了人工智能创新的顶峰。

我之所以要离开是因为想创造时间和空间来进行自己的探索。目前,我关注的重点是尽己所能确保平稳过渡,保持我们已经建立的势头。

我将永远感激有机会与这个伟大的团队一起建设和工作。我们一起在改善人类福祉的探索中突破了科学理解的界限。虽然我可能不再与你们并肩作战,但我仍然会支持你们所有人。我深深感谢与你们建立的友谊、取得的成功以及共同克服的挑战。

Mira

图片来源

对此,OpenAI CEO Sam Altman 回应道:“Murati 对 OpenAI、对我们的使命、对我们所有人的个人意义有多大,怎么说都不为过。我非常感谢她帮助我们建立和完成的一切,但我个人最感激的是她在所有困难时期给予我们的支持和关爱。我很期待她接下来的工作。”

随后,他在给 OpenAI 全员的公开信中公布了 OpenAI 的过渡计划。

他表示,除了 Murati,Bob 和 Barret 也决定离开 OpenAI,但他们是在相互独立、友好的情况下做出这些决定的。
同时,Mark 将成为 OpenAI 新的研究高级副总裁,并与 Jakub 合作领导研究团队,并担任首席科学家;Josh Achiam 将担任任务对齐主管的新角色,Kevin 和 Srinivas 将继续领导应用团队;Matt Knight 将担任首席信息安全官。他们都直接向 Altman 汇报工作。

值得注意的是,Altman 表示他将在 Murati 离开后专注于技术和产品。“在过去的一年多时间里,我的大部分时间都花在了公司的非技术部分;现在,我希望将大部分时间花在公司的技术和产品部分”。领导层的变动是公司的自然规律,尤其是那些发展如此迅速、要求如此苛刻的公司。显然,我不会假装这次变动如此突然是很自然的,但我们不是一家普通的公司,而且我认为 Murati 向我解释的原因(时机永远不对,任何不唐突的事情都会泄露出去,她想在 OpenAI 处于上升期时做这件事)是有道理的。我们明天可以在全员大会上进一步讨论这个问题。感谢你们的辛勤工作和奉献。

本文链接:https://www.aixinzhijie.com/article/6846840

转载请注明文章出处


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Nature子刊,川大团队机器学习结合MD,预测蛋白质变构,助力药物研发

编辑 | 萝卜皮

变构药物为现代药物设计提供了一条新途径。然而,识别隐蔽的变构位点是一项艰巨的挑战。


四川大学蒲雪梅教授、邵振华研究员团队提出了一种先进的计算流程,结合残基驱动的混合机器学习模型(RHML)和分子动力学(MD)模拟,成功识别出了变构位点、变构调节剂,并揭示了它们的调控机制。

具体而言,在 β2 肾上腺素能受体(β2AR)中,团队发现了位于残基 D79^2.50、F282^6.44、N318^7.45和S319^7.46 附近的一个新的变构位点及潜在调节剂 ZINC5042。通过分子力学/广义 Born 表面积(MM/GBSA)和蛋白质结构网络(PSN)的分析,进一步揭示了变构效力及调控机制。

该研究以「Integrative residue-intuitive machine learning and MD Approach to Unveil Allosteric Site and Mechanism for β2AR」为题,于 2024 年 9 月 16 日发布在《Nature Communications》。

变构作用是一种关键的生物调控机制,涉及远程位点的结构和动态变化,广泛存在于各种生物过程中。变构药物通过非竞争性结合调节蛋白活性,具有更高的选择性和更低的毒性,已用于治疗癌症、神经精神疾病和免疫疾病。

虽然 MD 模拟可帮助识别隐匿的变构位点,但其数据量大,难以手动分析,并可能受人为偏见影响。为此,结合机器学习可提高识别变构位点的效率,并为药物开发提供新方法,尤其是针对 GPCR 类药物,如 β2AR 的变构位点识别,具有重要意义。然而,现有方法仍存在局限性,需要进一步发展无偏通用的识别方法。

在最新的研究中,四川大学蒲雪梅、邵振华团队结合无监督聚类和可解释的深度学习多分类模型,探索了一种残留直观混合机器学习(称为 RHML)框架。

通过该框架,研究人员可以解决类别标签缺失的问题,实现具有残基级可解释性的准确分类,从而识别涉及变构位点的重要残基。

具体来说,首先进行广泛的高斯加速分子动力学 (GaMD) 模拟以增强采样,从而构建足够的构象空间。利用构象空间,构建了一个残基直观混合机器学习(RHML)框架,该框架由无监督聚类和基于可解释卷积神经网络(CNN)的多分类器组成。

使用 RHML,研究人员可以确定最佳簇数(标签)和变构位点打开时的构象状态。然后,通过 FTMap 结合 RHML 的 LIME 解释器识别变构位点。根据识别的变构位点,从两个化合物数据集中筛选出潜在的变构调节剂。

通过常规 MD(cMD)、结合能分析、结构分析和调控通路分析进一步探讨变构位点/药物的调控作用及其调控通路。

最后,通过 cAMP 积累试验、β-arrestin 募集试验和定点诱变实验进行实验验证。总的来说,这项工作涉及六个系统、15 μs GaMD 模拟和 22.5 μs cMD 模拟。

在确定假定的变构位点和筛选相关的调节剂之后,研究人员进一步探究它们与正构位点和活性区域等功能域的通信。

研究人员期望它将成为 MD 领域的一种有价值的工具,用于辅助变构位点识别和与构象分析相关的其他 MD 任务。

框架代码:https://github.com/chyannn06/RHML

论文链接:https://www.nature.com/articles/s41467-024-52399-y


。注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要按照格式标准输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

刚刚,Llama 3.2 来了!支持图像推理,还有可在手机上运行的版本

今天凌晨,大新闻不断。一边是 OpenAI 的高层又又动荡了,另一边被誉为「真・Open AI」的 Meta 对 Llama 模型来了一波大更新:不仅推出了支持图像推理任务的新一代 Llama 11B 和 90B 模型,还发布了可在边缘和移动设备上的运行的轻量级模型 Llama 3.2 1B 和 3B。


不仅如此,Meta 还正式发布了 Llama Stack Distribution,其可将多个 API 提供商打包在一起以便模型方便地调用各种工具或外部模型。此外,他们还发布了最新的安全保障措施。

真・Open AI 诚不我欺!各路网友和企业都纷纷激动地点赞。要知道,现在距离 7 月 23 日 Llama 3.1 发布才刚刚过去 2 个月。

Meta 首席AI科学家Yann LeCun也欢快地表达了自己的喜悦:「乖宝宝羊驼!」

Meta 也借此机会重申了他们一贯的主张:「通过开源人工智能,我们才能确保这些创新能够反映和造福于其所服务的全球社区。我们将通过Llama 3.2继续推动让开源成为标准。」

Llama 家族是在今天的Meta Connect 2024大会上迎来升级的。这一次,我们终于有了可以在边缘设备和移动设备上本地运行的轻量级LLM(Llama 3.2 1B 和 3B)!同时,小型和中型版本也获得了相应更新,参数量也都各有大幅增多,因为它们都获得了一个重大升级:可以处理视觉数据了!也因此,它们的模型卡都加上了Vision标签。

  • Llama 3.1 8B 升级成 Llama 3.2 11B Vision
  • Llama 3.1 70B 升级成 Llama 3.2 90B Vision

Llama系列模型发布至今不过一年半时间,其取得的成就着实让人惊叹。Meta表示:今年,Llama实现了10倍的增长,并已经成为「负责任创新」的标准。Llama持续在开放性、可修改性和成本效率方面保持领先地位,并且足以与封闭模型竞争 —— 甚至在某些领域还处于领先地位。

Meta表示:「我们相信开放能推动创新并且是正确的前进道路,因此我们会继续分享我们的研究并与我们的合作伙伴和开发者社区合作。」

现在我们马上就可以开始上手体验:

目前Llama 3.2最大的两个模型11B和90B都支持图像推理,包括文档级的图表理解、图像描述和视觉定位任务,比如直接根据自然语言描述定位图像中的事物。

举个例子,用户可以提问:「去年哪个月的销售情况最好?」然后Llama 3.2可以根据可用图表进行推理并快速提供答案。

至于轻量级的1B和3B版本,则都是纯文本模型,但也具备多语言文本生成和工具调用能力。Meta表示,这些模型可让开发者构建个性化的、在设备本地上运行的通用应用 —— 这类应用将具备很强的隐私性,因为数据无需离开设备。

在本地运行这些模型具有两大主要优势:

  • 提示词和响应可以带来即时完成的感觉,因为处理过程都在本地进行;
  • 本地运行模型时,无需将消息和日历等隐私信息上传到云端,从而保证信息私密。由于处理是在本地进行,因此可让应用判断哪些任务可以在本地完成,哪些需要借助云端的更强大模型。

模型评估

Meta也发布了Llama 3.2视觉模型的评估数据。整体来说,其在图像识别等一系列视觉理解任务上足以比肩业界领先的基础模型Claude 3 Haiku和GPT4o-mini。另外,在指令遵从、总结、提示词重写、工具使用等任务上,Llama 3.2 3B模型的表现也优于Gemma 2 2.6B和Phi 3.5-mini;同时1B的表现与Gemma相当。

具体来说,Meta在涉及多种语言的150多个基准数据集上对Llama 3.2进行了评估。对于视觉LLM,评估基准涉及图像理解和视觉推理任务。

视觉模型

Llama 3.2 11B和90B模型是首批支持视觉任务的Llama模型,因此Meta为其配备了支持图像推理的全新模型架构。

具体来说,为了支持图像输入,Meta训练了一组适应器权重(adapter weight),其可将预训练的图像编码器集成到预训练的语言模型中。该适应器由一系列交叉注意层组成,这些层的作用是将图像编码器表征馈送给语言模型。为了将图像表征与语言表征对齐,Meta在「文本 - 图像对」数据上对适应器进行了训练。在适应器训练期间,Meta选择更新图像编码器的参数,但却有意不更新语言模型参数。这样一来,便可以保持所有纯文本能力不变,让开发者可以直接使用Llama 3.2替代Llama 3.1。

具体的训练流程分成多个阶段。从已经完成预训练的Llama 3.1文本模型开始,首先,添加图像适应器和编码器,然后在大规模有噪声的成对 (图像,文本) 数据上进行预训练。接下来,在中等规模的高质量域内和经过知识增强的 (图像,文本)对数据上进行训练。

在后训练阶段,再使用与文本模型类似的方法进行多轮对齐,这会用到监督式微调、拒绝采样和直接偏好优化。他们还使用了合成数据生成,具体做法是使用Llama 3.1模型来过滤和增强在域内图像上的问题和答案,并使用一个奖励模型来给所有候选答案进行排名,从而提供高质量的微调数据。此外,为了得到高安全性且有用的模型,Meta还添加了安全缓解数据。

最终,Meta得到了一系列同时支持图像和文本提示词的模型,并且有能力在图像和文本组合数据上执行深度理解和推理。Meta说:「向着具备更丰富智能体能力的Llama模型,这是迈出的又一步。」

轻量级模型

正如Meta在发布Llama 3.1时提到的,可以利用强大的教师模型来创建更小的模型,这些模型具有更好的性能。Meta对1B和3B模型进行了剪枝和蒸馏,使它们成为首批能够在设备上高效运行的轻量级Llama模型。

通过剪枝技术,能够在尽量保留原有知识和性能的前提下,显著减小Llama系列模型的体积。在1B和3B模型的开发过程中,Meta采用了一次性的结构化剪枝策略,这一策略从Llama 3.1的8B衍生而来。具体来说,Meta系统地移除了网络中的某些部分,并相应地调整了权重和梯度的规模,从而打造出了一个体积更小、效率更高的模型,同时确保了它能够维持与原始网络相同的性能水平。

在完成剪枝步骤之后,Meta应用了知识蒸馏技术,以进一步提升模型的性能。

知识蒸馏是一种通过大型网络向小型网络传授知识的技术,其核心思路是,借助教师模型的指导,小型模型能够实现比独立训练更优的性能。在Llama 3.2的1B和3B模型中,Meta在模型开发的预训练阶段引入了Llama 3.1的8B和70B模型的输出,用作训练过程中的token级目标。

在post-training阶段,Meta采用了与Llama 3.1相似的方法 —— 在预训练模型的基础上进行多轮对齐,其中每一轮都包括监督式微调(SFT)、拒绝采样(RS)和直接偏好优化(DPO)。

具体来说,Meta将上下文窗口长度扩展到了128K个token,同时保持与预训练模型相同的质量。

为了提高模型的性能,Meta也采用了生成合成数据的方法,他们筛选高质量的混合数据,来优化模型在总结、重写、遵循指令、语意推理和使用工具等多种能力。

已经有动作快的网友对Meta新发布的轻量级模型进行了测试。他表示新的1B模型的能力好得出人意料,毕竟这个模型的参数量如此之小。具体来说,他让Llama 3.2 1B分析了一个完整的代码库,结果发现其表现虽不完美,但已经相当优秀了。

Llama Stack 发行版

在七月份,Meta就发布了关于Llama Stack API的征求意见稿,这是一个标准化的接口,用于规范工具链组件(微调、合成数据生成)来定制Llama模型并构建代理应用程序。从那时起,Meta一直在努力使API成为现实,并为推理、工具使用和RAG构建了API的参考实现。

此外,Meta还引入了Llama Stack Distribution,作为一种将多个API提供者打包在一起的方式,以便为开发人员提供一个单一的端点。Meta现在与社区分享一个简化和一致的体验,这将使开发者能够在多种环境中使用Llama模型,包括本地、云、单节点和设备上。

Meta发布的完整系列包括:

  1. Llama CLI(命令行界面),用于构建、配置和运行Llama Stack发行版
  2. 多语言客户端代码,包括Python、Node、Kotlin和Swift
  3. Llama Stack Distribution Server和Agents API Provider的Docker容器
  4. 多个发行版
    • 通过Meta内部实现和Ollama提供的单节点Llama Stack发行版
    • 通过AWS、Databricks、Fireworks和Together提供的云Llama Stack发行版
    • 通过PyTorchExecuTorch在iOS上实现的设备上Llama Stack发行版
    • 由Dell支持的本地Llama Stack发行版

系统级安全

Meta表示,采取开源的方法有许多好处,它有助于确保世界上更多的人能够获得人工智能提供的机会,防止权力集中在少数人手中,并通过社会更公平、更安全地部署技术。「随着我们继续创新,我们也希望确保我们正在赋予开发者构建安全和负责任的系统的能力。」

在先前的成果和持续支持负责任创新的基础上,Meta已经发布了最新的安全保障措施:

  • 首先,他们发布了Llama Guard 3 11B Vision,它旨在支持Llama 3.2的新图像理解能力,并过滤文本 + 图像输入提示或这些提示的文本输出。
  • 其次,由于Meta发布了1B和3B的Llama模型,用于更受限的环境,如设备上使用,他们还优化了Llama Guard,大幅降低了其部署成本。Llama Guard 3 1B基于Llama 3.2 1B模型,经过剪枝和量化,其大小从2,858MB减少到438MB,使其部署变得更加高效。

这些新解决方案已经集成到Meta的参考实现、演示和应用程序中,并且从第一天起就可供开源社区使用。

参考链接:https://ai.meta.com/blog/llama-3-2-connect-2024-vision-edge-mobile-devices/



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

机器学习辅助催化剂设计,天大团队开发通用且可解释的描述符

编辑 | KX

低成本、高效的催化剂高通量筛选对于未来的可再生能源技术至关重要。可解释的机器学习通过提取物理意义来加速催化剂设计,但面临着巨大的挑战。


近日,天津大学巩金龙教授、赵志坚教授、张鹏教授团队开发了一种通用且可解释的描述符模型 ARSC,用于统一多种电催化反应的活性和选择性预测。

该模型仅利用易于获取的内在属性,成功地解耦了双原子位点的原子属性(A)、反应物(R)、协同(S)和配位效应(C)。

在 ARSC 的驱动下,研究人员可以快速找到各种产品的最佳催化剂,而无需进行 50,000 多次密度泛准功能理论计算。

该模型的普适性已得到大量已报道的研究和后续实验的验证,其中 Co-Co/Ir-Qv3 被确定为最佳的双功能氧还原和析氧电催化剂。该研究为高维系统的智能催化剂设计开辟了道路。

相关研究以「Machine learning-assisted dual-atom sites design with interpretable descriptors unifying electrocatalytic reactions」为题,于 9 月 17 日发表在《Nature Communications》上。

图片

论文链接:https://www.nature.com/articles/s41467-024-52519-8

电催化反应催化剂设计

通过电催化反应活化小分子已成为实现「碳中和」的一种有前景途径,例如 O2、CO2 和 N2 还原反应 (ORR、CRR 和 NRR) 以及析氧反应 (OER)。

双原子催化剂 (DAC) 是单原子催化剂 (SAC) 的延伸,由于其复杂而灵活的活性位点,特别有利于电催化。然而,催化剂设计的一个重大挑战在于开发通用描述符模型,从而准确捕捉几何结构和电子结构之间复杂的相互作用。

当前,已经报道了许多值得注意的描述符,有效地揭示了 SAC 或 DAC 的结构-性能关系。然而,综合考虑其可靠性、实用性和普适性,能够统一多种反应同时解决实验和理论结果的最佳低成本描述符仍然难以捉摸。

可解释的机器学习 (ML) 能够在高维系统中提炼通用描述符模型。符号回归算法是催化领域应用最广泛的可解释ML。识别通用描述符的关键在于基于物理…

查看原文


图片

通用且可解释的描述模型 ARSC

在此,天津大学研究团队通过双原子位点易于获取的属性来准确捕捉原子属性、反应物、协同效应和配位效应。

通过物理上有意义的特征工程和特征选择/稀疏化 (PFESS) 方法开发了一种通用且可解释的描述模型 ARSC。

PFESS 的物理意义基于对 d 带理论和前线轨道(Frontier orbitals,FO)理论的结合。它统一了多种电催化反应(ORR、OER、CRR 和 NRR)的活性和选择性预测,并说明了 d 轨道重叠度在双原子位点反应中的重要作用。

图片

图示:通用工作流。(来源:论文)

ARSC 模型框架主要包括四个部分:

(i)通过 d 带形状分析实现原子性质效应的原始描述符(ϕxx);

(ii)基于反应物效应的潜在理想…

查看原文


图片

其中 β 和 γ 是非负指数,由 R 和 S 对吸附的重要性决定。

计算进一步表明,FO 的形状与 d 带形状密切相关,表明 FO 和所有 d 轨道都可以有效地描述 DAC 的构效关系,且精度相当。

通过绘制原始描述符 ϕxx 与 ∆G(z) − ∆Gopt(z) 的关系图,成功统一了多种电催化反应,包括 ORR、OER、CRR 和 NRR。因此,∆G(z) − ∆Gopt(z) = 0 (ϕopt) 处的不同 ϕxx 值表示同核双原子位…

查看原文



完整内容请查阅原文链接。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Tachyum在捷克共和国新设办公室,扩大欧洲中心

Tachyum® 今天宣布在捷克共和国布尔诺开设新岗位,以支持公司在接近完成 Prodigy 通用处理器芯片量产之际的持续增长。图片{ width=60% }


首批已招募的硬件工程师将于11月1日开始上班。

布尔诺位于蓬勃发展的中欧技术区的中心地带,不断吸引国际公司、创新和人才。因此,这是 Tachyum 吸引符合资格的 IT 专业人士的理想地点,他们有兴趣在数据中心中实现前所未有的性能、功耗效率和成本优势,解决大数据分析、深度学习、移动和大规模计算中的最复杂问题。

捷克共和国以硬件设计和软件工程人才闻名,特别是布尔诺周边地区。对于捷克的有能力的硬件和软件工程师来说,Tachyum 带来了一个无与伦比的机会,从当前水平发展到高速的领先的通用微处理器设计。这将推动捷克共和国在欧盟内部的先进半导体产业向前发展。

Tachyum 已进入 Prodigy 开发的最后阶段,成为吸引高素质、世界一流工程师和科学家的磁铁。公司正在寻找在布尔诺位置担任 CPU 硬件设计和验证工程师;各种系统软件移植、性能优化、软件测试和测试自动化的软件工程师;以及进行高级 AI 课题的工程师的高级专业人员和人才。

布尔诺靠近 Tachyum 在斯洛伐克布拉迪斯拉发的欧洲总部,确保了共同任务上的有效合作与协作。公司的斯洛伐克设施拥有一处占地 7,000 平方英尺的现代化 Class-A 办公室的研发校园,配备了内部数据中心、实验室和质量保证基础设施。

“Tachyum 由一群执行层的幻想家组成,拥有数百年的共同经验,开发先进的数据、网络和存储处理芯片和系统,”Tachyum 创始人兼首席执行官 Radoslav Danilak 博士说道。“因此,这对欧洲有经验和新手人才来说都是一个理想的工作场所。通过我们扩大到布尔诺的地理优势和最近 IT 巨头的动荡,我们期望能找到一大批对加入我们使命感兴趣的合格专业人才。”



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Cato Networks荣膺Frost & Sullivan颁发的SASE领域AI领导力奖

Cato Networks在SASE领域以AI最佳实践获得2024年Frost & Sullivan开启技术领导力奖。图片{ width=60% }


Cato Networks,作为SASE领先者,今天宣布其凭借SASE领域的AI最佳实践赢得了2024年Frost & Sullivan开启技术领导力奖。

Cato Networks产品营销和战略联盟副总裁Eyal Webber-Zvik表示:“虽然AI可能看起来很新,但自从2016年推出产品以来,我们就一直在Cato SASE云平台中利用这项技术。”他继续说道:“Frost & Sullivan对Cato如何以AI最佳实践引领SASE市场的认可,进一步验证了我们在我们创造的类别中的领导地位。”

Frost & Sullivan的开启技术领导力奖表彰处于创新和成长前沿的公司。这些公司通过创新和创建满足不断变化的客户需求的新产品、解决方案和服务巩固其领导地位。

根据Frost & Sullivan的说法,“Cato Networks在利用Cato SASE云平台上的AI/ML在安全和网络解决方案上有着广泛、创新和有远见的愿景”。一些例子包括:

安全 - 威胁检测和响应:通过Cato XDR,Cato使用自定的大语言模型(LLMs)将复杂的威胁数据转化为客户特定报告的易读文本,如“威胁情报评估”,Frost & Sullivan表示“很少有(竞争对手)可以匹敌”。

安全 - 数据保护:通过Cato CASB,Cato利用AI/ML完成应用程序活动和元数据分析。通过Cato DLP,Cato使用专有的AI模型进行数据分类和数据匹配。

网络:Cato应用AI评估和改善Cato SD-WAN的网络连接性能。

Frost & Sullivan的网络安全行业总监Toph Whitmore表示:“对于Cato Networks来说,将AI融入SASE不仅仅是为了为其客户提供更好的安全性和更快的连接性,更是其整个SASE服务的网络安全平台的重要差异化因素。”



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Oneview Healthcare宣布与CHOC新合作伙伴关系

Oneview Healthcare,全球医疗技术领导者,自豪地宣布与橙县儿童医院(CHOC)签署协议。图片{ width=60% }


这标志着Oneview Healthcare取得重要里程碑,首次商业采用新产品MyStay Mobile,并巩固了Oneview作为全球领先儿童医院的首选合作伙伴的地位。
根据这项新协议,Oneview将与CHOC的电子病历系统集成,将其基于云的护理体验平台(CXP)部署在Samsung Healthcare Grade电视上,覆盖住院和门诊护理点。
MyStay Mobile将与客房电视相辅相成,为患者和家属提供在其自有设备上获取教育、信息和订餐服务的机会。这一新产品旨在通过提供与现代医疗消费者期望一致的无缝数字体验,赋予患者掌握权。
“我非常高兴与Oneview进入这一新合作伙伴关系。” CHOC的首席技术官Adam Gold表示,“为患者和患者家属提供最佳解决方案对我来说至关重要,这一合作将使我们能够提供与我们使命一致的体验。”
“Oneview Healthcare的战略与创新副总裁Aaron Box表示:“我们非常高兴与CHOC这样一个真正的儿科护理领导者合作。CHOC致力于提供杰出和创新的护理,这与Oneview的使命深深共鸣。通过将我们的MyStay Mobile产品与Oneview动力患者电视集成,我们旨在为CHOC的患者和家人提供一个独特且个性化的数字护理体验。”



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Nebius将投资10亿美元以上在欧洲建立人工智能基础设施

建设工程包括扩建现有设施;通过共用机房部署额外容量;以及在绿field站点新建GPU集群。图片{ width=60% }


Nebius还宣布在巴黎启动新的GPU集群
巴黎集群将是欧洲首批提供NVIDIA H200 Tensor Core GPU的之一。
Nebius(纳斯达克:NBIS),一家人工智能基础设施公司,今天宣布在巴黎启动新的GPU集群,作为该公司计划到2025年中旬在欧洲投资超过10亿美元的一部分。
Nebius的创始人兼首席执行官Arkady Volozh表示:“我们处于一个需要深度技术和大量资本的新行业。我们在芬兰的数据中心已经为全球的人工智能开发人员提供最新的高性能计算、工具和服务。在巴黎新建GPU集群的增设是我们扩大欧洲人工智能能力计划的下一个步骤,我们将Nebius发展成为全球领先的人工智能基础设施公司。”
Nebius在巴黎的新GPU集群将是欧洲首批提供NVIDIA的H200 Tensor Core GPU的之一。作为NVIDIA的云和OEM合作伙伴,Nebius还将是首批在2025年将NVIDIA最先进的Blackwell平台带给客户的公司之一。
通过其在芬兰Mäntsälä的高度能源效率数据中心,Nebius已经是欧洲主要GPU容量提供商之一。Nebius的人工智能基础设施建设战略结合了在欧洲主要是在绿地站点新建数据中心的投资以及在其现有设施额外部署共存和容量的工作。在欧洲,Nebius已经签署了建造两个新数据中心的意向书。该公司还已经开始扩建其在芬兰的数据中心。
这些投资–包括自今年初以来部署约2亿美元–将使公司能够达到数千个GPU的总容量,以为全球客户提供其高度差异化的人工智能云解决方案。Nebius正根据全球人工智能行业的需求进行定制设计,并倚重于跨硬件、软件和机器学习的深度技术专长。该公司500多名工程师团队拥有数十年打造世界一流技术基础设施的经验,以及一支内部的LLM研发团队。


注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Echo Spot评论:亚马逊的Alexa瞄准卧室

亚马逊最新试图取代普通床头闹钟的产品是改进版的Echo Spot,配备了扬声器和小屏幕,可定制Alexa时钟。


《卫报》的新闻报道是独立的。如果您通过附属链接购买商品,我们将获得佣金。了解更多。
新的Spot在价格和功能上处于亚马逊的Echo Show智能显示屏和基本Echo智能扬声器之间。Spot的价格为80英镑(95欧元/80英镑/149澳元),尽管在亚马逊众多的促销活动中经常可以以更低的价格购买。这是对2018年原始Echo Spot的完全重新构想,保留了半球形状,但放弃了摄像头并缩小了屏幕。屏幕是面部顶部的一个小正方形,紧挨着扬声器网格。在白天清晰明亮,足以清楚显示时间,并在夜晚调暗以不点亮房间,同时仍以红色显示时钟。

屏幕只能显示基本信息,如时间、计时器、音乐播放控件和天气图标。它不能播放视频,也不能显示来自门铃等内容的画面,不过Spot仍可以通过Alexa进行语音通话。与Echo Show 5相比,在卧室使用这个功能受限,但这并不一定是坏事。它还相当紧凑,只占据床头柜上的一个小区域。扬声器正面发出声音,能够填满小房间。对于广播和Alexa的语音来说还可以,但它缺乏音域,有些低音在70%以上的音量时消失。它的声音听起来和一个小型蓝牙扬声器差不多,但不如Echo Dot好。我必须更直接地对着它讲话,才能让它可靠地接收到我的语音指令,而与Dot相比,这导致它不会在我不想要时无意中触发,这对大多数智能扬声器仍然是一个问题。

规格

尺寸:113 x 103 x 111 毫米

重量:405克

触摸屏:2.83英寸

连接:wifi 5(ac)、蓝牙

扬声器:1.73英寸

有许多时钟表盘供选择,每种都有各种颜色选项。亚马逊已经推出了几个带有LED时钟显示的Echo Dot版本,现已停产,将Alexa定位为闹钟。这肯定有优势,特别是如果您的闹钟时间有所变化,那么您可以很容易地通过语音每晚设置新的时间,而无需在卧室里放置手机。您甚至可以对它轻声耳语,它会轻声回应。点击Spot的顶部以暂停闹钟,或者按屏幕上的小停止或暂停按钮。更好的是,您可以大声告诉Alexa停止,尽管这样做有可能唤醒整个房子。设置晚上或早晨的例行程序也使得使用智能家居设备更容易,比如晚上关闭灯光,早上拉开百叶窗,启动防盗警报和其他琐碎的事情。否则,手动指令反应迅速,无论是通过语音还是屏幕按钮。

但是您必须习惯在卧室里放置一个智能扬声器。它也没有备用电池,所以如果断电,您早上将不会被闹钟叫醒。

可持续性

Echo Spot通常可修复,并在设备停产后至少四年内接收安全更新。它含有36%的再生材料,包括铝、织物和塑料。公司为该产品发布了环境影响报告,并提供了以旧换新和回收计划。

价格

Echo Spot 2024售价79.99英镑(94.99欧元/79.99美元/149澳元)。

作为比较,Echo Pop售价44.99英镑,Echo Dot售价54.99英镑,Echo Show 5售价89.99英镑。

结论

Echo Spot是您可以获得的最好的Alexa闹钟。它几乎是一种单一用途的设备,我无法想象它在床头柜或桌子之外的任何地方会有多大用处。在到处充斥着分散注意力的显示器的世界中,这种只显示各种吸引人风格的时间的紧凑型智能扬声器和小型LCD屏幕的简洁性令人向往。您必须习惯在卧室与您在手机上具有的Google或Apple等品牌以及它们的语音助手保持同样的关系。但不要对Alexa在智能领域表现出太多的智能期待。不过,如果您需要一个小巧的、支持语音的闹钟,用于广播、闹铃和晚上关闭智能灯光,那么Echo Spot就是一个赢家。

优点:整洁的时钟显示,夜间调暗足够,不错的扬声器,Alexa和语音控制,丰富的闹钟音调,足够小巧适合床头柜。

缺点:没有真正的低音,可能存在在卧室里放有麦克风带来的隐私问题,屏幕不能显示相机或视频内容,显示屏小且看起来有些廉价,屏幕上的控件可能有些麻烦。。

Explore more on these topics

  • Amazon
  • Amazon Alexa
  • Smart speakers
  • Gadgets
  • Reviews

Share

Reuse this content.

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Cybernet 公布其新一系列基于人工智能的医疗和工业计算机

Cybernet宣布推出一整套基于人工智能的计算机,采用了Intel®和NVIDIA®最新的处理器和GPU。图片{ width=60% }


全新的CyberMed Ai3医疗AI盒式PC和CyberEdge Ai1、Ai2和Ai3工业AI盒式PC已准备彻底改变医疗和工业领域。这些AI计算机旨在紧邻数据源工作,并使用机器学习或AI推理算法提供有效的见解和分析。
全球企业现在正在使用人工智能来加速工作流程,提高生产力以及预防错误。机器视觉、预测分析和卓越的自动化控制只是AI计算带来的一些好处。这些计算机可以自动检查产品,预测设备故障发生之前的情况,甚至在没有人为输入的情况下自主引导车辆。
“Cybernet的理念一直是走在技术前沿,因此我们为医疗和工业领域开发了许多不同的AI设备,” Cybernet全球运营高级副总裁Ali Bagheri表示。“我们已经开发了一项技术,帮助世界上最大的医疗器械制造商之一,在早期结肠癌检测领域进行AI技术支持。”Cybernet制造现在将这一先进技术面向公众市场。

计算机技术的未来
CyberMed和CyberEdge计算机的关键是NVIDIA Jetson Orin™和RTX 6000 Ada GPU。这两款GPU分别可达每秒275万亿和1457万亿次操作,提供业界最佳的并行处理,为Cybernet计算机背后的核心提供支持。配合行业领先AI工具的硬件以及Cybernet在计算机设计方面的专业知识,这些新的边缘AI PC准备在各种条件下使用。

除了具备AI功能外,Cybernet的新计算机仍提供高压工作环境所需的可靠性。CyberMed Ai3已获得IEC 60601-1标准认证,确保医疗应用所需的电气安全性,而CyberEdge系列则经过IEC 60068-2-27标准的振动和冲击阻力测试。这些认证确保Cybernet的计算机为其各自的运行环境做好准备,并且不会因性能而牺牲耐用性或安全性。

虽然这些计算机存在于现代硬件的最前沿,但在设计这些新AI PC时,Cybernet并没有忽视旧设备。CyberMed Ai3和CyberEdge系列都实现了一系列现代和传统的I/O端口,与新旧设备进行接口。这确保用户无需大幅更换设备即可享受人工智能的好处。此外,Cybernet的OEM能力使其能够定制其PC,调整其产品以更好地满足客户需求。

在AI、物联网、网络安全、AITech新闻以及行业专家的深入见解方面,探索AITechPark的最新进展!



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB