Cyware获得FedRAMP® Ready状态

Cyware为美国联邦实体提供操作化的人工智能驱动威胁情报共享,旨在加强集体防御,帮助确保关键基础设施安全。图片{ width=60% }


Cyware,作为领先的威胁情报管理、低代码/无代码自动化和网络融合解决方案提供商,今天宣布已经获得了联邦风险和授权管理计划(FedRAMP®)Ready状态。

FedRAMP®是支持联邦政府采用安全云服务的政府范围计划,通过标准化的安全和风险评估方法为云技术和联邦机构提供支持。 FedRAMP Ready状态证实了第三方评估3PAO对Cyware的准备情况,已经满足了联合授权委员会(JAB)颁布的新近引入和严格要求的授权流程。

Cyware的面向威胁的自动化旨在确保可行的网络威胁情报(CTI)迅速传达到能够及时采取行动的个人和团队,以便快速识别、理解和减轻威胁。 Cyware的网络融合中心(CFC)简化并大幅推进了情报行动 - 打破了长期阻碍或延误情报共享的障碍。

“在威胁情报自动化并在美国政府部门和机构之间操作化之前,其在加强网络防御和降低风险中的关键作用会因瓶颈和延误以及持续不断出现的潜在威胁的无法应对而急剧减弱,” Cyware的首席执行官兼联合创始人Anuj Goel表示。“ Cyware的FedRAMP Ready状态和与领先的威胁共享网络和联邦技术解决方案提供商的合作反映了我们加速和优化集体防御、加强关键基础设施安全的承诺。”



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Zennify收购Terazo,提升受监管行业AI和数据

Terazo的工程能力与Zennify的行业专业知识相结合,以满足对数据和AI转型日益增长的需求。图片{ width=60% }


Zennify是一家专注于金融服务的数据优先技术咨询公司,今日宣布收购领先的数字工程公司Terazo,后者以其AI、API和应用开发能力闻名。此次收购汇聚了Zennify在Salesforce、nCino和Databricks等平台的深厚经验,与Terazo在Twilio和Databricks等技术上的数据驱动客户参与经验。
Zennify现在将提供增强能力,通过更全面的企业范围方法交付复杂的数据项目。
“Terazo和Zennify分享帮助客户充分利用AI强大能量的共同愿景,整理数据是第一步,”Zennify首席执行官Chris Conant表示。“过去18个月,两家公司一直在投资这一愿景,但这将让我们做更多事情,更快地为客户带来更好、更可扩展的成果。”
Zennify是Salesforce的首席合作伙伴,以为银行、信用合作社、保险和财富管理公司提供创新、收入增长计划而闻名。随着Salesforce日益关注AI,客户需要更多的数据工程专业知识,以及与不同云和本地系统更深入的集成。
Terazo在平台现代化方面的专长和在数据智能运营方面的经验将使Zennify能够满足这些需求,并扩展其现有的服务提供 - 在金融服务以及包括公用事业和健康及生命科学(HLS)等受监管行业内。
“我们在数据工程、平台现代化和AI方面的实力使Terazo团队与Zennify的客户体验专业知识自然契合,”Terazo首席执行官Mark Wensell表示。“共同,我们将更好地帮助客户解决他们更多的艰难挑战。”
这次收购将为现有合作伙伴提供共同合作的新机会,共同开发基于AI的解决方案,以提高客户参与度、提高生产力并推动营收增长。
“在受监管行业,尤其是金融服务领域,对数据和软件工程专业知识的需求不断增长,”Zennify董事会观察员、Salesforce受监管行业总裁Mark Sullivan表示。“Zennify对Terazo的收购为他们的技术栈增加了数据工程专业知识,并满足了当前市场需求,确保他们能够充分利用最新的Salesforce创新技术 - 如Data Cloud和Agentforce - 并充满信心。”
“通过这次收购,Zennify正在实现战略性飞跃,赋予受监管行业充分利用数据和AI的潜力,”Databricks受监管行业高级副总裁Michael Hartman表示。“随着我们继续与Zennify合作推动数据驱动的客户参与并操作化数据智能,Terazo的AI和数据工程专业知识将成为我们受监管行业客户的资产。”
“Terazo帮助我们的客户利用AI推动业务成果,并提供实时个性化的客户体验。他们擅长基础数据工程,确保客户“AI就绪,”Twilio合作伙伴联盟副总裁Natasha Byrne表示。“通过与Zennify的合作,Terazo现在具有扩展他们在受监管行业更深入专业的规模。”
Tercera是Zennify和Terazo的投资者,将通过资金和指导继续支持合并后的公司,以支持市场扩张,并推动公司的AI能力交付模型。


注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Iceotope宣布推出KUL AI

With cutting-edge high thermal efficiency for sustained GPU performance, the Precision Liquid-Cooled 8-GPU Server unlocks maximum performance for all AI applications.图片{ width=60% }


Cutting server energy usage by up to 40%, KUL AI provides sustainability benefits whilst minimizing operational costs to deliver reliable high-performance compute. As Iceotope’s latest innovation, KUL AI enables secure data center performance even in IT locations that aren’t purpose-built, enabling AI everywhere from the distributed edge to the dedicated centralized facilities. Iceotope, the global leader in Precision Liquid Cooling (PLC), today announces the launch of KUL AI, a new solution to deliver the promise of AI everywhere and offering significant operational advantages where enhanced thermal management and maximum server performance are critical. KUL AI features an 8-GPU Gigabyte™ G293 data center server-based solution integrated with Iceotope’s Precision Liquid Cooling and powered by Intel® Xeon Scalable processors – the most powerful server integrated by Iceotope to date. Designed to support dense GPU compute, the 8-GPU G293 carries NVIDIA Certified-Solutions accreditation and is optimized by design for liquid cooling with dielectric fluids. KUL AI ensures uninterrupted, reliable compute performance by maintaining optimal temperatures, protecting critical IT components, and minimizing failure rates, even during sustained GPU operations. KUL AI Enables AI Everywhere The surge in power consumption and the sheer volume of data produced by new technologies including Artificial Intelligence (AI), high-performance computing, and machine learning, pose significant challenges for data centers. To achieve maximum server performance without throttling, Iceotope’s KUL AI uses an advanced precision cooling solution for faster processing, more accurate results, and sustained GPU execution, even for demanding workloads. KUL AI is highly scalable and proven to achieve up to 4x compaction, handling growing data and model complexity without sacrificing performance. Its innovative specifications make KUL AI the ideal solution for a range of industries where AI is becoming increasingly essential: from Artificial Intelligence research and development centers, high-performance computing (HPC) labs and cloud service provider (CSPs), to media production & visual effects (VFX) studios and financial services & quantitative trading firms. KUL AI Offers Performance and Sustainability benefits Fitting seamlessly into the KUL family of Iceotope solutions, KUL AI uses Iceotope’s market-leading Precision Liquid Cooling technology which offers several advantages from providing uniform cooling across all heat-generating server components to reducing hotspots and improving overall efficiency. Additionally, PLC eliminates the need for supplementary air cooling, leading to simpler deployments and lower overall energy consumption. Improving cost-effectiveness and operation efficiency are constant targets for Iceotope. In fact, KUL AI’s advanced thermal management maximizes server utilization, boosting compute density, cutting energy costs, and extending hardware lifespan for a lower total cost of ownership (TCO). Furthermore, KUL AI cuts energy use by up to 40%, and water consumption by 96%, and minimizes operational costs, while maintaining high thermal efficiency and meeting sustainability targets. KUL AI offers data center performance in a range of IT and non-IT environments Built with scalability and adaptability in mind, KUL AI is deployable in both data centers and, across all edge IT installations. Precision Liquid Cooling removes noisy server fans from the cooling process, resulting in near-silent operations and making KUL AI an ideal solution for busy non-IT and populous workspaces which nonetheless demand sustained GPU performance. Ideal for latency-sensitive edge deployments and environments with extreme conditions, KUL AI is sealed and protected at the server level, not only ensuring uniform cooling of all components on the GPU motherboard but also rendering it impervious to airborne contaminants and humidity for greater reliability. Crucially, PLC minimizes the risk of leaks and system damage, making it a safe choice for any critical environments. Nathan Blom, Co-CEO of Iceotope said, “The unprecedented volume of data being generated by new technologies demands a state-of-the-art solution that not only guarantees server performance but delivers on all vectors of efficiency and sustainability. KUL AI is a pioneering product delivering more computational power and rack space. It offers a scalable system for data centers and is adaptable in non-IT environments, enabling AI everywhere.” This exciting launch will be showcased for the first time at Super Computing 2024, Atlanta, 17th – 22nd November 2024. The Iceotope team will be welcoming interested parties at nVent Booth 1738.



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Aviatrix®推出Aviatrix PaaS

新推出的产品为企业云网络安全提供部署灵活性,AI 动力洞察力,加速部署和简化管理
今天,Aviatrix®推出了Aviatrix云网络安全平台即服务(Aviatrix PaaS),这是其著名云网络安全平台的新颖增强版。图片{ width=60% }


这项托管服务选项为新老企业客户提供了更广泛的选择,为企业提供快速、可扩展且经过AI增强的安全云网络解决方案,以全面托管、准备部署的方式来简化云安全和成本优化。

随着企业日益面临多样化的云网络策略,Aviatrix PaaS为降低启动时间、明显减少长期基础设施维护担忧的新实施选项。针对寻求简化网络安全同时保持可见性和控制权的企业云管理员和架构师,Aviatrix PaaS提供卓越的操作敏捷性、洞察力和可伸缩性,使企业能够以前所未有的轻松程度部署、管理和保护其云网络。

“Aviatrix PaaS代表了我们在处理云网络安全方面的范式转变,” 国际知名云计算专家、分析师、作家和演讲者David Linthicum说道。“在大多数供应商仍在努力连接基本安全和网络要点的情况下,Aviatrix实现了一些真正变革性的东西- 一款完全托管的平台,它将AI驱动的运营与企业级安全无缝集成。尤其令人印象深刻的是,他们如何成功简化了多云网络的复杂性,同时实际上增强了可见性和控制权。为安全和成本优化提供的基于AI驱动的洞察力不仅是创新的- 这正是企业需要来管理其不断增长的云环境复杂性的。这是定义下一代云网络安全的前瞻性解决方案。”

通过Aviatrix PaaS,公司将其业界领先的云网络安全平台带入新的服务型模式,将传统控制和管理层的强大功能作为可扩展的托管服务提供。通过将基础设施维护、监控和升级的复杂性外包给Aviatrix,客户可以专注于推进其云网络并保护敏感数据,而无需承担传统网络安全相关的运营开销。

“我们长期致力于解决企业面临的最棘手挑战,从防范不断升级的安全威胁到实现无缝的跨平台集成,” Aviatrix CEO Doug Merritt 表示。“我们与客户合作开发了Aviatrix PaaS,以应对其不断发展的云需求,专注于提供快速的价值交付,并使企业摆脱基础设施管理的复杂性。”

Aviatrix PaaS的关键特性包括:

全面的网络安全: 提供广泛的安全控制和可见性,利用AI驱动的洞察力实时提供网络性能、出口流量和安全事件的情报。快速、无缝扩展性: 随着企业需求增长,便于快速扩展,并轻松集成现有工具、API和系统。以客户为中心的控制: 为云管理员提供对网络健康状况的持续可见性和灵活的、SLA支持的基础设施,而无需进行实际管理。AI 动力洞察: 包括由AI驱动的预测洞察力,实现了诸如AI驱动的发现和增强出口流量到交谈机器人提供即时、智能响应等功能。降低成本: 替代昂贵的第一方和第三方硬件组件,如NAT网关,并优化数据传输,以降低云基础设施成本,同时改善安全姿态。性能和隐私优化: 网络流量永远不会离开组织的云账户- 优化性能,确保安全和隐私保护- 使安全对应用程序透明。

Aviatrix PaaS非常适合在安全用例中进行快速部署,包括云周界安全。该平台与客户现有的工具、API和系统集成,并符合行业监管要求,确保安全、可靠和合规的体验。

通过推出Aviatrix PaaS并持续致力于客户为先的创新,Aviatrix使企业能够自信地应对和适应动态的市场环境。通过赋予企业灵活性、安全性,并专注于其增长,Aviatrix确保在日益复杂的云环境中取得长期成功。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

F5推出AI网关,管理和保护AI流量和应用需求激增

F5(纳斯达克代码: FFIV)宣布早期推出 F5 AI 网关,以简化应用程序、API 和驱动企业AI采用的大型语言模型(LLM)之间的交互。图片{ width=60% }


这款强大的容器化解决方案优化了性能、可观测性和保护功能,从而降低了成本。AI 网关与 F5 的产品组合集成,为安全和运营团队提供了采用 AI 服务的无缝路径,显著提高了数据输出质量和用户体验。

根据F5的《AI应用战略状况报告》,75%的企业正在实施AI。像无数现代应用程序一样,AI 服务主要通过API进行交付和消费。然而,企业在设计和扩展会智能化的应用程序和服务方面面临许多额外挑战。作为一个例子,高效的运营需要密切监控越来越重要的度量标准,例如 GPU 计算成本和系统响应速度,以及新兴的监管合规性关注。

F5首席创新官库纳尔·阿南德(Kunal Anand)表示:“LLM正在为客户解锁新的生产力水平和增强用户体验,但它们也需要监督、推理时间的深度检查和防御新类型的威胁。” “通过满足这些新要求并与F5为API流量管理提供的受信任解决方案集成,我们让客户能够在一个更加庞大的威胁景观中自信且高效地部署由人工智能驱动的应用程序。”

现实世界的AI解决方案需要在整个数据生态系统中优化请求、响应和即时交互。F5 AI 网关观察、优化和保护大量用户和自动化变量,以提供降低成本、减轻恶意威胁和确保监管合规性。

F5 AI 网关旨在满足客户及其应用程序在其AI之旅中的理想位置。它可以部署在任何云端或数据中心,并将与 F5 的 NGINX 和 BIG-IP 平台进行本地集成,以充分利用F5在传统、多云或边缘部署中的领先应用程序安全和交付服务。此外,该解决方案的开放可扩展性使组织能够开发和定制由 F5 AI 网关执行的可编程安全性和控制。这些流程可以轻松更新和动态应用,以驱动对安全政策和合规性要求的即时遵守。

IDC的AI和自动化高级总监沙里·拉瓦(Shari Lava)表示:“在未来几年中,AI驱动的应用将成为几乎每个企业和组织的基石。” “F5将AI网关引入其服务堆栈中,使其客户能够在如何构建AI应用程序结构方面拥有更大的灵活性,同时仍具有增强的保护和模型优化。”

F5 AI 网关:

  • 通过自动检测和修复对 LLM 应用程序在 OWASP十大风险中发现的风险,提供安全性和合规性策略执行
  • 通过语义缓存从 LLM 中卸载重复任务,优化用户体验并降低运营成本
  • 简化集成流程,允许开发人员专注于构建AI驱动的应用程序,而不是管理复杂的基础设施
  • 优化负载平衡、流量路由和对本地和第三方 LLM 的速率限制,以保持服务可用性和提高性能
  • 提供一个单一的API接口,开发人员可以使用它来访问其选择的AI模型

WorldTech IT的首席技术官奥斯汀·杰拉奇(Austin Geraci)表示:“F5的AI网关是我们AI战略的重要组成部分。” “借助这项技术,我们的客户能够开发出既能处理查询激增又不降低站点和应用程序性能的内部和外部面向AI的应用程序。F5为规模化加速AI体验带来了领先的应用程序安全和交付能力。使用F5 AI 网关,单单语义缓存和智能流量路由就代表着大量成本节省,而F5服务的统一将为客户节省数百小时的集成工作。”

注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI人形机器人作画,一幅卖了800万

文章来源:机器人前瞻

图片来源:由GPTNB生成

机器人前瞻11月11日报道,这两天,一幅由机器人Ai-Da创作的图灵肖像画,在苏富比拍卖会上以110万美元(约790万人民币)的价格售出。

以110万美元售出的图灵肖像画

人形机器人Ai-Da,是英国艺术家Aidan Meller联合机器人公司Engineered Arts、牛津大学、伯明翰大学等多位人工智能专家研发的。


Ai-Da外表是女性形象,短发、大眼睛,眼睛里装有摄像头。以Ai-Da进行命名,是为了纪念19世纪的数学家Ada Lovelace——世界上第一位计算机程序员。

这幅画将图灵描绘成人工智能之神,作为苏富比数字艺术品进行拍卖。最初估价为12万至18万美元,收到了超过27个出价,并被卖给了一位来自美国的匿名买家。

Aidan Meller表示,这幅名为《A.I.God》的画作的销售收益,将有助于资助Ai-Da的新改进。

01.全球首位超真实机器人艺术家

Ai-Da,是一个包含各种不同的计算机程序、机器人技术、硅胶和人类影响的复合角色,也是世界上首位超真实的机器人艺术家,具备发声能力,可以使用大语言模型与外界交流。

Ai-Da的逼真硅胶脸是Aidan Meller和研究员Lucy Seal、数字艺术家Alex Kafousssias、3D设计师Tim Milward设计的,能够让她看起来表情生动。

机械手臂是来自利兹大学的Salah Al Abd和Ziad Basass研发的,可以让她握住铅笔,并采用了智能算法,利用计算机视觉来分析Ai-Da看到的是谁,然后由此开发了一个控制系统,根据Ai-Da的解释生成一条路径让它的手臂跟随,达到画画的功能。

机器人身体部分,则是由英国公司Engineered Arts制造。Engineered Arts在机器人的外观仿真、动作和表情模拟等方面技术能力突出,曾推出过极为逼真的人形机器人Ameca,能模仿人类的表情、动作、情绪。

人形机器人Ameca

而在Ai-Da的研发中,为了让她能够做出各种像真人一样的动作和面部表情,Engineered Arts研发了机器人操作系统Tritium和仿真机器人建造系统Mesmer。

本次拍卖的《A.I.God》,是首次拍卖的AI艺术家作品。之所以称之为“首次”,是因为不同于过去常见的AI“文生图”的创作模式,Ai-Da是直接用手、眼睛协同进行绘画的

Aidan Meller此前在一份声明中说,每次创作之前,Ai-Da都会与其研发团队“讨论”想画的内容。“创作这幅画作前,我们与她讨论了‘AI向善’的问题,这导致Ai-Da提出,她想画图灵这个人工智能发展史上的关键人物。”

在回答了关于画作风格、内容、色调和质地的问题后,Ai-Da用眼部摄像头“观察”图灵的照片并绘制草图,然后根据特定算法对照片产生的不同解读结果创造了15幅不同的图灵肖像,每幅的创作时间都在6至8小时左右。

最后,Ai-Da选择了三幅画作组合在一起,并在背景中加入图灵发明的密码破译设备“炸弹机”。

据了解,由于Ai-Da的机械手臂只能在约30厘米长、42厘米宽的小幅画布上作画,最终成品是由3D打印设备打印到更大的画布上的

02.办过多个展览

在这之前,Ai-Da已经创作了多幅作品,是个小有名气的艺术家了。

在2021年,Ai-Da在伦敦设计博物馆举办了一场名为“Ai-Da: Portrait of a Robot”的个人画展,并以其第一幅在无自我意识的情况下绘制的个人肖像画创造了历史。

2021年伦敦设计博物馆展览

2021年10月,Ai-Da在埃及展出了雕塑作品。作品是三条腿的她自己,创作灵感来自神话中斯芬克斯出给俄狄浦斯的谜语“什么生物早晨四条腿走路,中午两条腿走路,晚上三条腿走路”。

Ai-Da的雕塑作品

不过,在雕塑创作过程中,Ai-Da 仅仅提供素描草图,接着一位瑞典计算机科学家将其渲染为三维形态,最终3D 打印完成作品。

2022年,Ai-Da展出了其在英国女王的白金禧年之际为女王伊丽莎白二世所绘制的肖像画,命名为《算法女王》。

《算法女王》

Ai-Da还是第一位在英国议会发言的机器人。

在2022年英国议会对未来创意产业的一场调查听证会,当有人提问Ai-Da的作品和人类艺术家的作品有何不同时,Ai-Da的回答是“我并没有主观经验,我不是活着的,但我仍能创造艺术”

Ai-Da正在议会上发言

03.结语:AI正在重塑艺术的边界

Ai-Da的画作登上大型拍卖行并被拍出高价,让人感到新奇震惊之余,我们也更深刻地感受到,过去被标为人类独有的、具有创造特性的艺术领域,如今也成了AI进军的方向。

一些关于想象、创造、创意的标准,正在被重新解构、重新定义。Aidan Meller表示,Ai-Da 应该促进关于人工智能伦理的讨论,以及技术如何改变我们对艺术家的定义。

苏富比拍卖行对这场拍卖做出了如下声明:今天,第一件由类人机器人艺术家创作的艺术品在拍卖中创下的破纪录售价,标志着现代和当代艺术历史上的一个时刻,并反映了人工智能技术与全球艺术市场日益交汇的趋势。

而人类,应该用怎样的姿态,去面对这些前卫的数字艺术,又应该以怎样的态度界定创意的边界?一切都还有待进一步的探索。

相比众多人形机器人进厂打工、高负荷运转成为流水线上不眠不休的生产力,Ai-Da通过艺术创作展现自己的“创意”,已经为她的人类主人赚取了数百万美金。这或许,也会成为机器人们新的“谋生之路”。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

F5推出AI网关,管理和保护AI流量和应用需求激增

F5(纳斯达克股票代码:FFIV)宣布推出 F5 AI 网关的早期访问版本,以简化应用程序、API 和大型语言模型(LLM)之间的交互,推动企业 AI 采用。图片{ width=60% }


这一强大的容器化解决方案优化了性能、可观察性和保护能力,从而降低成本。与 F5 的产品组合集成在一起,AI 网关使安全和运维团队能够通过大幅改进数据输出质量和用户体验来无缝地采用 AI 服务。

根据 F5 的《AI 应用策略状况报告》,75% 的企业正在实施 AI。与众多现代应用程序一样,AI 服务主要通过 API 提供和消费。然而,企业在设计和扩展具有 AI 能力的应用程序和服务时面临许多额外挑战。例如,有效的运营需要密切监控诸如 GPU 计算成本、系统响应性以及新兴的监管合规性关注点等日益相关的指标。

F5 首席创新官库纳尔•安德(Kunal Anand)表示:“LLM 为客户解锁了新的生产力水平和增强的用户体验,但它们也需要监督、推理时的深入检查,并且防御来自新类型威胁。” F5 AI 网关通过解决这些新需求并与 F5 用于 API 流量管理的值得信赖的解决方案集成,使客户能够在极其庞大的威胁格局中自信而高效地部署基于 AI 的应用程序。

现实世界的 AI 解决方案需要优化整个数据生态系统中的请求、响应和即时互动。F5 AI 网关观察、优化和保护大量用户和自动变量,以提供成本降低、减轻恶意威胁并确保监管合规性。

F5 AI 网关旨在满足客户及其应用程序在其 AI 旅程中的理想位置。它可以部署在任何云或数据中心,并将原生集成到 F5 的 NGINX 和 BIG-IP 平台中,以充分利用 F5 在传统、多云或边缘部署中的领先应用安全和交付服务。此外,该解决方案的开放扩展性使组织能够开发和定制由 F5 AI 网关执行的可编程安全性和控制,这些过程可以轻松更新并动态应用,以驱动对安全策略和合规性法规的即时遵从。

IDC 的 AI 和自动化高级主管 Shari Lava 表示:“在未来几年,基于 AI 的应用程序将成为几乎每个企业和组织的基石。F5 将 AI 网关引入其应用程序服务堆栈,使其客户在构建其 AI 应用程序结构的方式方面具有更大的灵活性,同时仍然具有增强的保护和模型优化。”

F5 AI 网关:

  • 通过自动检测和处置 OWASP 十大 LLM 应用程序中指定风险的加强安全性和合规性政策执行。
  • 通过语义缓存减轻 LLM 的重复任务,提升用户体验并降低运营成本。
  • 简化集成流程,使开发人员可以专注于构建 AI 强化应用程序,而不是管理复杂基础设施。
  • 为本地和第三方 LLM 优化负载均衡、流量路由和速率限制,以保持服务可用性和增强性能。
  • 提供单一 API 接口,开发人员可以使用该接口访问其选择的 AI 模型。

WorldTech IT 的首席技术官奥斯汀•杰拉奇(Austin Geraci)表示:“F5 的 AI 网关是我们 AI 战略的重要组成部分。借助这项技术,我们的客户能够开发既能处理激增查询而又不影响网站和应用程序性能的内部和外部 AI 应用程序。F5 为加速规模化 AI 体验带来了领先的应用安全性和交付功能。利用 F5 AI 网关,单单语义缓存和智能流量路由就代表着巨大的成本节约,而 F5 服务的统一将为客户节省数百小时的集成工作。”。

请注意:标题、日期和正文三个部分的内容已放置到对应的位置。最后只需要输出为Markdown源文件格式内容。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI辅助披头士乐队,拿到格莱美提名

将近半个世纪后,披头士乐队再次成为格莱美奖的焦点。由AI辅助他们的曲目《Now and Then》获得了2025年格莱美奖两项提名——年度唱片和最佳摇滚表演。


图片来源:由GPTNB生成

《Now and Then》最初是约翰列侬录制的一首演示曲,他在1990年代将其交给了乐队的其他成员。当时,技术还无法清晰地将列侬的嗓音从他的钢琴声中分离出来。

2021年,电影制作人彼得·杰克逊和他的团队使用先进的AI工具成功提取了列侬的嗓音,使用一种称为“音轨分离”的方法来隔离列侬的声音并消除背景噪音,这项技术也被应用于重制披头士乐队早期的专辑,使得保罗麦卡特尼和林戈斯塔尔得以完成这首歌曲。

《Now and Then》的两项提名标志着披头士乐队几十年来首次获得格莱美奖提名,也是该乐队第四次获得年度唱片类别提名。他们在20世纪60年代中期凭借《I Want to Hold Your Hand》首次获得该类别提名,随后又凭借《Hey Jude》和《Let It Be》获得提名。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI大改下代大模型方向,scaling law撞墙?AI社区炸锅了

昨天,The Information 的一篇文章让 AI 社区炸了锅。

这篇文章透露,OpenAI 下一代旗舰模型的质量提升幅度不及前两款旗舰模型之间的质量提升,因为高质量文本和其他数据的供应量正在减少,原本的 Scaling Law(用更多的数据训练更大的模型)可能无以为继。


此外,OpenAI 研究者 Noam Brown 指出,更先进的模型可能在经济上也不具有可行性,因为花费数千亿甚至数万亿美元训练出的模型会很难盈利。

这篇文章引发了业界对于未来 AI 迭代方向的讨论 —— 虽然 Scaling Law 放缓这一说法令人担忧,但其中也不乏乐观的声音。有人认为,虽然从预训练来看,Scaling Law 可能会放缓;但有关推理的 Scaling Law 还未被充分挖掘,OpenAI o1 的发布就证明了这一点。它从后训练阶段入手,借助强化学习、原生的思维链和更长的推理时间,把大模型的能力又往前推了一步。这种范式被称为「测试时计算」,相关方法包括思维链提示、多数投票采样(self-consistency)、代码执行和搜索等。

其实,除了测试时计算,还有另外一个近来非常受关注的概念 —— 测试时训练( Test-Time Training ,TTT),二者都试图在测试(推理)阶段通过不同的手段来提升模型的性能,但 TTT 会根据测试时输入,通过显式的梯度步骤更新模型。这种方法不同于标准的微调,因为它是在一个数据量极低的环境中运行的 —— 通常是通过单个输入的无监督目标,或应用于一个或两个 in-context 标注示例的有监督目标。

不过,TTT 方法的设计空间很大。目前,对于哪些设计选择对 LM(特别是对新任务学习)最有效,人们的了解还很有限。

在一篇新论文中,来自 MIT 的研究者系统地研究了各种 TTT 设计选择的影响,以及它与预训练和采样方案之间的相互作用。看起来,TTT 的效果非常好,至少从论文标题上看,它的抽象推理能力惊人(surprising)。

具体来说,作者确定了将 TTT 有效应用于 few-shot 学习的几个关键要素:

  1. 在与测试时类似的合成任务上进行初始微调;
  2. 用于构建测试时数据集的增强型 leave-1-out 任务生成策略;
  3. 训练适用于每个实例的适应器;
  4. 可逆变换下的自我一致性(self-consistency)方法。

实验环节,研究者在抽象与推理语料库(ARC)中对这些方法进行了评估。ARC 语料库收集了很多极具挑战性的 few-shot 视觉推理问题,被认为是测试 LM 泛化极限的理想基准。目前的大多语言模型在 ARC 上均表现不佳。

ARC 推理任务示例。可以看到,这是一组类似于智力测试的问题,模型需要找到图形变换的规则,以推导最后的输出结果。

通过对这些部分的精心选择,TTT 可以显著提高 LM 在 ARC 上的性能 —— 在 1B 模型上将准确率提高到原来的 6 倍,使用 8B 模型时也超过其它已发布的 SOTA 纯神经模型方法。

事实上,他们的研究结果表明,普通的语言模型可以在 ARC 任务上达到或超过许多神经 - 符号方法的性能。

这些结果挑战了这样一个假设:解决这类复杂任务必须严格依赖符号组件。相反,它们表明解决新推理问题的关键因素可能是在测试时分配适当的计算资源,也许与这些资源是通过符号还是神经机制部署无关。

数据科学家 Yam Peleg 高度评价了这项研究:

美国 Jackson 实验室基因组学部教授 Derya Unutmaz 则表示这是一项「令人震惊的研究」,因为如果 TTT 与 LLM 相结合足以实现抽象推理,我们就有可能消除对显式、老式符号逻辑的需求,并找到实现 AGI 的可行途径。

不过,过完一关还有一关:Epoch AI 与 60 多位顶尖数学家合作打造的 FrontierMath,已经成为评估人工智能高级数学推理能力的新基准,恐怕接下来各位 AI 研究者有的忙了。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI辅助披头士乐队,拿到格莱美提名

将近半个世纪后,披头士乐队再次成为格莱美奖的焦点。由AI辅助他们的曲目《Now and Then》获得了2025年格莱美奖两项提名——年度唱片和最佳摇滚表演。


图片来源:由GPTNB生成

《Now and Then》最初是约翰列侬录制的一首演示曲,他在1990年代将其交给了乐队的其他成员。当时,技术还无法清晰地将列侬的嗓音从他的钢琴声中分离出来。

2021年,电影制作人彼得·杰克逊和他的团队使用先进的AI工具成功提取了列侬的嗓音,使用一种称为“音轨分离”的方法来隔离列侬的声音并消除背景噪音,这项技术也被应用于重制披头士乐队早期的专辑,使得保罗麦卡特尼和林戈斯塔尔得以完成这首歌曲。

《Now and Then》的两项提名标志着披头士乐队几十年来首次获得格莱美奖提名,也是该乐队第四次获得年度唱片类别提名。他们在20世纪60年代中期凭借《I Want to Hold Your Hand》首次获得该类别提名,随后又凭借《Hey Jude》和《Let It Be》获得提名。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB