王慧文回归,担当美团AI“小队长”

《智能涌现》从多个独立信源处独家获悉,原美团联合创始人、光年之外创始人王慧文如今已经回归,在美团带队探索AI应用。

王慧文所在的美团AI团队被称为GN06。


在公开的招聘需求上显示,GN06目前的主要业务方向包括情感陪伴、聊天机器人等,团队为候选人提供“没有边界的AI尝试机会”。产品和运营角色,则由王慧文面试把关。

一位接近美团的人士对《智能涌现》表示,GN06由王慧文直管,并不归属任何一个事业群。GN06在美团中的状态相对独立,专注于探索主营业务之外的方向,和美团已有的大模型团队、各业务条线中的AI团队也是相互独立。

《智能涌现》就上述信息向美团求证,截止发稿,暂无回复。

GN06的主要产品之一,是在2023年11月上线的AI情感陪伴产品Wow。Wow是美团发布的第一个独立AI应用,用户可以自由定制角色形象、性格和音色,在AI社区中进行互动。

Wow App界面

另一位知情人士对《智能涌现》表示,从今年夏天以来,GN06的招聘需求明显有迅速增加。不过,如今Wow将重点放在了出海,并押注在北美市场。

对此,招聘需求也有所印证——目前GN06的职位范围,覆盖前端、客户端、后端、产品、运营、商分等等,不少岗位都要求有海外AI产品的认知和工作背景。

近期,美团在AI应用上的动作就颇为活跃,10月末刚刚上线了一款新的AI应用“妙刷”。这是一款AI图像生成应用——用户可以在平台上选择自己感兴趣的图像模版,如小黄人、方块世界、各类ip玩偶等等,再上传人像或者物品图像,便可以生成出全新的AI图像。

妙刷小程序

美团对生成式AI的探索和兴趣,从2023年ChatGPT爆发时就已经开始。

2023年,王慧文成立“光年之外”,也是国内首批宣布下场在大模型领域创业的顶级互联网人才。彼时,美团创始人王兴就马上宣布以个人身份参与A轮投资,并出任董事。

“光年之外”在短短两个月内,完成超过2.3亿美元的A轮融资,投资方包括源码资本、真格基金等等,并迅速完成了对AI Infra公司“一流科技”的并购,迅速组建起超过70人的团队。

但紧接着,王慧文因身体原因宣布离岗就医及休养后,辞任了美团非执行董事等职位。2023年6月,“光年之外”以被美团以20.65亿元收购,而告一段落。原有的“光年之外”被收购后,一直都处于低调状态,在美团内部进行大模型探索。

不过,王慧文一直持续保持与AI领域的联系,并逐步复出。2023去年8月,原一流科技、光年之外联创袁进辉宣布重新创业新公司“硅基流动”,王慧文也作为公司顾问,参与到业务,以及硅基流动的天使轮融资中。

到了今年4月,美团CEO王兴曾发布内部邮件,称王慧文逐步恢复健康,将以部分时间作为美团顾问。

如今带队GN06,可以看作是王慧文正式回归的信号。

2023年,王慧文是首位“振臂一呼”,宣布下场创业的顶级互联网人才,迅速搅动了中国大模型领域的惊涛骇浪。

自那之后,中国AI圈经历了一整年的疾风骤雨,形成了大厂和大模型六小虎(智谱、MiniMax、月之暗面、百川智能、零一万物、阶跃星辰)的格局。到2024年,AI圈的创业主题,也已经从“成为中国版OpenAI”,演进到寻找“下一代超级应用”。

“这么伟大的事情,不参与是可耻的。”2023年宣布下场创业之初,王慧文曾在我们的访谈中表示,比起打仗型的业务,他更倾向于去天马行空地探索和创造。

也许如今正是时机。这位“狂热地相信AI改变世界,坚定确保AI造福人类”的创业者,终于要结束中场休息,以另一种方式重返战场。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI生成的内容可以被区分出来么?

当前,识别AI生成内容的技术手段均未成熟。如何在潜在风险,治理成本、目标成效之间取得合理平衡成为关键所在。


建议小步试错,探寻科学的风险管理方案。

内容治理逻辑的扩展:人类原创还是AI生成?

对于AI生成内容在未来全部信息内容中所占比例,不同机构的预测口径有所不同,从20%-90%不等。但不容否认的是:随着生成式AI技术应用的普及,AI生成内容比例正在逐步攀升。有研究显示,仅仅从2023到2024的一年间,包含AI生成内容的网页数量就激增了2848%。与此同时,内容生产模式的变革也在推动着内容治理逻辑的悄然变化,从过去针对内容性质——是否违法有害,扩展至针对内容来源——是否为AI生成。

在AI生成内容早期阶段,大模型厂商从提升模型透明度,支持权利保护等目标出发,尝试开展标识工作。特别在版权方面,尽管对AI生成内容的可版权性…

如何把AI生成内容区分出来?

区分AI生成内容首先是一个技术问题. 目前,识别的技术路径主要包括生成内容检测和来源数据追踪两个方向。前者主要通过寻找数字内容所包含的生成特征来确定内容是否由AI生成或篡改。后者则是通过对数字内容全生命周期的相关信息(是否由AI生成、修改)的独立记录来间接反映数字内容的性质。然而对于AI内容识别,目前尚缺乏成熟可靠的技术方案。

  1. 内容检测路径

内容检测是最为直观的解决方案。虽然目前在人类的感官层面,AI生成内容与人工创作内容已相差无几,但是在细节层面…

  1. 数据跟踪路径

来源数据跟踪是对“内容性质识别”的间接解决方案. 来源数据跟踪并不依赖内容本身,而是通过对于内容的变动(生成、修改等)进行记录,从侧面反映内容的真实性、完整性。当前的来源数据跟踪方法主要包括显式标识和隐式标识。

产业界对于AI生成内容标识的自发探索

在全球范围内,人工智能企业、大型网络平台基于透明度、可信赖等原则,围绕AI生成内容的标识,已自发展开探索…

AI生成内容标识:基于动态风险的治理探索

AI生成内容带来了与以往完全不同的风险,推动着各方尝试明确AI生成与人类创造的边界。然而,针对AI生成内容的标识,目前尚未形成成熟的技术解决方案。总体上,出于“防患于未然”的风险预防思路,标识工作处于一种自发探索的状态…

  1. 在不断试错验证的过程中,探寻合理的风险管理方案

建议采取开放推荐的方式,鼓励相关主体积极探索包括内容检测、数字水印等在内的多种技术方式…

  1. 基于场景区分不同主体的治理角色

对于AI生成内容,AI生成技术的提供者与部署者具有明确的主体角色差异,需适配不同规则. 例如:欧盟《人工智能法》依据主体角色的不同,相应建立了不同的标识规范…

  1. 避免大而全,将治理资源聚焦在“真正的风险领域”

全面标识听起来“大而美好”,但实质上却可能有碍于标识目的的实现,让真正具有风险的内容融入普遍被标识的信息海洋,易使公众信息过载,控制风险的作用大打折扣,在此背景下,可考虑限定标识的范围…

  1. 培养公众在AI时代的“信息素养”

多么完美的识别规则,最终也只能起到辅助判断的作用,无法替代公众对信息内容作最后的真伪判断,个人永远是自己“选择相信内容”的最终把关人. 信息爆炸的时代,越需提升对信息真实与否的敏感度…



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

调研180多篇论文,这篇综述终于把大模型做算法设计理清了

调研180多篇论文,这篇综述终于把大模型做算法设计理清了

图片

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。


如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.comzhaoyunfeng@jiqizhixin.com

本文第一作者柳斐(https://feiliu36.github.io/)是香港城市大学计算机科学系博士生,师从张青富教授。研究领域为计算智能,自动算法设计,组合优化等。姚一鸣,郭平,杨致远,赵哲和林熙来自香港城市大学张青富教授团队。陆智超为香港城市大学计算机科学系助理教授。王振坤为南方科技大学系统设计与智能制造学院助理教授。童夏良和袁明轩来自华为诺亚方舟实验室。

图片

算法设计(AD)对于各个领域的问题求解至关重要。大语言模型(LLMs)的出现显著增强了算法设计的自动化和创新,提供了新的视角和有效的解决方案。在过去的三年里,LLMs 被整合到 AD(LLM4AD)中取得了显著进展,在优化、机器学习、数学推理和科学发现等各个领域获得广泛研究和应用。鉴于这一领域的快速发展和广泛应用,进行系统性的回顾和总结既及时又必要。本文对 LLM4AD 的研究进行了系统性回顾。首先,我们概述和总结了现有研究。然后,我们沿着四个维度,包括 LLMs 的作用、搜索技术、提示策略和应用,提出了一个系统性分类和现有研究的回顾,讨论了使用 LLMs 的潜力和成就。最后,我们探讨当前的挑战,并提出了几个未解问题和未来研究的方向。

  1. 引言

算法在解决各个领域的问题中发挥着至关重要的作用,包括工业、经济、医疗和工程等领域。传统的手工设计算法的方法繁琐且耗时,需要广泛的专业知识和大量的努力。因此,人们越来越关注在算法设计中采用机器学习和计算智能技术以自动化和增强算法开发过程。

近年来,大型语言模型(LLMs)已经成为生成人工智能领域的重大突破。LLMs 以其庞大的模型规模、巨大的训练数据和在语言理解、数学推理、代码生成等各个研究领域中有着出色的表现。在过去的三年里,大型语言模型用于算法设计(LLM4AD)已经成为一个新兴的研究领域,有望增强甚至重塑算法的构思、优化和实施方式。LLMs 的强大功能和适应性展示了其在改进和转变算法设计过程中的潜力,包括启发式生成、代码优化,甚至创造针对特定问题的新算法。这种方法不仅减少了设计阶段所需的人力,还提高了算法设计过程的创新性和效率。

尽管 LLM4AD 领域正在受到广泛研究和应用,但在这一新兴领域仍然缺乏系统性综述。本文旨在通过提供一个最新的多维度的系统综述来填补这一空白,全面展示 LLMs 在算法设计中的应用现状、主要挑战和未来研究方向。本文有助于深入探讨 LLMs 在增强算法设计方面的潜力,并为这一令人兴奋的领域的未来创新打下坚实基础。我们希望这将成为对该领域感兴趣的研究人员的有益资源,并为经验丰富的研究者提供一个系统性的综述。本文的贡献如下:

  • LLM4AD 的系统综述:我们首次对过去三年中发表的 180 多篇高度相关的研究论文进行了系统综述,探讨了使用 LLMs 进行算法设计的发展。
  • LLM4AD 的多维度分类:我们引入了一个多维度分类法,将 LLM4AD 的作品和功能分为四个不同的维度:1)LLMs 在算法设计中使用的四种范式,概述了这些模型如何为算法设计做出贡献或增强算法设计;2)搜索方法,探讨了 LLMs 用于导航和优化算法设计中搜索空间的各种方法;3)提示词设计,研究了如何使用不同的提示策略;以及 4)应用领域,确定 LLMs 正在应用于解决的不同领域。
  • LLM4AD 的挑战和未来方向:我们不仅仅是对现有文献进行总结,而是对当前关于算法设计中大型语言模型(LLMs)研究的局限性进行了批判性分析。此外,我们提出了潜在的未来研究方向,包括开发领域特定的 LLMs、探索多模态 LLMs、促进人与 LLM 的互动、使用 LLMs 进行算法评估和理解 LLM 行为、推进全自动算法设计,以及为系统评估 LLM 在算法设计中的表现进行基准测试。这一讨论旨在激发新的方法并促进该领域的进一步发展。

大模型用于算法设计概览

本文旨在对新兴领域 “大语言模型用于算法设计”(LLM4AD)中现有研究工作进行系统的梳理和分类。我们并不打算涵盖所有关于大型语言模型(LLMs)和算法的文献。我们的调查范围如下所述:1)“大语言模型” 一词指的是规模足够大的语言模型。这些模型通常采用 Transformer 架构,并以自回归方式运行。使用较小模型进行算法设计的研究,如传统的基于模型和机器学习辅助的算法,不在考虑范围内。虽然精确定义 “大型” 模型具有挑战性,但大多数前沿的大型语言模型包含超过十亿个参数。使用其他大型模型缺乏语言处理能力的研究,如纯视觉模型,不在考虑范围内。然而,包括语言处理的多模态大型语言模型则在我们的调查范围之内。2)“算法” 一词指的是一组设计用来解决问题的数学指令或规则,特别是当由计算机执行时。这个广泛的定义包括传统的数学算法、大多数启发式方法,以及可以被解释为算法的某些策略。

我们介绍了论文收集和扫描的详细流程,包括四个阶段:

  1. 第一阶段 数据提取和收集:我们通过谷歌学术、科学网和 Scopus 收集相关论文。我们的搜索逻辑是标题必须包含以下两组词语中至少一组的任意组合:“LLM”、“LLMs”、“大型语言模型”、“算法”、“启发式”、“搜索”、“优化”、“优化器”、“设计”、“方法”(例如,LLM 和优化,LLMs 和算法)。在移除重复的论文后,截至 2024 年 7 月 1 日,我们共收集到 850 篇论文。
  2. 第二阶段 摘要筛选:我们检查每篇论文的标题和摘要,以有效排除不相关的论文。排除的标准包括这些论文不是英文的,不是用于算法设计的,没有使用大型语言模型的。扫描后,剩余 260 篇论文。
  3. 第三阶段 全文筛选:我们彻底审查每篇论文,排除缺乏相关内容的论文。扫描后,剩余 160 篇论文。
  4. 第四阶段补充:根据对该领域的了解,我们手动添加了一些相关的工作,以避免遗漏任何重要的贡献。在整合了额外的论文后,我们最终得到了 180 多篇论文。我们将首先介绍 LLM4AD 论文列表的概览,然后提出一个分类法来系统地回顾进展。除了组织好的论文列表之外,我们还纳入了 2024 年 7 月 1 日之后发布的一些重要出版物。

图中展示了随时间变化的论文发表数量趋势,时间线以月份表示。图表显示,与 LLM4AD 相关的研究活动显著增加,特别是注意到大多数研究是在近一年进行的。这表明 LLM4AD 是一个新兴领域,随着来自不同领域的学者意识到其巨大潜力,我们预计在不久的将来研究产出将显著增加。

图中还显示了在 LLM4AD 出版物中领先的机构及其所在国家。美国领先,紧随其后的是中国,这两个国家单独占据了 50%的出版物。接下来的八个国家,包括新加坡、加拿大和日本,共同贡献了总出版物的三分之一。发表最多论文的研究机构包括清华大学、南洋理工大学和多伦多大学等知名大学,以及华为、微软和谷歌等大型公司。这种分布强调了研究主题的广泛兴趣和它们在现实世界中的实际应用的重大相关性。

我们从所有审查过的论文的标题和摘要中生成了词云,每个词至少出现五次。它展示了前 80 个关键词,这些词被组织成四个颜色编码的簇,分别是 “语言”、“GPT”、“搜索和优化” 以及 “科学发现”。还突出显示了几个关键词,如 “进化”、“策略”、“优化器” 和 “代理”。

图片

大模型用于算法设计的四种范式

LLM4AD 论文按照大模型的结合方法可以分为四个范式:1)大模型作为优化算子(LLMaO)、2)大模型用于结果预测(LLMaP)、3)大模型用以特征提取(LLMaE)、4)大模型用来算法设计(LLMaD)。

  • LLMaO 把 LLMs 用作算法框架内的黑盒优化器。将 LLMs 整合到优化任务中,充分利用它们理解和生成复杂模式和解决方案的能力,以及在提示工程中的良好灵活性。然而,由于它们的黑盒性质,它们通常缺乏可解释性,并在面对大规模问题时面临挑战。
  • LLMaP 使用 LLMs 作为代理模型,预测结果或响应,功能上大体可以分为分类或回归两类。与其他基于模型的预测器(如高斯过程和传统神经网络)相比,1) LLMs 能够基于其在庞大数据集上接受的训练,处理和生成类人响应。这种能力使它们能够理解和解释数据中的复杂模式,适用于传统建模技术可能因数据的复杂性和复杂表示而难以应对的任务。2) 预训练的 LLMs 可以显著减少与训练高保真模型相比所需的计算负载和时间。
  • LLMaE 利用 LLMs 挖掘和提取目标问题和(或)算法中的嵌入特征或特定知识,然后在解决新问题中利用这些特征。这一过程利用了 LLMs 的独特和强大的能力,如文本和代码理解,使它们能够识别数据中可能通过传统特征提取方法无法处理或理解的模

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

平均月薪24000元,AI究竟在取代劳动力还是辅助人类工作?

《外卖骑手,困在系统里》一文直指外卖平台通过算法压缩送餐时间,使骑手们的工作难度越来越大、甚至越来越危险。同时,AI取代人类工作、自动驾驶取代千万司机等新闻不断刺激当前的“优化”环境。


那么,AI 究竟是取代劳动力,还是辅助人类工作?这成为了关键课题。

11月5日消息,钛媒体App获悉,北京大学国家发展研究院近期与智联招聘联合发布的《AI大模型对我国劳动力市场潜在影响研究》报告显示,2024年上半年招聘的 AI 相关职业当中,大语言模型方面的自然语言处理职位数同比增速111%,深度学习岗位增61%,机器人算法岗位增76%,自动驾驶的智能驾驶系统工程师增49%,导航算法增47%。

值得注意的是,报告中提到,2024年上半年,自然语言处理岗位的平均招聘月薪达到24007元,深度学习岗位月薪则达到26279元,比2023年同期增速分别为11%、2%,位列 AI 相关岗位前列。

很显然,随着ChatGPT引爆全球生成式 AI 创业热潮,AI 技术一面在提高人类生活生产效率,企业加大 AI 相关人才招聘和薪资力度,另一面不断用“智能化”取代人类部分模式化工作,失业(被AI取代)成为了无数打工人心中的阴霾,人们发现,AI 在自动化客户服务、编写文本、美术设计和生成代码等领域的应用已经越来越广泛。

高盛曾预计,全球预计将有3亿个工作岗位被生成式AI取代,包括律师、行政人员等重要岗位。

一位 AI 领域学者对钛媒体App表示,当前中国人才市场已经处于“结构性调整”当中,很多公司为了“降本增效”,开始用机器取代人类的工作,短期内造成行业人才供给不足,而长期来说,生成式AI对于人才市场和社会的影响将十分深远。

智联招聘执行副总裁李强对钛媒体App表示,互联网是处在技术发展前沿、不断创新变化的行业,因此对于大模型技术的接受和应用也更快,在相关岗位的招聘上更快做出调整,这说明企业和职场人都在积极应对技术带来的变化,而是否会出现新的用工模式变化暂时难以定论,但客服/运营、软件/硬件研发职位内部易受大模型影响的工作在明显减少。

学会投资“对赌”后

AI公司实施人才“对赌”

从尖端芯片到美元投资,中美之间在科技领域的竞争会愈演愈烈。而在 AI 领域,掌握预训练大模型技术发展的 AI 人才,已成企业之间争夺的对象,随着中美科技角力的加剧,顶尖人才资源的争夺战已然成为焦点,一场围绕人才的战略较量早已爆发。

海外方面,近期,微软AI副总裁、Phi小模型领导者Bubeck加入OpenAI;OpenAI CTO Mira Murati在离职后短期内成立了一家AI公司,已筹集超过1亿美元的风险投资,并且邀请多位OpenAI核心成员加入其中;“ChatGPT之父”、OpenAI联合创始人、前首席科学家Ilya Sutskever辞职后创立的 AI 安全公司SSI成立…



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

具身智能GPT-2时刻到了!这家国内公司已做出全球最大规模的端到端统一具身大模型——专访自变量机器人团队

近日,关于 Open AI 被投企业 Physical Intelligence (PI) 的一系列报道,让人们关注到具身智能大模型引发的机器人时代变革。目光转回国内,我们同样在中国公司中发现了这场变革浪潮的先行者。


据机器之心了解,国内初创公司自变量机器人(X Square),是国内唯一一家从第一天就选择了端到端统一大模型技术路线的公司,与 PI 的技术路线不谋而合。这家公司正在训练的 Great Wall 操作大模型系列的 WALL-A 甚至从参数规模上已经超过了 PI。今年 4 月,机器之心曾对自变量机器人公布的 Demo 进行报道,其中基于他们自研的端到端统一具身大模型,双臂机器人可利用低成本硬件即实现对不规则物体的精细操作(如抓握、拾取、切割等),以及折叠衣服、冲泡饮料等复杂任务,展现出相当程度的泛化性能。当前,自变量机器人的模型效果已达到惊人水准,体现在包括处理长序列复杂任务,以及泛化性、通用性等方面。图1 拉拉链对机器人来说极为困难,机器人除了仅依靠位置控制来完成微小拉链头的插入,滑块与链齿的精准对齐和适度力度的拉动,还需要实时应对布料变形带来的干扰,并能够准确判断拉链的咬合状态以及处理布料卡住等异常情况。图2 图3织物操作是操作任务中最困难和复杂的任务之一。织物是柔性无序物体,晾晒/整理/折叠衣物任务面临识别并理解柔性物体的拓扑结构的挑战(比如衣物展开要从完全无序状态中识别领口/袖子等结构;衣架插入要理解衣物的前后层次;衣物折叠要理解折叠的结构),对模型的感知和理解能力要求很高。其次,在叠衣服的过程中,织物的运动和摩擦有大量随机性,形态极难预测,需要模型进行实时感知和修正,要求极强的鲁棒性。这种处理复杂任务以及「泛化」的能力,正是自变量机器人团队对机器人「Scaling Law」的探索成果,他们希望用单一的大模型来驱动端到端的机器人 manipulation。目前,这家成立不到一年的中国初创企业,已经做出了世界上最大规模的端到端统一具身大模型「WALL-A」,并在多个维度上超过了所有已知模型。自变量机器人认为,目前 Great Wall 系列的 WALL-A 类似于「GPT-2」,伴随着模型的不断迭代,机器人领域的「ChatGPT」时刻可能会在不久后来到。令大家好奇的是,这家年轻的初创公司,将会如何实现这一宏伟目标?近日,自变量机器人接受了机器之心的采访,介绍了他们正在进行的有关于技术边界的探索,以及这场机器人浪潮下的一些思考。世界上最大规模的端到端统一具身大模型 机器之心:X Square 正在训练的 WAll-A 是一个怎样的模型? WALL-A 是世界上最大规模的端到端统一具身大模型。在多个维度上,我们的模型都超过了目前已知的所有模型的能力。 比如,从任务复杂度层面来说,我们能够做拉拉链、扣扣子、整理衣物等精细、随机且涉及复杂拓扑结构的任务;从通用性、泛化性层面来说,我们可以做到用极少的样本,完成各种物理环境变量、动作模式的泛化和迁移。 「通用性」和「泛化性」是定义这一代具身智能技术最核心的要素。只有达到足够的通用性、泛化性和可迁移性,才能实现在自由环境中,不受预设环境和预设物体限制的自由操作,才是真正区别于「自动化」及以往专用机器人的新一代机器人。机器之心:为什么将其定义为机器人领域的「大统一」模型? 第一个维度,是我们实现了端到端的纵向统一。从最原始的视频、传感器信号,到最后机器人的速度、位姿、力矩,完全用一个模型解决,中间没有任何切分的步骤,排除了分层所带来的噪声。 第二个维度,是我们实现了任务的横向统一,所有的任务放在同一个模型中训练,推理的时候也用同一模型进行操作。 对于一切操作任务,一个单一的模型即可解决所有问题,因此称之为「大统一」模型。 据我们所知,不只是 PI,海外的明星创业公司目前都在走这条路线,但国内只有我们在走。机器之心:这种「大统一」模型与大语言模型、多模态大模型以及之前的机器人模型的关系是? 统一具身模型的技术方向,既完全不同于传统机器人学习的小模型技术,也完全不同于以往语言、多模态大模型的技术。 首先,大模型的技术栈和小模型完全不同,两者之间没有什么可迁移性。和大模型背景的同学们讨论的更多是计算图优化、混合精度训练如何收敛、并行调度之类的问题;和做机器人或者小模型的同学们讨论的更多是模型的某个设计能够起到什么样的作用或者某个 Bound 是否太松。即使都聊起模型,大模型和小模型的同学们视角也完全不同:大模型最重视的是否方便 Scale Up,小模型更重视「可分析」和「结构设计」。 其次,这件事在数据工程方面有着更高的要求。目前有几十个模型在支撑我们的数据系统。同时,公司自研了一系列数据采集设备。 此外,在所有 AI 领域的细分赛道中,机器人的门槛几乎是最高的,因为和语言或者视觉有明显区别的一点是,机器人领域中的 Domain Knowledge 实在太多,怎么站在大模型的语境下看这些 Domain Knowledge 很重要。另外机器人模型涉及的模态空前的多和复杂,对模型要求的重点也和以往的语言或多模态模型很不一样,如果不是同时有两方面的背景,可能很难把这件事完成好。机器之心:所以你们的技术团队是按照怎样的思路组建的?目前是怎样一个构成? 创始人兼 CEO 王潜本硕毕业于清华大学,是全球最早在神经网络中引入注意力机制的学者之一。博士期间,王潜在美国顶级机器人实验室参与了多项 Robotics Learning 的研究,方向覆盖了机器人多个前沿领域。 联合创始人兼 CTO 王昊博士毕业于北京大学,在粤港澳大湾区数字经济研究院(IDEA 研究院)期间担任封神榜大模型团队负责人,发布了国内首个多模态大模型「太乙」,首批百亿级大语言模型「燃灯 / 二郎神」及千亿级大语言模型「姜子牙」,模型累计下载量数百万。 王潜:面对机器人大模型这波潮流,很多团队可能因为「沉没成本」和「路径依赖」而止步不前。我自己是全球最早引入 Attention 机制的学者之一,在人工智能浪潮兴起的时候,我意识到纯 AI 在落地方面的天花板,所以我出国去搞机器人;在机器人方面,我研究过当时最前沿的 topic,因而非常了解许多技术路径的瓶颈和天花板,把该经历和纠结的都经历了;从 20 年左右自己就看得很清楚通用机器人这事做成只有统一大模型这一条路;所以我们从第一天开始团队的组建和技术的探索就是完全为这个方向设置的,包括我们的技术框架和方向从第一天开始就没有改过。 王昊:我觉得王潜在这里的作用是决定性的,我还真没见过这样既懂机器人又真懂大模型的人。我自己切身的感受是机器人这个领域门槛实在太高了,而懂机器人的人里又确实几乎没人有过 scaling up 的经验,即使像原来 Google 的那批人离开了大平台的基础设施支持,能否做到以前的事情也是一个很大的问号。 原生的「Robotics Learning + 大模型」的创业组合,让 X Square 从第一天起就具备原始创新、对技术路径本质思考的基因。机器之心:端到端和统一模型是唯一的路径吗? 王潜:首先解释下「端到端」。从 2016 年开始,我已经认定,端到端是解决 manipulation 问题唯一可行的路径,本质上是因为 manipulation 和所有其他 AI / 机器人任务都有本质的区别,即涉及到的物理过程的复杂性远远超过其他任务。 这个特点决定了任何分层分步的方法都很难彻底解决这一问题,因为模型不是完美的,每分出一个步骤,都一定会引入不准确的中间结果,即不可控的噪声。 拿最常见的分层方法中的 3D 重建来说,经常出现很多毛刺空洞之类缺陷,有时缺陷很小,人肉眼看的时候都不太能注意得到,但在物理接触中,哪怕一点点的毛刺都会导致结果完全不同。这类问题在每个步骤中都会叠加,最后得到的东西完全不可控。另外,每一个步骤都会丢弃掉大量的信息,而往往在最后控制的时候这些信息反而是重要的。 这也是我们团队与很多 CV / 自动驾驶背景团队最大的不同。很多人会觉得 manipulation 的核心在于 Spatial Intelligence(空间智能),只要能理解三维空间关系,这个问题自然迎刃而解,但据我们所知,做到这里只是问题的一半而已。 但在去年的时候,甚至直到今天,很多人并不真正相信端到端,或者说不认为统一是长期的趋势。去年只有我们在说端到端,大家普遍是不信的,但现在不说端到端都不好意思出门了(笑)。 2017 年,一个非常有名的机器人教授当面跟我说:「你搞的这种端到端的路线永远只能是 Toy Model,永远不可能走通。」我到今天还记得很清楚。一直到今年初,端到端在国内都仍然是非主流的判断,我们去年下半年说要做端到端,大家还是以不信为主,说实话我们得谢谢马斯克,特斯拉 FSDv12 给了大家很大的冲击。到了今年年中,端到端就已经「泛

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

数字病理与AI辅助诊断,助力肿瘤精准诊疗

图片
图:前沿对话-数字病理与AI辅助诊断赋能疾病精准诊疗

编辑 | ScienceAI

作为疾病诊断的「金标准」,病理诊断是指导肿瘤临床治疗、评估预后的最可靠依据,在精准医疗时代,准确、高效的病理诊断所发挥的价值日益凸显。

近年来,数字化浪潮席卷全球,病理诊断领域也积极拥抱数字化、智慧化变革,为提质增效开辟创新路径。


今日,罗氏诊断携整体数字化智慧病理解决方案亮相第七届中国国际进口博览会,并分享与探讨了数字病理和人工智能(AI)辅助诊断在疾病精准诊疗中所发挥的重要价值。

借助进博会的溢出效应,该解决方案自去年进博会正式推出以来,已在越来越多病理实验室展开应用,为中国病理实验室的数字化、智能化转型注入了创新力量,也为个体化精准诊疗的持续发展全面赋能。

作为病理诊断流程中的关键环节之一,病理阅片是指病理医生通过显微镜对患者的病理切片进行观察和分析。传统的病理阅片不仅较为耗时耗力,也存在难以实现远程诊断、不便存储与管理等局限性。

近年来,数字病理的飞速发展为病理阅片「破局」提供了关键驱动力。通过数字病理扫描系统将染色切片转换为高清晰、全视野的数字化图像后,病理医生可通过计算机显示器进行数字化阅片,并可实现实时管理、共享和分析。

作为国内数字化、智慧化病理实验室建设的引领者之一,复旦大学附属肿瘤医院病理科在数字病理的应用方面积累了丰富的实践经验。

复旦大学附属肿瘤医院病理科主任王坚教授指出:「数字病理的应用是助力科室实现效率、质量、管理等多维度持续发力的突破点。数字化阅片打破了原有的空间限制,是不同地域、不同医院、不同院区内医生实现远程实时会诊、联合诊断的基石,在助力解决病理医生数量缺乏、优质病理资源分布不均等方面发挥着重要作用,能够让更多患者更快地得到同质化的病理诊断结果。此外,数字化阅片具有可追溯性,方便存档与调取,为科室的数字化质控和病例管理提供了有力支撑。」

图片
图:王坚教授

在数字化阅片的基础之上,AI辅助判读算法日益广泛的应用进一步推动了病理阅片的智慧化跃升。依托海量的数字化染色切片所形成的丰富数据集,并借助AI的强大运算能力及深度学习能力,AI辅助判读算法可自动识别数字切片中的病变区域并进行客观、定量的肿瘤细胞含量判读,辅助病理医生实现更快速、准确、重复性高的病理诊断。

复旦大学附属肿瘤医院病理科李媛教授分享道:「AI在大批量数据处理及定量分析方面的优势不言而喻。在日常工作中,AI辅助判读算法可快速分析数字化病理切片,并在短时间内给出初步诊断结果,为病理医生繁重的日常阅片工作提供了便捷、高效的辅助工具,大幅提高了整体诊断效率,也为病理医生释放出了更多时间与精力去完成更具挑战性的科研工作。此外,AI辅助判读算法还可对细微的、不易察觉的区域进行标记和提醒,为病理医生提供『侦破』疑难病例的关键线索。」

图片
图:李媛教授

谈及数字化、智慧化病理科初期建设的经验,王坚教授指出:「影响数字化阅片的因素众多,而这其中,数字化切片的图像质量是最基本、也是最关键的要素,它直接影响到病理医生能观察和分析的细节,这就要求科室以高质量的扫描设备制备高清晰度、高分辨率的数字化图像,为后续诊断的准确性奠定坚实基础。此外,AI辅助判读算法的准确性、数据存储的安全性也是智慧化病理科建设之初需要充分考量的。」

为了推动中国病理诊断向着「数智融合」的方向持续迈进,罗氏诊断于去年进博会创新推出了整体数字化智慧病理解决方案,其依托罗氏诊断VENTANA DP 200和DP 600数字病理切片扫描仪*以及罗氏诊断数字病理开放平台,实现了病理实验室硬件与智慧化算法、远程会诊平台、大容量存储、信息管理系统的充分融合,助力病理医生以更高效、更精确的病理诊断结果为精准用药和个体化精准诊疗提供更有效的临床信息。

该解决方案中包括了HER2、ER、PR、Ki-67、PD-L1在内的病理人工智能AI辅助判读算法,赋能病理医生更为精准、高效地判读病理切片。此外,该解决方案中还包括含远程诊断平台专家库的整合方案,实现病理资源共享,满足医院跨院病理会诊需求,助力带动不同区域层级医院整体病理水平的提升。

罗氏诊断中国高级总监-病理诊断部何鹏志先生表示:「今年正值罗氏诊断进入中国病理市场的15周年。15年来,罗氏诊断始终秉持『在中国、为中国』的坚定承诺,致力于以前沿、创新的病理诊断解决方案,为中国病理实验室的高质量发展赋能。近三年的进博会见证了罗氏诊断的数字病理探索之路,今年,很欣喜地看到我们的智慧化数字病理成果在越来越多病理实验室逐步展开应用。未来,罗氏诊断将继续深耕诊断病理领域,携手更多病理实验室,引领病理诊断的数字化、智慧化变革,为个体化精准医疗的未来发展注入崭新生机,惠及更多中国患者。」

图片
图:何鹏志先生

  • VENTANA DP 600目前仅供研究使用(RUO)


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

史上第一次,英特尔在数据中心市场输给了AMD

然而两家都远远落后于英伟达。

在消费级芯片市场形势逆转之前,服务器芯片的市场已经先喊出 AMD yes 了。


史上第一次,AMD 从数据中心处理器市场中获得的利润超越了英特尔。

图片

近二十多年来,英特尔一直是数据中心 CPU 市场无可争议的领导者,其提供的 Xeon 处理器为全世界大多数的服务器提供动力。另一方面,仅在七八年前,AMD 的处理器还只能占据个位数的市场份额。

如今情况已发生了巨大变化。虽然英特尔的 Xeon CPU 仍然为大多数服务器提供动力,但越来越多的新服务器,特别是高端设备已经趋向于选用 AMD 的 EPYC 处理器。正如近日独立研究机构 SemiAnalysis 所指出的,AMD 的数据中心业务部门现在的销量已经超过了英特尔的数据中心和 AI 业务。

图片

上周四,各家美国科技公司陆续发布三季度财报,AMD 报告其数据中心收入增长 122%,游戏收入下降 69%。公司 2024 年第三季度营业额为 68 亿美元,同比增长 18%。其中,AMD 的数据中心部门收入在第三季度达到 35.49 亿美元,这显示出 AMD 在半导体市场的竞争力不断提升,能够持续扩大业务规模并获得更多的市场份额。

而英特尔在第三季度的产品总收入为 122 亿美元,同比减少 2%,其中至强处理器、Gaudi 加速器为主的数据中心和 AI 集团的收益在 本季度为 33 亿美元,同比增长 9%。就在两年前,英特尔的 DCAI 集团每季度的收入为 50 亿至 60 亿美元。

在新一代产品中,AMD 的 EPYC 处理器相对于英特尔的 Xeon CPU 取得了竞争优势,英特尔不得不以大幅折扣出售其服务器芯片,这降低了该公司的收入和利润率。

今年 9 月,英特尔推出了新一代旗舰产品 128 核的 Xeon 6980P「Granite Rapids」处理器,售价高达 17800 美元,是该公司有史以来最昂贵的标准 CPU(也是最贵的 X86 CPU)。

图片

Xeon 6980P 拥有 128 个高性能内核和 256 个线程,时钟速度为 2.0 GHz,L3 缓存为 504MB。

相比之下,AMD 最昂贵的 96 核 EPYC 6979P 处理器售价为 11805 美元。

从历史上看,英特尔的处理器定价并没有像 AMD 的多线程版本那样高。这一转变可能表明英特尔采取了新的定价策略,力图将自己定位为高端选择,但这也可能是制造新一代 CPU 生产流程的高成本所致。

外媒 tomsHardware 认为,如果市场对英特尔 Xeon 6900 系列处理器的需求仍然很高,并且该公司能够大量供应这些 CPU,那么英特尔的数据中心收入可能会重回正轨,并超过 AMD 的数据中心销售额。然而,英特尔仍然需要提高其 Granite Rapids 产品的产量。

最后,英特尔和 AMD 的竞争之上,还有一个英伟达。

虽然英特尔和 AMD 现在每季度通过销售数据中心 CPU 赚取约 30-35 亿美元,但英伟达从其数据中心 GPU 和网络芯片中赚取的收入比这两家要高得多,英伟达提供的芯片是使 AI 处理器(GPU)在数据中心协同工作所必需的。

事实上,在 2025 财年第二季度,英伟达网络产品的销售额总计 36.68 亿美元,这还是在英伟达在 InfiniBand 网络市场逐渐减速的情况下实现的。

与此同时,英伟达计算 GPU 的销售额在 2025 财年第二季度达到了 226.04 亿美元,远远超过英特尔和 AMD 数据中心硬件的总销售额。总体而言,英伟达在今年上半年销售了价值近 420 亿美元的 AI 和 HPC GPU,下半年的销售额很可能会更高。

^

参考内容:

https://www.tomshardware.com/pc-components/cpus/for-the-first-time-e
ver-amd-outsells-intel-in-the-datacenter-spacehttps://x.com/SKundojjala/
status/1853041284157682063



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

量子级精度,静态到动态,微软蛋白MD模拟系统登Nature

编辑 | KX
生物世界的本质在于分子及其相互作用的不断变化。了解生物分子的动力学和相互作用对于破译生物过程背后的机制,以及开发生物材料和药物至关重要。


正如诺贝尔物理学奖得主理查德·费曼(Richard Feynman)的名言:「所有生物体的行为都可以通过原子的颤动和摆动来理解。」然而,通过实验捕捉这些真实的运动几乎是不可能的。
近年来,以 AlphaFold 和 RoseTTAFold 为代表的 深度学习 方法,在预测静态晶体蛋白质结构方面已经达到了实验精度,相关研究人员获得了 2024 年诺贝尔化学奖。然而,以原子分辨率准确表征动力学仍然更具挑战性,尤其是当蛋白质发挥作用并与其他生物分、药物分子相互作用时。
经典分子动力学(MD)模拟速度快,但缺乏化学准确性。密度泛函理论(DFT)等量子化学方法可以达到化学精度,但无法扩展到大型生物分子。
MD 模拟用于模拟生物分子的时间相关运动。如果你将蛋白质想象成时钟中复杂的齿轮,那么微软研究院科学智能中心开发的从头算精度的生物分子模拟方法 AI^2^BMD,不仅会将它们捕捉到位,还会观察它们的旋转,揭示它们的运动如何驱动维持生命运转的复杂过程。
相关研究于 11 月 6 日刊登在《Nature》上。
论文链接:https://www.nature.com/articles/s41586-024-08127-z

基于 AI 的从头算生物分子动力学系统

AI^2^BMD 是一种基于 AI 的从头算生物分子动力学系统。AI^2^BMD 可以以近似从头算的精度(即量子级的精度),高效地对各类蛋白质进行了全原子模拟仿真。
与密度泛函理论相比,它将计算时间缩短了几个数量级。最新发现可以解锁生物分子建模的新功能,特别是对于需要高精度的过程,例如蛋白质-药物相互作用。

AI^2^BMD 采用一种设计新颖的可通用蛋白质碎片化方法,将蛋白质分割成重叠单元,从而创建一个包含 2000 万个快照的数据集,这是 DFT 级别有史以来最大的数据集。基于微软之前设计的通用分子几何建模基础模型 ViSNet,并将其纳入 PyTorch geometry 库。
研究人员使用 机器学习 训练了 AI^2^BMD 的势能函数。然后由高效的 AI^2^BMD 模拟系统执行模拟,其中在每个步骤中,基于 ViSNet 的 AI^2^BMD 势能以从头算精度计算蛋白质的能量和原子力。通过动力学和热力学的综合分析,AI^2^BMD 与湿实验室数据表现出更好的一致性。

推进生物分子 MD 模拟

AI^2^BMD 在以下方面代表了 MD 模拟领域的重大进步:

  • 从头算精度:引入了一种可推广的「机器学习力场」,即原子和分子之间相互作用的机器学习模型,用于从头算精度的全原子蛋白质动力学模拟。

  • 解决泛化问题:首次解决了机器学习力场模拟蛋白质动力学的泛化难题,为多种蛋白质提供了稳健的从头算 MD 模拟。

  • 普遍兼容性:AI^2^BMD 将量子力学(QM)建模从小的局部区域扩展到整个蛋白质,而无需任何关于蛋白质的先验知识。这消除了蛋白质 QM 和 MM 计算之间潜在的不兼容性,并将 QM 区域计算速度提高了几个数量级,使全原子蛋白质的近乎从头算计算成为现实。

  • 速度优势:AI^2^BMD 比 DFT 和其他量子力学快几个数量级。它支持超过 1 万个原子的蛋白质的从头算计算,使其成为多学科领域中最快的 AI 驱动 MD 模拟程序之一。

  • 多样化构象空间探索:对于 AI^2^BMD 和 MM 模拟的蛋白质折叠和去折叠,AI^2^BMD 探索了 MM 无法探测到的更多可能的构象空间。因此,AI^2^BMD 为研究药物-靶标结合过程中的柔性蛋白质运动、酶催化、变构调控、内在无序蛋白等提供了更多的机会,更好地与湿实验室实验相结合,为生物机制检测和药物发现提供更全面的解释和指导。

  • 实验一致性:AI^2^BMD 优于 QM/MM 混合方法,并且在不同的生物应用场景中与湿实验室实验表现出高度一致性,包括 J 偶联、焓、热容量、折叠自由能、熔化温度和 pKa 计算。

展望未来

在生物分子模拟中实现从头算精度具有挑战性,但对于理解生物系统的奥秘以及设计新的生物材料和药物潜力巨大。这一突破证明了 AI for Science 的远见,即利用人工智能的能力革新科学探索。AI^2^BMD 旨在解决机器学习力场应用中关于准确性、稳健性和泛化的局限性。AI^2^BMD 通过考虑蛋白质的基本结构,即氨基酸的延伸,在模拟各种蛋白质系统方面提供了通用性、适应性和多功能性。这种方法增强了能量和力的计算以及动力学和热力学性质的估计。

AI^2^BMD 的一个关键应用是它能够执行高精度的虚拟筛选以发现药物。2023 年,在首届全球 AI 药物开发竞赛上,AI^2^BMD 取得了突破,预测了一种与 SARS-CoV-2 主要蛋白酶结合的化合物。它的预测精度超越了所有其他竞争对手,稳居第一,并展示了其在加速现实世界药物发现工作方面的巨大潜力。

自 2022 年以来,微软研究院还与全球健康药物研发中心 (GHDDI) 合作,应用 AI 技术设计药物,用于治疗影响中低收入国家 (LMIC) 的疾病,例如结核病和疟疾。现在,微软与 GHDDI 密切合作,利用 AI^2^BMD 和其他 AI 功能来加速药物发现过程。

AI^2^BMD 不仅推进了对科学问题的研究,还促进了药物发现、蛋白质设计和酶工程等领域的新的生物医学研究。
参考内容:https://www.microsoft.com/en-us/research/blog/from-static-prediction-to-dynamic-characterization-ai2bmd-advances-protein-dynamics-with-ab-initio-accuracy/



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

丹·马斯卡特洛加入OneSix担任首席营收官

这一战略性任命是在收购Strong Analytics(一家机器学习(ML)和人工智能(AI)咨询公司)之后进行的。图片{ width=60% }


OneSix,领先的数据和人工智能(AI)咨询公司以及Premier Snowflake合作伙伴,今天宣布丹·马斯卡特洛(Dan Muscatello)担任其首席营收官。这一任命发生在一个关键时刻,企业正在寻求捕捉人工智能的转型价值,这取决于数据准备、治理和组织变革。为了成功应对这一挑战,客户需要一个擅长解决复杂问题的值得信赖的合作伙伴。OneSix提供端到端的数据和人工智能解决方案,其人才组合几乎不可能在一个团队中找到。

马斯卡特洛将负责客户获取和扩张,监督OneSix的营销、联盟和现场销售业务。作为一位广受尊敬且成就卓著的高管,他在推动技术服务和软件公司实现显著增长方面拥有可靠的业绩记录。

OneSix首席执行官戴夫·基利米尼克(Dave Kilimnik)表示:“丹的任命标志着OneSix的一个激动人心的新篇章。他在通过流程优化、增强客户价值和加强战略联盟推动增长方面的卓越记录与我们的使命完美契合,即提供功能强大、价值导向的解决方案。我们很高兴欢迎丹加入团队,期待他的领导将为我们的客户和业务带来的影响。”

在加入OneSix之前,马斯卡特洛在66度(66degrees)担任销售副总裁,其团队实现了快速增长,并成为一家专注于数据和人工智能解决方案的顶级谷歌云合作伙伴。他的丰富背景包括在谷歌、HubSpot和EMC等行业领导者担任高级企业销售职位,他始终推动业务增长并建立牢固的客户关系。马斯卡特洛在扩大市场运作范围和推动技术行业战略合作伙伴关系方面拥有丰富的经验。

马斯卡特洛表示:“我非常兴奋能够在OneSix如此激动人心的增长轨迹上加入团队。在当今的市场环境中,企业正专注于利用数据和人工智能获取竞争优势。凭借我们深厚的人工智能专业知识和与Snowflake的强大合作伙伴关系,我们有机会帮助客户实现真正的切实业务成果。”

在致力于成为北美领先的数据和人工智能咨询公司以实现卓越业务成果的愿景指导下,OneSix非常高兴能够让马斯卡特洛掌舵推动公司向前发展。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Compucom推出新的由人工智能驱动的FLO框架,推动创新和洞察力

IT引擎使数据驱动的、明智的决策推动效率、生产力
全球领先的企业IT需求采购、集成和支持提供商Compucom今天推出了其新引擎,为以Full Lifecycle Observability(FLO)为中心的服务提供动力,这是一种旨在通过先进的分析和人工智能(AI)加上机器学习自动化来改造企业IT环境运营和决策的开创性方法。图片{ width=60% }


这将通过高级分析和人工智能加机器学习自动化,增强服务、优化结果、改进数字体验,并通过对齐IT战略与业务目标,推动效率、生产力、优化数字体验。

拥有整个IT生命周期的综合视图对于维护复杂公司系统的健康和性能至关重要。通过利用Compucom的FLO框架的能力,组织可以主动识别和解决问题,确保无缝运营,并提供优越的用户体验。
赋予IT决策权力
Compucom的FLO框架由一个技术栈组成,该技术栈提供通过仪表板可视化的AI生成的洞察力和建议。这通过各种对他们业务最重要的指标为所有IT和业务领导者提供实时可见性。然后,Compucom的专家利用这些洞察和建议使其具备启动与技术采购始于处理的、导致正面业务结果的积极的、数据驱动的决策的能力,这些正面业务结果包括:资产智能度的准确性得到提高、更合规的环境、改善的数字工作场所体验等。

Compucom的FLO框架有三个关键组成部分:
选择之力:客户有权选择最符合他们需求、预算和结果的基础工具。灵活性:客户可以利用自己的工具或选择合并Compucom提供的工具堆栈或使用一个组合。定制:FLO框架提供一定程度的输出定制,这在由严格的工具合作伙伴关系管理的其他平台中可能是不可能的。

“我们正在确立一个新标准,这标准关乎IT运营如何推动业务成功,”Compucom的首席信息官/首席技术官Mike Flanagan说道。“我们不仅仅是打破壁垒,我们正在将这些壁垒的信息整合成一个连贯的策略。我们的Full Lifecycle Observability引擎不仅仅是关于加强IT基础设施;它是一个数据驱动的从技术采购到整个生命周期以及支持服务的解决方案,赋予我们的客户用数据驱动的精准和效率去实现他们的战略目标的力量。”

提升用户体验和运营效率
框架的核心在于承诺提高数字员工体验同时优化IT基础设施。框架包括一个名为FLO-Dash的客户仪表板,它提供整个IT基础设施的全面视图。这个仪表板提供了一个单一的站点,CIO、IT主管和其他关键领导者可以监视和跟踪设备健康、IT问题的自行解决、现代采购到交付过程的技术和服务,以及将IT与业务结果对齐的高级分析。

Flanagan解释说:“通过将Full Lifecycle Observability集成到我们的服务中,我们可以为客户提供前所未有的可见性和控制权,推动持续改进和更大生产力。我们的方法旨在直接将IT服务结果与业务目标对齐,确保技术作为增长和创新的催化剂。”

提升、降低成本
Compucom已经在其自身系统中利用其FLO引擎,并在执行安全补丁后,设备合规性从75%增加到了96%。此外,公司的资产智能性现在为98%——确保公司知道资产在哪里、如何使用以及何时可能需要升级。该公司估计可以为客户节省设备采购成本的10%,将工作场所和软件故障票据减少20%,提高员工生产力并减少中断和设备停机时间。

Flanagan继续说:“FLO框架完全是关于有效和高效地利用数据,以通过数据驱动的、明智的决策来有效和高效地管理IT环境。当IT是您的业务时,您FLO得越多,您就会越了解IT的运行状况。”


注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB