vopemed获得229万加元的前种子资金,以推动人工智能驱动的外科成像

vopemed(Vope Medical),一家开创性的医疗科技创业公司,通过人工智能驱动的图像澄清技术提升外科视觉,已成功完成一轮超额认购的229万加元前种子融资,以加速其技术的开发和临床验证。图片{ width=60% }


这笔资金标志着vopemed在实现其赋能外科团队以更安全、更高效手术的下一代工具目标上的重要里程碑。

vopemed正在开发Claris,这是一种人工智能驱动的图像增强软件,旨在实时改善腹腔镜和机器人辅助手术视频流的清晰度,从而提高手术安全性。

“这笔资金验证了对增强外科可视化的需求,并加强了我们将人工智能驱动的图像增强带入每个手术室的使命,” vopemed的首席执行官兼联合创始人艾米·洛林茨(Amy Lorincz)说。“当前的解决方案未能解决微创手术中持续存在的可见性挑战,而Claris旨在解决这一未满足的需求。”

“我们很高兴能支持vopemed将人工智能驱动的图像增强技术带入外科手术,” Genson Capital Inc.的雅克·库尔托伊斯(Jacques Courtois)表示。“他们的技术有潜力显著提高手术精度和效率,我们相信他们在医疗科技领域能够产生持久的影响。”

“清晰的可视化对于精确的外科决策至关重要,特别是在微创手术中。像Claris这样的人工智能驱动的图像增强技术可能会在提高效率和患者结果方面带来革命性的变化,”布朗大学沃伦·阿尔珀特医学院的泌尿外科医生、外科教授迪肯·科(Dr. Dicken Ko)说。

此次前种子轮融资由Genson Capital Inc.牵头,投资150万加元,来自魁北克政府的指定代理机构Investissement Québec则贡献了75万加元。这些投资者为生命科学和医疗设备公司提供宝贵的支持,使其在受监管的行业中推动创新和扩展。

获得资金后,vopemed将扩大研发,完善其软件以适应更广泛的临床应用,并加强与医院和外科团队的合作关系。该公司还在为临床验证研究做准备,以进一步展示Claris在实际环境中的影响。


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

DeepSeek真帮黄仁勋了,你们怎么不信呢?

文章来源:直面AI

北京时间3月19日凌晨,站在圣何塞GTC大会的舞台上,连黄仁勋自己都调侃:GTC是AI届的超级碗。

几周以来,外界已经对黄仁勋在GTC的演讲万分期待。


这个演讲可不好做,在DeepSeek的冲击之下,英伟达今年的股价已经下跌了12%。这不再是发布新产品,高喊AI就是未来就可以完成任务的演讲,今年,黄仁勋需要回答很多问题。

而这场持续了两个半小时的演讲也的确和往年有很大的不同,黄仁勋在一开始就花了很长的时间去解释为什么推理时代缩放定律没有死、为什么英伟达依然非常重要。而后,他不仅拿出了Blackwell的超大杯产品,还透露了下一代芯片,甚至下下代架构,时间一直蔓延到2028年。压轴出场的,则和黄仁勋勾画的AI发展路线图中的最后一站“物理AI”相关。

黄仁勋拯救了英伟达股价吗?至少从当日来看,截至收盘英伟达股价跌了3.43%,总市值缩水至2.82万亿美元。到底是市场还需要几天时间消化,还是黄仁勋“游说”失败,还得等等看。

演讲要点:

  1. 发布超大杯Blackwell Ultra,性能提升1.5倍。
  2. 下一代AI“超级芯片”Vera Rubin,计划2026年底推出,并透露下下代芯片架构为Feynman,计划2028年推出。
  3. AI工厂的操作系统Dynamo,推理框架,资源利用最大化,搭配Blackwell强上加强。
  4. 推出“AI超级电脑”DGX Spark、DGX Station,提高本地运行大型AI模型的能力。
  5. 宣布网络组件的最新动作,推出Spectrum X和Quantum X交换机。
  6. 发布首个开放式人性机器人基础模型Isaac GROOT N1;并宣布与谷歌DeepMind和迪士尼研究院合作开发Newton开源物理引擎。

01、现场“开课”,

黄仁勋:你们真的都搞错了

自从号称训练只用了几百万美元的DeepSeek推理模型问世,世界就没有停止对英伟达的质疑。起先,黄仁勋不语。然后,他开始发声,在采访中和财报会议上表示推理时代仍然需要大量计算,仍然需要英伟达的力量。这次,他终于把这点摊开揉碎地说明了一番。

在发布会上,老黄拿出例子,让Llama3.3(LLM的代表)和DeepSeek R1(推理模型的代表)回答同一个问题:

“在我的婚礼上,需要7个人围坐同一桌。我的父母和岳父岳母不能挨着坐。此外,我妻子坚称她在我左手边的话,拍照更好看。同时,我需要坐在伴郎身边。我们怎么安排座位?如果我们邀请牧师和我们坐一起呢?”

看完这个问题,大部分人可能已经头大了。要回答它,不仅要识别其中包含多少个不同的需求,还要同时满足所有需求。有意思的是,最后又有一个进一步的问题,需要先回答主问题再补充这个问题的答案。

Llama 3.3非常简单粗暴,回答得很快,只用了439个tokens。但是,它的回答并不正确,未能满足所有要求。快、省但对于提问的人来说无用。

DeepSeek R1则反复思考,尝试了很多可能,反复检验答案,最终消耗了8559个tokens,才最终给出了答案。时间久,消耗大,但是给出的答案准确。

而每一个token生成的背后,都是整个模型的加载。推理模型更复杂,也就需要更多地计算。DeepSeek R1的参数规模达到6800亿,下一代有可能达到数万亿参数规模。

两相对比,DeepSeek R1比Llama 3.3多生成了20倍的tokens,计算需求高出150倍。“大模型推理是一种极限计算。”老黄表示。

通过这个对比,老黄很直观地告诉大家:推理模型也许预训练的时候消耗少,但推理起来可是实打实的吸金兽。英伟达GTC的官方博文中,把Tokens视为AI的语言和货币。

“去年,关于扩展定律Scaling Law,全世界几乎都预测错了。”老黄在台上再次强调。他进一步指出,如今扩展定律从一个变成了三个:预训练、后训练(微调)和推理。

那英伟达在推理时代要做什么呢?两方面:一方面,让芯片能在单位时间内处理更多tokens,另一方面,让单位算力的成本和能耗降低。

黄仁勋此前就在财报会议上表示,Blackwell就是为推理而生的,这次演讲中在说清楚推理模型为什么需要更多算力之后,黄仁勋也拿出图表,展开讲了讲这一点。

以Blackwell和Hopper做对比,都是1兆瓦功耗,Hopper数据中心每秒生成250万tokens。Blackwell数据中心提高了25倍,如果是推理模型,则比Hopper好40倍。

这让图表中出现了一个向上鼓的曲线,这个曲线正是黄仁勋想让各位AI制造商关注的“赚钱要点”。黄仁勋称,成本是AI输出的token,收益就是用户获得的token。如果纵轴是前者,横轴是后者,横轴扩张更多时——也就是收益比成本扩张更多时——一个漂亮的利润弧线就出现了。

为了强调Blackwell是为推理而生这一点,老黄甚至不惜“拉踩”Hopper,称:“当Blackwell开始大量出货的时候,就算你送Hopper,别人基本也不会要的。”

之前老黄总说,(英伟达AI芯片)买得越多越省钱,现在他更进一步,告诉大家,买得越多越赚钱。

02 软硬兼施,

Blackwell超大杯与“AI工厂操作系统”Dynamo

花了40分钟讲明白为什么英伟达依然能打,为什么说Blackwell是为推理而生之后,黄仁勋当然还得说说新产品。

首先是Blackwell Ultra,专为AI推理时代而打造,Ultra的后缀大家也不陌生了,超大杯。“我们专为这一刻设计了Blackwell Ultra,一个多功能平台,(利用它)可以高效地进行预训练、后训练和推理。”

其中GB300 NVL72在一个机架规模设计中连接了72个Blackwell Ultra芯片,并包含36个基于Arm Neoverse的Grace CPU。较上一代性能提升1.5倍,与Hopper相比收入潜力提高50倍。还是以DeepSeek R1为例,老款Hopper运行这个模型时每秒只能处理100 tokens,而GB300 NVL72每秒能处理1000 tokens。这意味着用户获得回答的速度大大提高。

而HGX B300 NVL16系统相比于Hopper一代,推理速度提升11倍,计算能力提升7倍,内存大4倍。

英伟达一直都有软硬兼施的策略,此前也针对自家的芯片做了不少优化(不过,DeepSeek的开源周展示的一些优化甚至比英伟达还强),这次黄仁勋也同步官宣了开源推理框架Dynamo。

黄仁勋将之称为“AI工厂的操作系统”。这样说可能有点抽象,具体来说,Dynamo像一个交通指挥官,帮助GPU之间实现更好的通信。对思考和生成可以进行独立优化,高效利用资源。如此一来,(还是回到演讲开头强调的token问题上)每秒就能产生更多token了。

不过,黄仁勋也表示,Hopper虽然也可以用Dynamo优化,但是效果不会那么明显。

为推理而生的Blackwell再加上为推理优化而生的Dynamo,就是强上加强,DeepSeek R1的吞吐量一下提高30倍。

03 下一代更好

2028年还不够远,黄仁勋勾勒AI发展路径图

除了现在,黄仁勋当然还得谈到未来。英伟达下一代AI芯片Vera Rubin首次走到台前,黄仁勋介绍,该名称来源于天文学家Vera Rubin(以暗物质研究著称)。

其中CPU Vera内容容量是前代的4倍多,内存带宽是前代的2倍多,而GPU Rubin讲配备299GB的HRM4。用老黄的话说就是“几乎所有细节都是新的”。

这一代Grace Blackwell(GB)将在今年下半年发货,Vera Rubin将在2026年下半年发货。黄仁勋也预告了Vera Rubin的超大杯,Rubin Ultra,对比GB300性能提升13倍,预计2027年下半年发货。

除此之外,连Vera Rubin之后的下一代AI芯片架构也被揭露,它被命名为Feynman,这个名字同样取自于一位科学家,对量子计算领域有突出和贡献的Richard Phillips Feynman。黄仁勋预告,Feynman甲沟将于2028年登场。

此外,值得注意的是,在演讲一开始,黄仁勋给出了AI的发展路线图,从2012年深度学习突破的起点AlexNet开始,经历Perception AI(感知AI,这个阶段AI主要用于理解数据,如识别语音、图片等)、Generative AI(生成式AI,也就是现阶段的以ChatGPT为代表的技术)。

接下来,已经看到苗头的是Agentic AI(代理AI),从简单的数据生成到执行任务。最终,AI的终极目标是Physical AI(物理AI),实现从软件到硬件、从虚拟到现实的跨越。让AI具备物理行动能力,如机器人和自动驾驶技术的发展。

英伟达作为AI计算的核心玩家,显然希望引领这一进程。对物理AI这部分的具体展开,在黄仁勋的此次演讲中占比并不算高,但作为压轴出现,足见其重要程度。

舞台上出现了《星球大战》中的小机器人Blue,它在舞台上走来走去、摇头晃脑,看起来充满好奇心,不得不说看起来就非常灵动。这个机器人搭载了英伟达Isaac GR00T N1,号称是全球首个开源且完全可定制的人性机器人基础模型。模型包含双系统架构,一个系统负责快思考,另一个负责慢思考。据英伟达介绍,该模型能轻松掌握抓取、移动等复杂人物。

与此同时,黄仁勋还宣布正在与谷歌DeepMind和迪士尼研究院合作下一代开源仿真物理模型Newton,专为机器人开发而生。“通用性机器人的时代已经到来。”

04 老黄委屈,

英伟达推出好产品还远远不够

英伟达的高速增长也一直伴随着“泡沫”担忧,很长的一段时间,这家公司不断推出新的产品,但市场波动时有发生。很多次财报发布时,明明业绩全线飘红,黄仁勋也大表信心,股价还是会抖三抖。

“我们发了新东西,但人们立刻就会说,好,然后呢?这放在任何公司身上都不是正常的。”这次,黄仁勋很少见地在GTC的舞台上倒了点苦水:“这不是买个笔记本电脑”。他表示,这既需要计划,也需要资源和人,规划是以几年为计的。

也许这也解释了为什么黄仁勋这次演讲持续了两个半小时(去年不到两小时),为什么他一口气掏出这么多成果,为什么AI芯片连2028年的下下代都透底了,为什么在最后拿出了AI发展路径的最后一站“物理AI”的最新成果。

老黄这次该讲的、能讲的都讲了,尽力了。至于人们还会不会问“然后呢”,他也管不了了。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

汤道生谈腾讯大模型:腾讯要打造“好用的AI”

腾讯的AI业务,究竟是如何布局的?

今天举办的腾讯全球数字生态大会上海峰会上,围绕大模型的研发与应用,腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生详细解读了对于AI的思考和业务最新进展。

汤道生表示,DeepSeek的开源与深度思考的突破让大家都很兴奋,它给大模型带来的绝不只是评测多跑了几分的“量变”,而是里程碑式的“质变”。


用户在实际使用过程中,切实感受到了AI的“可用性”在进一步提升。

“AI正在跨过产业化落地的门槛,站在普及应用的全新节点上。行业由之前的模型训练主导,发展到今天更多是应用与Agent驱动;我们看到,云上DeepSeek API调用量激增,语音交互的需求也带动了ASR(自动语音识别)与TTS(文本转语音)模型的API调用;模型推理的算力消耗正在高速增长,规模化推理的成本优化,成为云厂商的核心竞争力。”汤道生说。

面向未来,腾讯将立足于用前沿的AI技术,打造“好用的AI”,为用户提供有实效、有温度、可进化的智能产品和解决方案,助力大家的美好生活,推动实体产业创新突破。

汤道生强调,腾讯将做好两个坚持:一是坚持在模型研发上的持续投入,全力夯实模型底座,满足不同场景的需求;其次是坚持“用户为先”,将AI与多元场景深度融合,打造高可用、高稳定的AI应用,为用户带来“有用、好用”的智能体验。

大家上午好!

很高兴与大家相聚在腾讯云城市峰会,共同探讨数智化带来的创新发展与产业机遇。我们把峰会的首站定在上海,也是想借这个机会,对上海市政府长期以来给予我们的关心和支持,表示衷心的感谢!

上海是改革开放的前沿阵地,外贸进出口总额超过4万亿元,超过1000家跨国公司在这里设立了地区总部。上海也是技术创新的标杆,集成电路、生物医药、人工智能三大先导产业,产值突破了1.8万亿,其中人工智能产值超过4500亿,位居全国前列。

这些年,腾讯也为上海的发展持续贡献力量。我们打造了长三角地区算力规模最大的人工智能计算中心,建设了腾讯优图、科恩等创新技术实验室;服务了临港集团、上汽集团、老凤祥等一大批本地企业的数字化升级;也帮助外资企业更好的扎根中国;支持出海企业拓展新市场。

半个月前,我刚刚来过上海,和本地几家企业展开了深入交流,明显感受到,大家对于增长的信心显著回升。当下,AI新技术的快速突破,实体产业的持续升级,以及国际市场的不断开拓,都在为企业发展打开新的空间。腾讯也愿意以数字技术,为大家提供持续的增长助力。

第一个增长助力,是以AI实现产业的提质增效。

最近,DeepSeek的开源与深度思考的突破让大家都很兴奋。它给大模型带来的绝不只是评测多跑了几分的“量变”,而是里程碑式的“质变”。用户在实际使用过程中,切实感受到了AI的“可用性”在进一步提升。AI正在跨过产业化落地的门槛,站在普及应用的全新节点上。行业由之前的模型训练主导,发展到今天更多是应用与Agent驱动;我们看到,云上DeepSeek API调用量激增,语音交互的需求也带动了ASR(自动语音识别)与TTS(文本转语音)模型的API调用;模型推理的算力消耗正在高速增长,规模化推理的成本优化,成为云厂商的核心竞争力。

首先,腾讯在模型研发持续投入,全力夯实多个模型底座,满足不同场景的需求。

大模型技术是智能AI应用的基础。腾讯一方面坚定不移的推进大模型的全链路自研,另一方面,也积极拥抱先进的开源模型,让客户针对不同场景自由选择,满足各自对场景与性价比的要求。

2023年,腾讯推出了腾讯混元大模型,率先采用MoE架构,旗舰模型参数规模达万亿级,在各类行业测评中,无论是通用基础能力,还是专业应用能力,都稳居国内第一梯队;还有多个规格的蒸馏模型,在开源社区也深受开发者欢迎。

今年,我们又推出新一代快思考模型混元Turbo S,对大多数通用任务,实现“积极响应”,首字时延降低近一半。此外,更擅长完成复杂任务、深度推理的混元T1模型,也即将推出正式版。在多模态领域,混元全新上线并开源“图生视频模型”,用户只需要上传一张图片,输入创意描述,就可以生成一支自带音效、具有2K分辨率的5秒高清短片。

其次,在AI应用方面,我们坚持“用户为先”,将AI与多元场景深度融合,打造高可用、高稳定的AI应用,为用户带来“有用、好用”的智能体验。

大模型是AI应用的核心,但好的模型还需要搭配实用的场景、权威的内容来源、稳定的算力服务,才能在用户需要的时候,提供可靠的AI服务。

从用户需求出发,是腾讯的产品价值观。春节过后,用户迫切期望用到深度思考的推理能力,我们也快速响应用户需求,无论是面向C端的腾讯元宝、微信搜一搜、ima、地图等应用,还是面向开发者的大模型知识引擎、腾讯云AI代码助手等平台工具,都支持腾讯混元和DeepSeek的“双模调用”。

例如腾讯元宝,借助腾讯云智算强大的算力支撑与海量的运维经验,确保了用户使用过程流畅“不卡顿”。同时,叠加了自身积累多年的多模态能力,元宝能够对用户发送的图片做分析理解与优化处理。元宝利用了全网最优质的微信公众号内容,以及强大的“联网搜索”能力,确保了检索和生成结果的质量和时效性。最近,元宝还与腾讯文档打通,用户可以直接上传腾讯文档到元宝,让AI辅助总结、提炼要点,也能一键导出对话到腾讯文档,随时修改、分享或者继续创作。

如果模型是“大脑”,知识库也许就是“课本”。大脑智商再高,如果没有相应的知识做基础,也无法很好地解决问题。我们可以通过智能工作台ima,将模型与个人知识库融合,助力高效的工作和学习。用户基于本地文件、公众号文章等内容,构建个人和团队共享知识库,就能够实现对个人资料的精准检索、高质量的AI问答,辅助文本创作等。

企业同样可以将大模型与企业知识库结合,打造更懂业务的AI,让AI助力营销、客服和研发,提高市场竞争力。最近,腾讯乐享就上线了AI知识库功能,将深度思考与企业专属知识结合,获得了更强大的智能问答能力,为企业缩短新员工培训时间,提高员工专业水平,提高客户满意度,最终提高销售转化率。

除了腾讯乐享,还有腾讯会议、企点智能客服、AI 代码助手等,也都全面接入了深度思考的能力,为企业客户带来了更智能的使用体验。腾讯云自身就是这些产品是深度用家,边用边迭代。

例如,腾讯云AI代码助手,代码生成准确率提升30%以上,它支持上百种编程语言,能够完成代码补全、技术对话、代码诊断、单元测试等任务,已经落地了上百家数字化企业。

我们看到,很多企业也需要将大模型做进一步定制,结合企业自身的场景与数据,训练出自己的行业大模型,打造企业级的AI中台,让数据可以统一管理与复用,支撑在生产、销售和服务等环节的智能应用。

为此,腾讯推出了腾讯云TI平台,帮助开发人员一站式完成混元、DeepSeek、Llama等主流模型的精调与推理,覆盖数据获取、处理、模型训练、评估、部署到应用的全流程,数据标注成本下降70%,模型训练效率提升30%,同时还支持公有云、私有化及专属云部署。

另外,腾讯云大模型知识引擎,通过提供RAG(文件检索)、Workflow(工作流)、Agent等多种应用开发方式,来加速大模型应用的落地。企业可以获得稳定和精确的多模态知识问答效果;也可以用“拖拉拽”的简单方式,编排企业专属的工作流,快速搭建符合实际场景需要的大模型应用。

头部物流集团DHL就使用大模型知识引擎,编排了41条企业专属的工作流,快速搭建适合物流场景的智能服务,用AI自动接待客户,并完成查询快件、修改地址和时间、咨询保险和寄送等服务。更重要的是,通过工作流的模式,一线业务人员也可以直接配置智能服务,大幅降低了技术门槛和沟通成本。

目前,腾讯云大模型已在政务、零售、金融、工业、医疗、教育、文旅等30多个行业落地。

在推动模型应用落地产业的过程中,算力也非常关键。我们通过整合高性能计算、存储、网络、加速套件、云原生智能调度编排等能力,推出了腾讯云智算套件。模型训练的千卡日均故障率,仅为业界水平的三分之一;千卡集群训练的并行加速比达到96%,通信时间占比缩短到6%。此外,通过软硬件技术能力的整合,腾讯云智算集群从机器上架到开始训练,最快只需要1天。

当然,除了AI之外,腾讯运营多年的互联网服务,已经打磨出稳定与高性价比的基础设施服务,数字化技术如操作系统、云原生、网络安全等软件也全面开放给更多行业的客户。

国产软件企业也从早期侧重应用开发,逐步向更底层、更基础的平台技术扎根,技术水平与国外头部企业对齐,兼顾到国内外团队的需求与习惯,提供更高性价比、更及时响应的服务体验。

腾讯打造了以“6T”为代表的“全栈自主创新企业级软件”,覆盖数据库TDSQL、操作系统TencentOS、专有云TCE、PaaS平台TCS、大数据TBDS、AI开发平台TI,核心产品不仅通过了国家安全测评的最高标准,而且产品的兼容性、易用性和扩展性在市场上很受欢迎。比如协同办公领域,腾讯会议、企业微信、腾讯文档、腾讯乐享等应用,不仅稳定易用,而且有独特的C2B连接能力,在多个行业头部客户渗透率,都超过了50%。

无锡地铁集团就借助TencentOS操作系统,成功实现了50多个业务系统、400多套操作系统的国产化替换升级,通过底层系统的统一管理、协同变更,为全量的生产和管理信息系统打下坚实的支撑。值得一提的是,在替换过程中,我们实现了系统的“热迁移”,业务几乎0中断,用户全程无感知,成为轨道交通行业操作系统国产化标杆。

在AI和数字化融合创新的同时,我们也看到,新市场的拓展也成为了企业增长的重要驱动力,国际化发展成为行业共识。在华东,特别是上海,很多企业都有出海的诉求,还有大量的外企,也希望分享中国大市场机遇。腾讯云也以数字化助力企业全球化发展,开拓增长新空间,在金融、泛互、媒体、游戏、电商等30多个领域,服务了10000多家海外客户,覆盖欧美、日韩、东南亚、中东、非洲等80多个国家和地区。

一方面,我们持续打造覆盖全球、稳定可靠的云基础设施,为企业国际化铺好宽平大路。例如在广汽出海的过程中,我们帮助埃安快速部署了面向东南亚地区的数字基础设施,成功复制“智能网联云平台”,3个月内完成了在泰国市场的车联网量产落地。很多客户反馈说,腾讯云在产品适应性、性价比和贴身服务等方面,都更有优势,成为大家出海的首选。我们持续加大一带一路市场的投入,在印尼的第三个可用区,与在沙特阿拉伯的数据中心也即将上线。

另一方面,中国互联网行业三十年的创新发展,所沉淀的经验和能力,也越来越受到全球客户的认可。最近,在泰国市场,正大集团旗下零售公司CP AXTRA,就把主要的零售及批发业务系统,成功迁至腾讯云。未来还将借助腾讯云的大数据解决方案,开展零售流程中的库存和需求预测、定价、促销等场景的数据应用,实现经营提效和商业增长。此外,很多欧美日韩企业,包括法国电信、日本万代、韩国网石、Coupang等众多当地的行业头部企业,也在广泛采用腾讯云的全球化资源、音视频、CDN、网络安全以及小程序框架等,服务全球用户。

各位领导、各位嘉宾!

我们正在共同见证数字技术为各行各业注入新动能。从大模型驱动的智能转型,到自主创新的国产软件崛起;从国内市场的数字化深耕,到扬帆出海开拓全球市场,腾讯云始终与千行百业并肩前行,成为企业最坚实的数字基石。

今天,我们不仅提供前沿技术,更传递一种信念——在这个充满不确定的时代,唯有锚定技术创新、开放协作、专注价值,才能将挑战转化为机遇,将焦虑升华为破局的力量。让我们携手并进,在数字浪潮中书写更多的辉煌!

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI的AI复现论文新基准,Claude拿了第一名

大模型能写出 ICML Spotlight 论文吗?

近年来,AI 正从科研辅助工具蜕变为创新引擎:从 DeepMind 破解蛋白质折叠难题的 AlphaFold,到 GPT 系列模型展现文献综述与数学推理能力,人工智能正逐步突破人类认知边界。

今年 3 月 12 日,Sakana AI 宣布他们推出的 AI Scientist-v2 通过了 ICLR 会议一个研讨会的同行评审过程。


这是 AI 科学家写出的首篇通过同行评审的科研论文!

图片

这一里程碑事件标志着 AI 在科研领域的突破,同时人们也在进一步探索 AI 智能体的自主研究能力。

4 月 3 日,OpenAI 推出了 PaperBench(论文基准测试),这是一个用于评估 AI 智能体自主复现前沿人工智能研究能力的基准测试系统。如果大模型智能体具备了自动写 AI / 机器学习研究论文的能力,既可能加速机器学习领域的发展,同时也需要审慎评估以确保 AI 能力的安全发展。

PaperBench 在多个重要的 AI 安全框架中发挥评估作用:

  • 作为 OpenAI 准备框架(OpenAI Preparedness Framework)中评估模型自主性的标准

  • 用于 Anthropic 负责任扩展政策(Responsible Scaling Policy)中的自主能力评估

  • 应用于谷歌 DeepMind 前沿安全框架(Frontier Safety Framework)中的机器学习研发评估

  • 论文标题:PaperBench: Evaluating AI’s Ability to Replicate AI Research

  • 论文链接:PaperBench PDF

  • 代码地址:PaperBench GitHub

研究团队构建了一个测试环境,用于评估具有自主编程能力的 AI 智能体。在该基准测试中,研究团队要求智能体复现机器学习研究论文中的实验结果。完整的复现流程包括论文理解、代码库开发以及实验执行与调试。这类复现任务具有较高难度,即便对人类专家而言也需要数天时间完成。

测试基准选取了机器学习顶会 ICML 2024 的 20 篇入选论文,还都是 Spotlight 和 Oral 的。这些论文覆盖了 12 个不同的研究主题,包括 deep reinforcement learning、robustness 和 probabilistic methods 等。每篇论文都配备了详细的评分标准,共计 8316 个可独立评估的复现成果。为确保评估质量,PaperBench 中的评分标准均与原论文作者协作制定,并采用层级结构设计,使复现进度可以在更细粒度上进行衡量。

鉴于机器学习论文的复杂性,人类专家评估单次复现尝试往往需要数十小时。为提高评估效率,研究团队开发了基于 LLM 的自动评判系统,并设计了 JudgeEval 辅助评估框架,用于将自动评判结果与人类专家评判的金标数据集进行对比。其中,使用定制框架的 o3-mini-high 评判器表现最佳,在辅助评估中获得 0.83 的 F1 分数,证明其可作为人类评判的可靠替代方案。

研究表明,智能体在复现机器学习研究论文方面展现出了不容忽视的能力。Claude 3.5 Sonnet (最新版)在配备基础代理框架的情况下,于 PaperBench 基准测试中获得了 21.0% 的得分。

研究团队选取了 3 篇论文组成的测试子集进行深入评估,以机器学习博士的表现作为人类基准(采用 3 次测试中的最优成绩)。在 48 小时的测试时间内,人类基准达到了 41.4% 的得分,而 GPT-4(o1)在相同子集上获得了 26.6% 的得分。此外,研究团队还开发了一个轻量级评估版本——PaperBench Code-Dev,在该版本中,GPT-4 的表现提升至 43.4% 的得分。

PaperBench

任务

对于 PaperBench 中的每个样本,受评估的智能体会收到论文及其补充说明。

在这里,智能体需要提交一个代码仓库,其中包含复现论文实验结果所需的全部代码。该仓库根目录必须包含一个 reproduce.sh 文件,作为执行所有必要代码以复现论文结果的入口点。

如果 reproduce.sh 能够复现论文中报告的实验结果,则视为成功复现该论文。

该数据集包含了用于定义每篇论文成功复现所需具体结果的评分标准。为防止过度拟合,智能体在尝试过程中不会看到评分标准,而是需要从论文中推断出需要复现的内容。

重要的是,该评估禁止智能体使用或查看论文作者的原始代码库(如果有的话)。这确保了评估的是智能体从零开始编码和执行复杂实验的能力,而不是使用现有研究代码的能力。

规则

PaperBench 的设计对智能体框架保持中立,因此对其运行环境没有特定要求。不过为确保公平比较,该基准测试制定了以下规则:

  • 智能体可以浏览互联网,但不得使用团队为每篇论文提供的黑名单中列出的网站资源。每篇论文的黑名单包括作者自己的代码仓库以及任何其他在线复现实现。
  • 智能体可使用的资源,如运行时间和计算资源,不受任何限制。但建议研究人员在结果中报告其具体设置。
  • 开发者应为智能体提供必要的在线服务 API 密钥(例如用于下载数据集的 HuggingFace 凭证)。获取在线账号访问权限不属于 PaperBench 意在评估的技能范畴。

评分标准

为每篇论文制定评分标准是开发 PaperBench 最耗时的部分。每份评分标准都是 OpenAI 与每篇论文的一位原作者合作编写的,从阅读论文、初步创建、评分标准审查、迭代到最终签收,每篇论文需要数周时间。

每个评分标准都以树的形式构建,该树按层次分解了复现给定论文所需的主要结果。例如,根节点以预期的最高级别结果开始,例如「论文的核心贡献已被复现」。第一级分解可能会为每个核心贡献引入一个节点。每个节点的子节点都会更详细地介绍具体结果,例如「已使用 B.1 节中的超参数在数据集上对 gpt2-xl 进行了微调」。

重要的是,满足节点的所有子节点表示父节点也已得到满足,因此对树的所有叶节点进行评分就足以全面评估整体成功率。

叶节点具有精确而细致的要求。拥有许多细致的要求使我们能够对部分尝试进行评分,并使评委更容易对单个节点进行评分。作者不断分解节点,直到它们所代表的要求足够精细,以至于估计专家可以在不到 15 分钟的时间内审查一份提交是否满足要求(假设熟悉该论文)。在 PaperBench 的 20 篇论文中共有 8316 个叶节点。

图片

所有评分标准节点也都有权重,每个节点的权重表示该贡献相对于其兄弟节点的重要性,而不一定是节点的实施难度。加权节点奖励在复现时优先考虑论文中更重要的部分。

用大模型判断

在初步实验中,OpenAI 发现使用专家进行手动评分每篇论文需要花费数十小时,因此对于 PaperBench 的实际应用而言,采用自动化方式进行评估是必要的。

为了对 PaperBench 提交的内容进行规模评估,作者开发了一个简单的基于 LLM 的评判器 SimpleJudge,然后创建了辅助评估 JudgeEval 以评估评判器的表现。

AI 的评委实现被称为「SimpleJudge」,给定一份提交内容,PaperBench 的 AI 评委将独立地对评分标准中的每个叶节点进行评分。对于特定的叶节点,评委将收到论文的 Markdown、完整的评分标准 JSON、叶节点的要求和提交内容。

PaperBench 使用 OpenAI 的 o3-mini 作为评委的后端模型,预估对单个提交内容进行评分的成本约为 66 美元(OpenAI API 积分)。对于 PaperBench Code-Dev,成本可以降至每篇论文约 10 美元。

图片

测试结果

OpenAI 基于全部 20 篇论文评估了 GPT-4o、o1、o3-mini、DeepSeek-R1、Claude 3.5 Sonnet(新版本)和 Gemini 2.0 Flash 几种大模型,每篇论文评估了 3 次。

表 4 列出了每个模型的平均复现分数。可见 Claude 3.5 Sonnet 的表现不错,得分为 21.0%。OpenAI o1 表现较差,得分为 13.2%,其他模型则表现不佳,得分低于 10%。

图片

检查智能体工作日志可以发现,除 Claude 3.5 Sonnet 外,其他所有模型经常会提前结束,声称自己要么已经完成了整个仿写,要么遇到了无法解决的问题。所有智能体都未能制定在有限时间内复现论文的最优策略。可以观察到 o3-mini 经常在工具使用方面遇到困难。

这些情况表明当前模型在执行长期任务方面存在弱点;尽管大模型在制定和编写多步骤计划方面表现出足够的能力,但实际上未能采取一系列行动来执行该计划。

OpenAI 相信,PaperBench 基准将会推动未来大模型能力继续上升。

参考内容:

https://openai.com/index/paperbench/



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

科技守护餐桌:AI会是餐饮业的终极答案吗?

烹饪界传统上是艺术和人类技能的天地,但随着人工智能 (AI) 日益影响餐厅运营和用餐体验,烹饪界正在发生巨大变化。

美国国家餐饮协会的报告显示,40%的餐厅经营者计划在未来两年内加大对技术的投资,这表明行业正朝着以AI为代表的技术解决方案迈进。


随着餐饮业面临不断变化的顾客期望和高效运营的需求,创新型厨师和餐厅老板开始拥抱AI技术。AI不仅能激发创造力、简化流程,还能在竞争激烈的市场中提供卓越的服务。

AI正从未来概念转变为现实工具,彻底改变餐饮业的运作方式,从定制菜单到自动执行复杂的厨房任务,无所不能。

01.AI菜单:个性化与口味预测

AI在烹饪领域最引人注目的应用之一是菜单设计。

传统的固定菜单正被AI算法取代,这些算法能够分析大量关于顾客偏好、饮食趋势、季节性食材供应甚至地方口味的数据,从而打造灵活且个性化的用餐体验。

AI菜单

这些智能系统可以预测热门菜品,推荐新的风味组合,并根据顾客反馈和库存情况快速调整菜单。

麦肯锡公司的一项研究发现,采用数据驱动个性化服务的企业销售额增长了10%至15%,这显示了AI优化菜单在餐饮行业中潜在的财务优势。

想象一下,菜单能根据你的饮食需求和历史订单动态调整,推荐你可能喜欢的菜品。AI正在将这一设想变为现实。通过学习顾客的互动和点餐历史,AI可以推荐符合个人口味的菜肴,从而大规模实现定制化用餐体验。

此外,AI还能分析社交媒体趋势和在线评论,发现新的饮食偏好,帮助厨师紧跟潮流,创作出符合当下口味的菜品。

这种基于AI的创新菜单设计方式,使餐厅能够更好地应对市场变化,并持续改进菜品,以满足甚至超越顾客的期望。这种预测顾客需求的能力,正成为快速变化的餐饮行业中一项关键优势,让餐厅能够每次都能满足并打动顾客。

02.自动化厨房运营:效率与烹饪精准度

除了菜单设计,AI在厨房运营中也取得了显著进展。AI驱动的自动化厨房系统正在改变食物的准备、烹饪和库存管理方式,从而提升效率和烹饪精准度。

机械臂和AI驱动的烹饪设备可以处理日常任务,如切菜、烤汉堡,甚至制作复杂的菜肴。这让厨师能够专注于创意菜单开发和品质把控。

自动化厨房

IMARC集团的报告估计,食品机器人市场在2024年已达到27.1亿美元,预计到2033年将增长至62.9亿美元,2025年至2033年的复合年增长率为9.32%。

这种自动化技术有助于解决餐饮行业普遍面临的劳动力短缺问题,同时确保食品制作的一致性和速度,这对维持顾客满意度和企业盈利能力至关重要。

AI系统还在优化库存管理方面发挥作用。它们根据历史销售数据和预订情况预测所需食材,从而减少食品浪费,确保餐厅始终备有满足需求的食材。

配备AI传感器的智能烤箱和烹饪设备可以精确控制烹饪温度和时间,确保菜品质量一致并减少烹饪失误。

这项技术还被应用于洗碗和清洁机器人,进一步实现厨房任务的自动化,让员工能够专注于需要人类技能的工作,如摆盘、装饰和直接与顾客互动。这些AI工具是提升厨房运营效率和整体表现的重要一步。

03.机器人服务员与个性化服务

AI的应用也延伸到了前厅运营中,尤其是机器人服务员的引入。

虽然机器人并未完全取代员工,但它们被用于辅助送餐、点单和处理支付等任务,特别是在快餐和休闲餐厅中。这些机器人可以在繁忙时段提高效率,缩短等待时间,并为顾客提供新颖有趣的用餐体验。

研究表明,76.6%的人如果发现机器人服务员易于使用,会更愿意接受它们。此外,75.6%认为这些机器人有帮助的消费者表示它们易于互动,这表明明确的好处使其更受欢迎。

与此同时,AI通过数据分析实现个性化服务,使餐厅能够预测顾客需求和偏好,提供定制建议,并营造更加贴心和个性化的用餐氛围。AI驱动的聊天机器人和虚拟助手还通过在线平台和移动应用改善顾客互动,处理预订、解答问题并提供即时支持。

机器人服务员

这些数字工具不仅方便易用,还让顾客能够随时联系餐厅并快速获得解答。从这些互动中收集的数据为餐厅提供了宝贵的顾客偏好和行为洞察,进一步优化了个性化服务策略。

尽管人际互动在餐饮服务中仍然重要,但AI通过提供高效、个性化和无缝的服务,正在提升用餐体验,这满足了现代顾客对速度和便利的需求。人与AI的结合正在塑造餐饮业客户服务的未来,为顾客创造一个更加响应迅速且令人满意的用餐环境。

04.商业技能的重要性

随着AI在餐饮领域的广泛应用,未来的餐饮业将更加高效、个性化和创新。那些战略性地使用和整合AI技术的餐厅可能会占据优势,提升运营效率、顾客体验和盈利能力。

然而,驾驭这一技术变革需要深厚的烹饪知识和商业管理能力。这正是金融MBA对希望在行业中脱颖而出的厨师和餐厅老板至关重要的原因。

MBA课程可以为餐厅老板提供宝贵的资源,涵盖财务管理、市场营销、领导力和业务增长等方面的专业知识,并提供强大的职业网络支持。它还能为烹饪专业人士提供必要的信息,帮助他们在业务中明智地应用AI技术。

尽管MBA的成本和时间投入较高,但其长期收益可能远超这些挑战,尤其是对于那些希望扩展业务、开设连锁店或获得投资者资金支持的人来说。

05.餐饮业的未来

随着AI改变餐饮行业,成功的关键在于平衡创新与人性化服务。虽然技术提升了效率和个性化,但理解其财务影响,从初始成本到长期回报,对于可持续增长至关重要。

将烹饪热情与扎实的商业知识相结合,行业领导者可以确保AI驱动的技术进步不仅带来实际的商业利益,还能提升用餐体验。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

又走一位合伙人!高管们集体「逃离」百川智能

王小川的AI创业合伙人们,陆续离开了他。

近日,百川智能被曝联合创始人焦可已经离职,联合创始人、模型研发负责人陈炜鹏即将离职。


对于这些消息,百川智能方面选择保持沉默。

新浪科技从知情人士处了解到,陈炜鹏管理着百川超过一半的研发人员,但公司聚焦医疗战略及内部激烈的资源竞争,其主动提出了离职,目前正等待百川智能内部放行。

此外,金融To B业务的负责人——百川智能商业合伙人、金融事业群总裁邓江,虽未官宣离职,但也已经离开,下一步或将加入一家大模型创业公司。

加上去年12月,联合创始人、商业化负责人洪涛也选择了离开。细数下来,在最近三个月以来,已出现三位联创及合伙级高管离职,另一位“等待离职中”。

二次创业仍拢不住人心,王小川和百川智能,究竟怎么了?

内斗或加剧高管们“出逃”

据知情人士近日爆料,“百川智能创始团队近期出现变动,其中,主要负责互联网业务的联创焦可已经离职,另一位主要负责百川大语言模型技术的联创陈炜鹏也将离职,目前还在走内部流程。”

据悉,焦可和陈炜鹏两人都已经分别开始AI领域创业。其中,焦可在AI语音方向创业,且正在寻求融资。陈炜鹏的创业项目为AI Coding方向,同样也在陆续接触一些投资人。

对于上述消息,百川智能方面至今未做回应。新浪科技曾向陈炜鹏本人求证相关消息是否属实,但对方未做回应。

不过,有知情人士对新浪科技透露,“陈炜鹏此次离职系本人主动提出,如果百川通过离职请求,很快就会离开。”

该人士进一步透露称,“陈炜鹏其实在百川负责基础大模型,管理着公司一大半的研发人员,是百川绝对的核心技术领导人。但是,由于2024年,百川内部爆发过激烈的人才、资源争抢,处于旋涡重心的陈炜鹏也深受其累,“主动提出离职”。

对于具体为何会发生人才和资源争斗,该人士并未直言。不过结合坊间传闻及百川智能近期动态,大致可以推测为百川进一步聚焦医疗战略,资源向医疗集中,进而导致内部分歧。

本月初,百川智能传出主要负责金融行业To B业务的B端组被裁撤,员工均在当天签署离职协议。据彼时百川智能方面回应新浪科技,“百川正按照既定规划,对金融业务进行优化调整,以集中资源、聚焦核心业务,加速实现“造医生、改路径、促医学”的愿景。”据彼时员工透露,“未来百川将以更高效的团队和更丰富的资源,推动优质医疗服务的普及与普惠。”

该公司内部人士表示,结合陈炜鹏被曝正筹备AI Coding方向创业项目来看,陈炜鹏本人对于AI医疗的兴趣或许没有那么浓厚。与王小川认定的公司战略方向不太一致,主动提出离职,或许也是不得已为之。

除了焦可和陈炜鹏外,知情人士还透露,本月初百川智能金融行业To B业务B端组调整的力度极大,目前整个组均已裁撤,之前负责该业务的百川智能商业合伙人、金融事业群总裁邓江,目前也已经离职。

至此,王小川的AI高管们,已有三名联合创始人离职,一人已经提离职等待批复中。

百川的步调乱了?

2024年7月,百川智能曾宣布完成A轮50亿元融资,同时将以200亿元估值开启B轮融资,成国内第三家估值200亿元大模型独角兽。在A轮融资中,百川的投资方包括阿里、小米、腾讯、亚投资本、中金等头部大厂和市场化投资机构,也有北京市人工智能产业投资基金、上海人工智能产业投资基金、深创投等国资背景产投基金。

去年还备受资本热捧的百川智能,缘何今年却忽然战略大转,多位高管陆续被曝离职?

资深AI行业人士李谋(化名)对新浪科技直言:“主要还是受到了DeepSeek的冲击”。李谋认为,“DeepSeek有着不弱于国内任何一家企业的AI infra能力,但他们却选择了开源路线,这直接击穿了各模型厂商的技术护城河,在AI infra能力比不过DeepSeek的情况下,大模型厂商想要在模型方案等B端业务上超越DeepSeek,唯有从算力和数据层面入手,算力比拼的是资金和GPU采购能力,唯一能做出差异化的,其实更多的是数据。”

“医疗行业足够大,这一领域的数据壁垒也很高,如果百川真的能够扎进去,发挥自己的模型能力同时构建起自己的数据壁垒,确实会有非常多的想象力”,在李谋看来,相比AI+金融领域目前已经布满大厂、各类创企,竞争已经非常激烈,AI与医疗的结合目前业务成熟的企业还不太多,但“健康长寿”的诱惑力又足够大,仍能够吸引资本为其不断买单。

但是,作为AI 1.0时代的“AI四小龙”们,很早就看到并进行布局,随后又陆续放弃的领域,王小川的AI+医疗新故事,又能够坚持多久?

以去年底刚上市的AI+医疗行业头部公司讯飞医疗为例。在2024年上半年,其账上还有着1.34亿元的亏损,且相较同期,亏损数额还在进一步扩大。行业头部企业尚且吃不上肉的情况下,急着聚焦医疗的百川智能,在大多数人看来更像是“步调乱了”。

据百川智能内部人士透露,公司不会放弃基础大模型研发,后续将会做医学增强的基础大模型。从长的时间线来看,AI与医疗的结合是王小川的理想、星辰大海,他甚至可以围绕AI怎么攻克癌症、衰老进行布局,对于早已财务自由的他,可以有耐心去追求自己的情怀,但他身边的人,又有多少能一直陪着他“做时间的朋友”?

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

53%性能全面提升,Ayu新模型横扫传统工具,分泌蛋白预测效率再翻倍

编辑丨&

微生物是驱动元素循环的引擎,它们分泌蛋白质以寻求生活环境。现阶段还缺乏有效的计算方法来研究分泌蛋白。


表征分泌组的另一种方法是将现代机器学习工具与蛋白质组对海洋环境的进化适应变化相结合。

在这项研究中,维也纳大学(University of Vienna)与上海海洋大学的研究者识别并描述了海洋细胞外蛋白的适应性,开发了一款名为「Ayu」的机器预测工具,不使用基于同源的预测器,并且比当前最先进的软件实现了更好、更快的性能。

该模型实际应用于海洋样本(Tara Oceans 数据集)时,相比于最广泛使用的鉴定分泌蛋白的方法,全新的方法能够回收两倍以上的蛋白质。

他们的研究成果以「Ayu: a machine intelligence tool for identification of extracellular proteins in the marine secretome」为题,于 2025 年 3 月 21 日刊登于《Nature Communications》。

图片

微生物分泌研究

据实验室研究,高达 30% 的细菌基因组编码释放到细胞外环境中的蛋白质,参与到了细菌与环境的相互作用中。对海洋中细胞外酶活性的测量表明,这些反应主要由溶解的(无细胞的)酶催化,比率随着深度的增加而增加。

尽管分泌组具有相关性,但其研究因缺乏适当的方法而受到限制。一种合理的方法是利用大量可用的宏基因组和宏转录组数据集,但目前还面临着从氨基酸序列预测亚细胞定位的挑战。

海洋环境的特殊性为改进蛋白质定位预测提供了机会。众所周知,蛋白质的氨基酸组成(AAC)在一定程度上适应于其位置的物理化学性质。对于在周质中起作用的蛋白质来说,其不受渗透压调节。

因此,在这项研究中,「Ayu」模型被开发,用以利用这些适应留下的信号来预测大型海洋宏基因组数据集中的分泌蛋白,将其性能与最先进的亚细胞位置预测工具进行比较,以揭示实际海洋分泌组的含量和蛋白质组成。

图片

总体而言,结果证明海洋环境对暴露于其中的蛋白质有特定影响,盐度是明显的罪魁祸首。

为了解释各门 AAC 的这些差异,可以转向所示分类群之间生活方式的差异。以前的研究推测,细菌产生的细胞外蛋白平均比胞质蛋白廉价,因为这些蛋白质不能回收。

在这种研究环境中,团队发现,细胞外蛋白的成本在门之间差异很大。他们认为差异源于产生细菌的不同营养策略。

机器学习模型设计和验证

使用一组经过验证的蛋白质描述符,团队测试了这些信息是否可用于改进当前的亚细胞位置预测方法。他们选择了 xgBoost,以此发挥它适用于非参数数据于支持多分类等优点。

分析揭示了细胞外>周质>细胞质顺序的适应梯度,现在团队通过将问题框定为顺序分类来改善预测,并分化出两种策略:多类分类器,将每个亚细胞位置视为一个独立的类,以及序数分类器,探究类之间的内在顺序。

一般来说,在比较 MCC 和 Kappa 分数时,与 pSORTb3 和 BUSC 相比,所有 Ayu 实现(MCC > 0.89,Kappa = 0.89)都明显优于 pSORTb3(MCC = 0.64,Kappa = 0.64)。

图片

Ayu 的两个版本(多类和序数)都比其他分类器有所改进,而应用 SMOTE 算法来改善蛋白质类别之间的不平衡也对 Ayu 的多类实现产生了积极影响。

团队在训练时间与预测时间进行权衡,最终多类实现的 SMOTE 版本被保留为 Ayu 的最终版本。

由于 xgBoost 属于提升树的算法系列,因此研究得以获得特征重要性分数,其中包含有关特征描述符对区分类更有用的信息。

真实数据集的应用

团队在 6 个 Tara Oceans 宏基因组和元转录组数据集上应用了该预测工具。在组合数据集中发现的 46,775,154 种总蛋白质中,73% 的序列属于细菌基因,8% 属于病毒基因,3% 属于古细菌基因,其余的没有分类学分类。

大约 15.7% 的蛋白质通过手动分类被归类为跨膜蛋白。在其余蛋白质中,65.2% 被归类为细胞质蛋白质,而 12.5% 的蛋白质被归类为非细胞质蛋白质(5.5% 细胞外,7.0% 周质蛋白质)。剩余则未被归录。

图片

由于 Ayu 使用信号肽信息作为其特征之一,实验得以确定预测到每个细胞位置的蛋白质数量。而对于实验中发现的只有 79% 的周质蛋白和 54.7% 的细胞外蛋白含有信号肽的现象,需要再次进行测试以验证普遍性。

结果表明,在 53,902 种蛋白质中,至少有 1 种蛋白质具有信号肽,其中只有 43,361 种(约 80%)。这些实验成果表明,Ayu 能够补充信号肽预测以恢复更多的簇内细胞外蛋白多样性。

上述聚类过程还产生了几个预测的细胞外蛋白的蛋白质簇,而没有信号肽。这些簇几乎占该数据集中检测到的细胞外蛋白总数的一半。虽然以这种方式检测到的蛋白质中只有 53% 可以被注释,但仍然有可能找到进一步证明预测方法有效性的蛋白质。

研究最后还比较了来自相同 Tara Oceans 样本的宏基因组学数据集与宏转录组学数据集,以测试基于基因含量或表达的差异模式。总体而言,被鉴定为编码分泌蛋白的基因表达相对较高,证实了分泌组在环境中的相关性。

创新的海洋生物学研究

该研究表明海洋环境对必须在该环境中运行的蛋白质有显著影响,并且氨基酸组成的附加限制允许根据细菌蛋白质的亚细胞位置来区分细菌蛋白质。

除了远超现在所使用工具的性能之外,Ayu 还呈现出一系列优势。与基于同源和 PSSM 的方法相比,它将在更长的时间内保持有用,后者必须不断更新新发现才能保持准确。

需要注意 Ayu 没有接受过膜蛋白的训练,因此团队建议仅将 Ayu 用于原核和噬菌体基因组。

总的来说,这项研究进一步突破了现如今对分泌组以及海洋生物学和生物地球化学知识的极限。分泌组的大小增加了将近一倍,预计微生物的活动将发挥关键作用。

原文链接:https://www.nature.com/articles/s41467-025-57974-5



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

为今年最火的机器人来场全球挑战赛:150万高额奖金,还有顶级硬件支持

ATEC2025 科技精英赛是由 ATEC 前沿科技探索社区主办,清华大学、浙江大学、西安交通大学、上海交通大学发起。本届赛事由香港中文大学、北京大学、北京师范大学顶尖学府联合蚂蚁集团共同承办的全球性智能科技竞技盛会。


本届赛事聚焦人工智能与机器人技术融合创新,设置软件算法与硬件设计双赛道,通过线上线下联动模式,推动具身智能技术在养老援助、灾害救援等现实场景的突破性应用。

赛事速递

  • 报名截止:2025 年 4 月 25 日 10:00 A.M.(UTC+8)
  • 参赛入口:www.ATECup.com

赛事亮点

210,000 美元高额奖池
ATEC2025 赛事总奖金池达 21 万美元(税前),为顶尖科技团队设立,以真金白银激励前沿技术方案的落地与迭代。

体验顶尖机器人硬件
入围决赛团队将使用由主办方提供的商业级机器人设备参与决赛,零距离接触行业最前沿硬件生态。组委会也鼓励使用自研机器人参与决赛,可获专项硬件补贴。

产学研创深度联动
入围决赛团队将受邀赴香港决赛,与人工智能 / 机器人领域权威学者、产业领袖、行业投资者面对面沟通交流,验证想法。

软件赛道介绍
软件赛道介绍

硬件赛道介绍
硬件赛道介绍

组织亮点

知名高校牵头命题:香港中文大学、北京大学、北京师范大学、蚂蚁集团;

知名学者评委:香港工程院院士 / 香港中文大学刘云辉教授、清华大学徐恪教授、北京大学王亦洲教授、美国国家工程院院士 Masayoshi Tomizuka 教授、新加坡工程院院士谢立华教授;

产业级硬件生态支撑:上海智元新创技术有限公司、松灵机器人(东莞)有限公司、星海图(北京)人工智能科技有限公司、深圳逐际动力科技有限公司等 63 位学者及行业专家;

真实户外场景验证:突破传统室内模拟形式,采用全户外真实环境构建技术验证关卡;

赛程与激励
赛程与激励

组织机构

  • 赛事主办:ATEC 前沿科技探索社区
  • 赛事发起单位:清华大学、浙江大学、上海交通大学、西安交通大学
  • 赛事承办:香港中文大学、北京大学、北京师范大学、蚂蚁集团
  • 赛事协办:加州大学伯克利分校、新加坡南洋理工大学、香港理工大学、香港城市大学、南京大学、同济大学、武汉大学、华中科技大学、中山大学、厦门大学、东南大学、北京交通大学、成都信息工程大学、香港科技大学(广州)、香港科技大学郑家纯机器人研究院、 INCLUSION AI
  • 赛事合作伙伴:上海智元新创技术有限公司、松灵机器人(东莞)有限公司、星海图(北京)人工智能科技有限公司、深圳逐际动力科技有限公司
  • 科技社区合作:知兔

本文内容依据 ATEC 官网及合作机构公告整理,赛事细则以官方发布为准。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

意大利警方在罗马特斯拉经销商处增加安全措施,此前17辆汽车在火灾中被毁

意大利内政部已向全国各地的警察部门发出通知,要求在特斯拉经销商处增加安全措施,此前在罗马的一场火灾中,埃隆·马斯克公司的17辆电动车遭到毁坏。


意大利国家警察反恐部门Digos正在调查位于首都东部郊区托雷安杰拉的特斯拉经销商的火灾是否是由无政府主义者纵火导致的。消防员在周一凌晨奋战了数小时,才扑灭了火焰。无人机拍摄的图像显示,经销商停车场内一排烧毁的车辆残骸。马斯克在其社交媒体平台X上表示,这被称为“恐怖主义”。

意大利目前有13家特斯拉经销商,全部由母公司管理,主要集中在罗马,还有佛罗伦萨和米兰等其他城市。一位内政部消息人士表示,此次通告旨在“提高对可能的反特斯拉抗议活动的警觉”,这是全球范围内针对马斯克在美国的政治活动而引发的破坏行为的回应。如有必要,可能会增加对经销商的监控。

自从唐纳德·特朗普在1月就任美国总统以来,马斯克作为政府效率部门的负责人,已经裁减了联邦工作人员,这导致了“特斯拉干预运动”的出现,该运动最初在美国发起,随后蔓延到欧洲。尽管大部分抗议活动迄今为止都是和平的,但特斯拉的经销商和汽车越来越成为破坏的目标。在德国一处经销商中,周六7辆汽车被纵火;而在瑞典,首都斯德哥尔摩和沿海城市马尔默的两家特斯拉店则于周一遭到橙色油漆的破坏。

马斯克与欧洲极右派政党领导人保持密切关系,包括意大利总理乔治亚·梅洛尼。梅洛尼在1月初的一次采访中称马斯克为“一个聪明的人”。领导极右联盟的马泰奥·萨尔维尼在罗马事件后对马斯克表示了支持。他在X上写道:“针对特斯拉公司的无端仇恨太多了。仇恨和冲突的时代必须尽快结束。我向埃隆·马斯克和所有受到威胁与攻击的工人表示支持。”



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Surgimate扩展C-Suite领导团队

Stacy Kilgore被任命为首席财务官;Bharath Perugu被任命为首席产品和技术官
Surgimate是美国领先的外科协调软件提供商,今天宣布任命Stacy Kilgore为首席财务官,Bharath Perugu为首席产品和技术官。图片{ width=60% }


Kilgore最近担任电子商务软件提供商Linnworks的CFO,拥有超过25年的财务管理经验。她在战略规划、并购和运营执行方面的丰富专业知识,使她能够领导Surgimate的财务运营,并支持其动态增长战略。

“在外科协调领域,Surgimate卓越的声誉以及对客户和员工的深切承诺让我立刻产生了共鸣,”Kilgore说。“我期待与执行团队合作,推动增长,识别战略机会,并确保我们的财务实践为未来打下坚实的基础。”

Perugu加入Surgimate,拥有超过20年的医疗信息技术、信息学和互操作性经验。他在数字健康和电子健康记录(EHR)生态系统的深厚专业知识,来自于在eMDs、VisionWeb和Office Practicum等公司的经历。

“Surgimate一直证明了它能够通过技术简化外科协调并改善患者结果,”Perugu说。“我很高兴能与团队合作,增强我们的产品能力,深化我们的集成,并构建满足客户不断变化需求的下一代功能。”

Kilgore和Perugu的任命是在Surgimate一系列战略举措之后,包括最近在2025年2月完成的对ImplantBase的收购。这一交易扩大了Surgimate的软件产品,以帮助医疗器械制造商和分销商更好地管理销售和库存。

“Stacy和Bharath将在我们继续投资我们的产品、流程和人员时发挥重要作用,”CEO Kraig Brown说。“他们数十年的经验将帮助我们加速战略计划并推动更大的运营卓越。最重要的是,他们与我们的文化非常契合,并且分享我们对客户和团队成员的承诺。”

Business Wire是新闻机构、记者、投资专业人士和监管机构的可信新闻来源,通过其多项专利的NX网络将新闻直接传递到编辑系统和领先的在线新闻源。Business Wire在全球拥有18个新闻中心,以满足传播专业人士和新闻媒体的需求。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB