CareCloud晋升Crystal Williams为首席运营官

焦点:专注于增强盈利能力和进一步优化运营
医疗科技解决方案领导者CareCloud公司(纳斯达克股票代码:CCLD、CCLDP、CCLDO)今日宣布晋升Crystal Williams为新的首席运营官,旨在进一步优化运营,支持公司实现盈利能力和自由现金流目标。图片{ width=60% }


Williams拥有两十多年的收入循环管理(RCM)经验和领导力,专注于优化运营和推动利润改善。她精通RCM、付款方和客户数据分析、行业法规以及领先技术,以优化各种医疗提供者的收入流和客户结果,最近担任该公司的副总裁客户运营。
CareCloud首席执行官A. Hadi Chaudhry表示:“Crystal担任这一重要领导职务,我们感到非常激动。她在数据驱动的RCM框架和创新科技方面的丰富经验,将在进一步利用我们的全球客户运营团队,并优化公司资源,提供卓越的客户体验和患者结果方面发挥重要作用。”
在加入CareCloud之前,Williams曾在GE Healthcare担任领导职位,获得了精益认证,并在公司各个领域推动了各种项目,以优化效率、改善公司利润并增强客户收入。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Livepeer推出用于处理生成视频的AI计算子网

Livepeer AI应对AI繁荣中最紧迫的挑战之一:对AI计算能力的指数级需求增长
开放视频基础设施网络Livepeer宣布推出其AI子网。图片{ width=60% }


Livepeer首席执行官Doug Petkanics表示,随着生成AI的使用增加,对于构建者、创作者和开发人员来说,对AI计算能力的需求也随之增加,需要更灵活、动态地访问AI计算功能:
“AI推理是生成AI中最昂贵且计算密集的挑战之一”,Livepeer首席执行官Doug Petkanics表示。“我们的全球分散节点网络可以满足对AI计算的不断增长需求——这种需求将随着文本到视频模型在娱乐、社交媒体和游戏领域的广泛应用而呈指数增长。”
Livepeer AI子网允许硬件提供者通过为AI推理作业(如文本到图像、文本到视频和图像到视频)贡献他们的GPU而赚取费用。该子网是主要Livepeer网络的一个分支,能够在仍然使用Livepeer协议进行节点发现和付款的同时,实现新的AI功能。
子网推出的目标是吸引节点支持Livepeer的新AI功能,进行测试并从战略测试合作伙伴那里收集数据,这些合作伙伴将对在Livepeer网络上执行大规模AI推理的成本效益进行基准测试。Petkanics继续表示:
“经过验证,团队将将这些功能合并到核心Livepeer客户端中,添加额外的作业类型,并发展利用附加形式的基于AI的视频计算的生态系统。目标是让AI开发人员引入他们自己的模型、权重、微调或在现有基础模型之上部署自定义LoRAs。这将为开发人员提供终极灵活性,他们可以设计定制的工作流程,以支持任何可想象的AI媒体计算需求。”
团队目前正计划在8月推出Livepeer AI主网,这将允许构建者、创作者和开发人员利用Livepeer的成本效益、可靠和可扩展的基础设施,满足其所有的生成AI计算需求。
Livepeer加入C2PA打击Deepfake
Livepeer是第一个加入内容原产地和真实性联盟(C2PA)的开放基础设施网络,该联盟提供了一个开放的技术标准,使发布者、创作者和消费者能够追踪不同类型媒体的来源。其他成员包括TikTok、Adobe、Google、索尼、英特尔、BBC、微软和OpenAI等。
Petkanics表示:“在涉及AI时,内容原产地是困难的。”。“基础设施层理想地处于信息不准确信息的关键阻碍位置,它可以使内容在从创建到编辑、分发和消费的过程中无缝地进行指纹识别。我们致力于在可能的情况下支持内容的真实性,以重建信任,并嵌入可验证的元数据,从而使每个内容生命周期阶段都能获得归因。”。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Livepeer推出AI计算子网以处理生成视频

Livepeer AI应对了人工智能蓬勃发展中最紧迫的挑战之一:AI计算容量的指数增长需求
开放视频基础设施网络Livepeer宣布推出其AI子网。图片{ width=60% }


随着生成式人工智能的使用增加,对于构建者、创作者和开发人员来说,对AI计算能力的更加适应性、动态访问需求也在相应增加,Livepeer首席执行官Doug Petkanics表示:
“AI推理是生成式人工智能中最昂贵、计算资源密集的挑战之一。” Livepeer首席执行官Doug Petkanics表示。“我们的全球去中心化节点网络可以服务于对AI计算的日益增长需求——这种需求将随着文本转视频模型在娱乐、社交媒体和游戏中的应用而呈指数级增长。”
Livepeer AI子网允许硬件提供商通过为AI推理工作(如文本转图像、文本转视频和图像转视频)贡献其GPU而赚取费用。该子网是主要Livepeer网络的一个分支,仍然使用Livepeer协议进行节点的发现和付款。
子网推出的目标是吸引节点支持Livepeer的新AI功能,进行测试并收集来自战略测试合作伙伴的数据,这些合作伙伴可以对Livepeer网络在规模化进行AI推理方面的成本效益进行基准测试,Petkanics继续说道:
“经过验证后,团队将这些功能合并到核心Livepeer客户端中,添加其他作业类型,并扩大围绕利用其他形式的基于AI的视频计算的生态系统。目标是使AI开发人员能够带入他们自己的模型、权重、微调或在网络中现有基础模型之上部署自定义LoRAs。这将为开发人员提供极大的灵活性,他们可以设计定制的工作流程,以支持任何想象得到的AI媒体计算需求。”
团队目前正在针对Livepeer AI主网的八月发布进行目标设置,这将允许构建者、创作者和开发人员利用Livepeer的成本效益、可靠和可扩展的基础设施来满足他们所有生成式AI计算需求。
Livepeer加入C2PA以打击深度伪造
Livepeer是首个加入内容溯源与真实性合作组(C2PA)的开放基础设施网络,该组织提供了一个开放技术标准,为出版商、创作者和消费者提供了追溯不同类型媒体来源的能力。其他成员包括TikTok、Adobe、Google、索尼、英特尔、BBC、微软和OpenAI。
Petkanics表示:“在涉及人工智能时,内容溯源是困难的。”储备信息层理想地定位为信息消费的关键缺口,因为它可以在内容从创建到编辑、分发和消费的过程中无缝地为内容进行指纹标识。我们致力于在可能的情况下支持内容的真实性,以重建信任并嵌入可验证的元数据,从而使得在内容生命周期的每个阶段中实现可追溯的评级。”。

需注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需输出为Markdown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

大模型,站在向下竞底和向上定价的分岔路口

2024年以来,大模型的价格出现了显著的下降趋势,并且是全球性的。

海外AI巨头,OpenAI和谷歌都在五月的新品发布会上,下调了模型调用价格。


OpenAI的GPT-4o支持免费试用,调用API的价格也比GPT-4-turbo降低了一半,为5 美元/百万tokens。谷歌的当家王牌Gemini大模型系列,Gemini 1.5 Flash 的价格为0.35美元/百万tokens,比GPT-4o 便宜得多。

同样的“价格战”,也在国内开打。

5月13日智谱AI上线了新的价格体系,入门级产品GLM-3 Turbo模型,调用价格从5 元/百万tokens,降至1元/百万tokens。紧随其后的字节跳动,正式发布豆包大模型家族,其中的豆包通用模型Pro 32k模型,定价为0.0008元/千tokens。

当一串代表价格的数字,成为各家发布会上最显眼的一页、最广为传播的信息,其他厂商为了不失去曝光度,不流失现有用户,当然也要有所表示,被动跟进,加入“价格战”。

就在今天,5月21日,阿里云也抛出重磅炸弹,宣布通义千问主力模型Qwen-Long,API输入价格降至0.0005元/千tokens。

大模型价格正在竞底,但究其本质,向下竞底是不具备“向上定价”的条件。将“降价”而非“卖贵”作为核心竞争力的大模型,是走不长远的。

降价的本质,是无法“向上定价”

大模型百万tokens价格一再跳水,OpenAI说是为了“造福世界”,谷歌说是为了扩大AI用户,国产大模型厂商也纷纷表示要让利个人和企业开发者。

那为什么ChatGPT、Gemini刚问世的时候,就敢于强势向开发者收钱呢?那时怎么不践行“造福世界”的初心呢?

我们越过那些官方的宣传辞藻,来看几组行业数据,就会发现:降价是一种必然。

第一,模型能力正在趋同,OpenAI/谷歌也没有护城河。

数据显示,自GPT-4发布以来,多个模型在GPT-4水平性能上的巨大收敛,然而并没有明显领先的模型。

就是大家都在向GPT-4看齐,但谁都没有突出优势。能力趋同的前提下,不得不放弃收费,靠降价/免费来争夺用户,保住地盘。

第二,大模型的边际收益正在持续走低。

Gary Marcus 博士在“Evidence that LLMs are reaching a point of diminishing returns — and what that might mean”《LLMs正达到收益递减的证据——及其可能意味着什么》一文中提到,从GPT-2到GPT-4甚至GPT-4 Turbo的性能变化,已经出现了性能递减的迹象。

在收益递减的背景下,意味着处理相同的任务,开发者的实际成本是在上升的。在AI创新商业化前景还不明朗的市场环境下,为了保住现有用户,大模型厂商必须给出有吸引力的对策。包括提供更小的模型,比如谷歌推出的Gemini 1.5 Flash,通过“蒸馏”实现了与Gemini 1.5 Pro性能接近、成本更低。另一个手段就是直接降价。

综上,大模型降价的本质,是因同质化竞争+投入产出比降低,而无法卖贵、不敢卖贵的必然选择。

向下竞底的前途,是没有前途

论迹不论心,只要大模型厂商的降价行动,能够切实惠及企业和开发者,当然是受市场欢迎的。

问题就在这里,企业和开发者能从中获得多大收益呢?

有人说,降低成本能推动大模型的“价值创造”,是错误的因果归因。大模型的“价值创造”,是以大模型本身为锚点,而非价格。

最直接的例子,ChatGPT问世即付费,当时很多从业者都很开心,认为市场终于重返工程师主导的文化,技术为王,代码竞争,“没有那些精心设计的流量游戏或者运营技巧,没人会动砍一刀送1000个token的心思”。说明明码标价、为好东西付费的模式,才是开发者心中的良性商业模式。

差的商业模式是什么?是模型能力不行,企业和个人开发者投入了大量时间、精力,结果无法建立竞争力,无法从应用创新中获得商业回报。

有一个SaaS开发者直言:“我们折腾了一年(做基于LLM的产品),也有不少用户提出了付费需求,但我们感觉做不到SLA,全部婉拒了。”所谓SLA,是指一定开销下,服务商与用户之间的一种协定,来保障服务的性能和可靠性。

开发者和ISV服务商,如果被低价吸引,但底座模型的能力却不行,不能解决用户的问题,赚不到钱,还投入了大量研发资金和工程团队,那最后实际的沉没成本,可比调用省下的仨瓜俩枣大多了。

正如微软所强调的那样,大模型“仍将是解决众多复杂任务的黄金标准”。所以,良性的商业模式,是大模型能力持续提升,商业化版本上同时兼顾普惠。

以下图来说,逐步进入到低价高质的绿色区域,也是“最具吸引力象限”。

从图中不难看到,GPT-4o是目前质量最高、价格相对降低的位置。

而放眼国内的厂商,模型能力如果达不到OpenAI的水平,一味拼价格并不是一个好策略。

可以推演一下,打价格战,会发生三种情况:

最乐观、最好的结果,是大模型厂商靠低价吸引用户,用户数量和使用量的规模化增加,能够低效甚至超过降价的亏损,实现盈利。而即使是最好的情况,大模型企业也会在短期内,利润受到挤压,财务表现可能会受到来自资本市场或投资人的压力。

至少目前来看,可能性很小。降价或许能够吸引不少用户尝鲜、试用,但最终模型能力才是沉淀下来的主因,留存率并不一定理想。

用户增长不确定,大模型投资成本却在节节攀升,意味着大模型厂商的风险敞口不断扩大,由此带来打价格战的一种最坏情况:国内大模型厂商被迫跟进价格战,不断压缩本就不大的盈利空间。

Anthropic的CEO曾向媒体透露,目前正在训练的模型成本已接近10亿美元,到2025年和2026年,将飙升至50亿或100亿美元。

这意味着,一旦大模型企业为了“价格战”,现金流会持续承压,缺乏充足的资金投入到招募AI人才、升级基础设施、部署数据中心、升级网络等投资中去,模型进化与迭代也会受到影响,从而让国产基座模型进入发展瓶颈期,与世界一流水平的差距越拉越大。

需要注意的是,社会各界用户早已在各个模型厂商的宣传布道中,拔高了对大模型的期望值。一味推广低质低价的使用体验,让人们对AI失去信心,觉得大模型不够万能、啥都干不好,对这一轮大模型主导的AI热潮,将是极大的负面影响。

当然,也不必过于焦虑。最坏情况和最好情况一样,发生的概率不大。现实中最有可能的,是大模型行业在最佳和最坏情况之间震荡。

一部分模型性能领先、商业模式向好、客情关系良好、现金流相对充裕的厂商,能够在跟进降价的同时,保持对底层创新的持续投资,但长期可以摊薄研发成本,靠规模增长来实现收入上涨。而注定也有一部分企业会在价格战与现金流压力下,被震荡出局。

一个AI公司创始人就表示:其实挺期待AGI到来的,虽然能秒灭我们这种小团队,但至少大家都解脱了。

说到底,一味打价格战,AI巨头有没有前途,不一定,但创新型小公司,一定危险。

降价的前提,是有“向上定价”的实力

有必要叠个甲,我们不反对大模型降价,鼓励大模型厂商为个人和企业开发者减轻负担。

只不过,当舆论各方都关注“低价”的时候,当一场大模型发布会的亮点是百万token价格小数点后有几位,当大模型的商业模式从技术为王,变成“羊毛出在猪身上”、把用户当成流量商品……有必要再重申一下:新技术,是大模型产业的“震中”。

高科技领域,新技术层出不穷。企业要在一波又一波技术浪潮中,同时扮演“颠覆者”和“防御者”。拿大模型来说,厂商必须有至少两个梯队来参与竞争。

一个梯队负责进攻,孵化全新的模型和产品,追逐技术上的颠覆式创新;另一个梯队负责防御,通过低价、生态等守住现有业务和用户,抵御对手的袭击。

而当前,大模型厂商的更优先事务,不是“向下降价”,而是塑造“向上定价”的可能性。

将自家大模型矩阵中的某一些特定模型,做一个极致低价,是很容易操作和吸引眼球的。能把大模型卖出去,向上定价,向价格段的上游迁移,才是AI实力的体现,才能让企业保有更长的生命力。

举个例子,GPT-4o虽然免费,但免费版本只提供有限的次数,而天花板级别的语音交互能力又带来了极强的付费潜力。此外,GPT-5也早就被曝已经做出来了,只是OpenAI没决定好何时推向市场。谷歌也采用类似的策略,更低价格、更低成本的模型,与高性能的付费模型,以及庞大的软硬件生态来让AI落地,共同构成商业版图。

当前国产大模型亟待完成的,是能力突破的技术进击。

从我们了解的大模型使用情况来看,企业和个人开发者最在意的商业化问题,仍然要靠模型本身的进化来解决,比如说:

目前阶段,很多任务…
…业务细节,不忽视任何微小的业务细节,量身定制,降低整个开发过程的周期和难度,或许比降价更有吸引力。

其实,大模型质价比的“最具吸引力象限”,已经说明了,质量做高的前提下,实现价格更优,才是大模型商业化的可持续之路。

向下竞底只是权宜之计,能够“向上定价”的大模型才有未来。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

均价300万美元?英伟达GH200超级芯片落地9个超算中心,每秒两百亿亿次flop

【导读】英伟达正在宣传其Grace Hopper的异构计算框架正在被分布于世界各地的9台超算系统所使用,共同实现了惊人的 200 exaflops的AI计算能力。这表明英伟达正在为世界上一些更强大的人工智能系统供货,已经开始取代AMD和英特尔在高性能计算领域的地位。


图片来源:由GPTNB生成

英伟达用Grace Hopper的实力证明,它可以成为AI超算的首选硬件,未来将不再局限于GPU。

5月12日,英伟达宣布,全球有9台新型超级计算机正在使用Nvidia Grace Hopper超级芯片来加速科学研究和发现,从而推动高性能计算(HPC)产业转向以AI驱动。

Grace Hopper超级芯片

即将上线的这9台超算包括法国的EXA1-HE、波兰的Helios、瑞士的Alps、德国的JUPITER、美国UIUC的DeltaAI以及日本的Miyabi。

这9个系统的算力加在一起可以提供200 exaflops(即每秒两百亿亿次浮点数计算)的处理能力。

此外,英国布里斯托大学的Isambard-AI和Isambard 3,以及美国洛斯阿拉莫斯国家实验室和德克萨斯高级计算中心的系统也开始使用Grace Hopper的硬件和平台。

其中,Isambard-AI第一阶段的超级计算机HPE Cray EX2500就配备了168个GH200超级芯片,成为有史以来最高效的计算机之一。

预计剩余的5280颗芯片将于今年夏天交付给Isambard-AI系统,届时其性能将提高约32倍,从而推动数据分析、药物发现、气候研究和更多AI4Science领域的发展。

英伟达Grace Hopper超级芯片架构是第一个真正的异构加速平台,将Hopper GPU的高性能和Grace CPU的多功能性融合在单个芯片中,专为加速计算和生成式AI而打造。

GH200芯片架构示意图

该系列中的GH200芯片在AI和高性能运算方面有非常强大的能力,单个GH200芯片由一个72核Grace CPU和一个H100 GPU组成,内存容量最高可达624GB。

图片

对于百亿亿级的高性能计算或万亿参数级别的AI模型,芯片间的传输速度几乎和芯片的计算能力一样重要,服务器集群中的每个 GPU之间需要进行高速、无缝的通信,以实现大规模加速。

英伟达的NVLink技术就是为了解决通信问题,GH200中的CPU和GPU通过NVLink C2C连接在一起,提供900GB/s带宽,是第五代PCIe带宽的7倍。

在单个服务器上,通过NVlink连接的双GH200芯片可以提供比H100高3.5倍的GPU内存容量和3倍的带宽。

图片

然而,英伟达并没有公开GH200的价格,可以参考的是,目前H100系列官方售价约为4万美元。

英伟达进军超算

近两年来,英伟达不断在服务器和高性能计算领域布局,与AMD、英特尔等公司展开竞争。

尽管英伟达的GPU业务蒸蒸日上,已经赚得盆满钵满,几乎控制全部的AI GPU市场,但进军高性能计算也非常重要,因为给超算系统提供硬件和平台是一项规模巨大且利润丰厚的业务。

目前,世界各国都在不约而同地加大数据、基础设施等方面的投资,以建造更高效的超算系统,这些超算中心以及科技巨头都可以成为Grace Hopper硬件及其平台的潜在用户。

为此,英伟达基于Arm架构从头构建了Grace系列数据中心CPU,旨在创建高性能计算和AI超级芯片。

然而,在2月发布的HPCC基准测试中,Grace还是落后于英伟达最新的Sapphire Rapids CPU,在八项测试中仅有三项更快。

图片

但也有文章指出,Grace在散热和成本方面存在优势,这也是构建数据中心需要考虑的关键因素。

最新一代的Grace Hopper超级芯片于去年8月推出,是世界上第一个配备HBM3e内存的处理器,容量达到141GB,旨在处理「世界上最复杂的生成式人工智能工作负载,涵盖大型语言模型、推荐系统和矢量数据库」。

英伟达CEO黄仁勋穿着他标志性的皮夹克,在世界顶级计算机图形学会议SIGGRAPH 2023的讲台上发布了这款产品。

图片

HBM(高带宽内存)各代之间的区别主要在于传输速度而非容量。相比AMD所使用的HBM3内存,HBM3e提速约50%,将Grace Hopper中的数据传输速率从原来的4TB/s提升到5TB/s。

除了Grace Hopper系列,英伟达也在雄心勃勃地扩展更多的产品线,以满足不同层次、不同场景的计算需求。

比如老黄在今年3月的GTC大会上展示的下一代Blackwell系列芯片属于英伟达,其中的GB200型号结合了一个Grace CPU和两个B200 GPU,实现5 petaflops(每秒千万亿次浮点计算)的处理能力,相比之下,H200 GPU的原始计算能力只有1 petaflops。

《巴伦周刊》分析师Tae Kim在推特中写道,据汇丰银行分析师估算,一颗GB200芯片的成本可能高达7万美元,而且英伟达更倾向于为客户提供集成了多个芯片的服务器,而不是直接出售芯片,会进一步抬高芯片的平均价格。

比如GB200 NVL36服务器配备36个GB200芯片,平均售价约为180万美元,搭载72个芯片的NVL72服务器售价可能达到300万美元。

图片

加速AI驱动的科学研究

英伟达对基于Grace Hopper的超算中心寄予厚望,认为此举将加速科学研究进程。

高性能计算 (HPC)是推动科学计算进步的最重要工具之一,从天气预报、能源勘探到计算流体动力学和生命科学,研究人员正在将传统的模拟方法与人工智能、机器学习、大数据分析和边缘计算相融合,以解决重要的科学问题。

高性能计算用于气象建模

英伟达超大规模和高性能计算副总裁Ian Buck在一份声明中表示「人工智能正在加速对气候变化的研究、加快药物发现,并在数十个其他领域取得突破」,「Nvidia Grace Hopper正成为高性能计算的重要组成部分,因为它们能够在提高能源利用效率的同时改造整个行业。」

参考资料:


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

均价300万美元?英伟达GH200超级芯片落地9个超算中心,每秒两百亿亿次flop

【导读】英伟达正在宣传其Grace Hopper的异构计算框架正在被分布于世界各地的9台超算系统所使用,共同实现了惊人的 200 exaflops的AI计算能力。这表明英伟达正在为世界上一些更强大的人工智能系统供货,已经开始取代AMD和英特尔在高性能计算领域的地位。


图片来源:由GPTNB生成

英伟达用Grace Hopper的实力证明,它可以成为AI超算的首选硬件,未来将不再局限于GPU。
5月12日,英伟达宣布,全球有9台新型超级计算机正在使用Nvidia Grace Hopper超级芯片来加速科学研究和发现,从而推动高性能计算(HPC)产业转向以AI驱动。

Grace Hopper超级芯片

即将上线的这9台超算包括法国的EXA1-HE、波兰的Helios、瑞士的Alps、德国的JUPITER、美国UIUC的DeltaAI以及日本的Miyabi。
这9个系统的算力加在一起可以提供200 exaflops(即每秒两百亿亿次浮点数计算)的处理能力。

此外,英国布里斯托大学的Isambard-AI和Isambard 3,以及美国洛斯阿拉莫斯国家实验室和德克萨斯高级计算中心的系统也开始使用Grace Hopper的硬件和平台。
其中,Isambard-AI第一阶段的超级计算机HPE Cray EX2500就配备了168个GH200超级芯片,成为有史以来最高效的计算机之一。
预计剩余的5280颗芯片将于今年夏天交付给Isambard-AI系统,届时其性能将提高约32倍,从而推动数据分析、药物发现、气候研究和更多AI4Science领域的发展。
英伟达Grace Hopper超级芯片架构是第一个真正的异构加速平台,将Hopper GPU的高性能和Grace CPU的多功能性融合在单个芯片中,专为加速计算和生成式AI而打造。

GH200芯片架构示意图

该系列中的GH200芯片在AI和高性能运算方面有非常强大的能力,单个GH200芯片由一个72核Grace CPU和一个H100 GPU组成,内存容量最高可达624GB。

image

对于百亿亿级的高性能计算或万亿参数级别的AI模型,芯片间的传输速度几乎和芯片的计算能力一样重要,服务器集群中的每个 GPU之间需要进行高速、无缝的通信,以实现大规模加速。
英伟达的NVLink技术就是为了解决通信问题,GH200中的CPU和GPU通过NVLink C2C连接在一起,提供900GB/s带宽,是第五代PCIe带宽的7倍。
在单个服务器上,通过NVlink连接的双GH200芯片可以提供比H100高3.5倍的GPU内存容量和3倍的带宽。

image

然而,英伟达并没有公开GH200的价格,可以参考的是,目前H100系列官方售价约为4万美元。

【加速AI驱动的科学研究】
英伟达对基于Grace Hopper的超算中心寄予厚望,认为此举将加速科学研究进程。
高性能计算 (HPC)是推动科学计算进步的最重要工具之一,从天气预报、能源勘探到计算流体动力学和生命科学,研究人员正在将传统的模拟方法与人工智能、机器学习、大数据分析和边缘计算相融合,以解决重要的科学问题。

高性能计算用于气象建模

英伟达超大规模和高性能计算副总裁Ian Buck在一份声明中表示「人工智能正在加速对气候变化的研究、加快药物发现,并在数十个其他领域取得突破」,「Nvidia Grace Hopper正成为高性能计算的重要组成部分,因为它们能够在提高能源利用效率的同时改造整个行业。

参考资料:
- 链接1
- 链接2
- 链接3

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

8年估值千亿!华裔天才干出传奇AI独角兽,年入7亿美元,下一步IPO

文章来源:智东西

英伟达、英特尔、AMD、亚马逊、Meta、思科参投10亿美元新融资。

编译 | ZeR0

编辑 | 漠影

智东西5月22日消息,昨晚,95后华裔天才Alexander Wang宣布,其创办的美国AI数据标注创企Scale AI获得10亿美元F轮融资,估值翻倍至138亿美元(折合约999亿人民币)


本轮融资由现有投资者Accel领投,几乎所有现有投资者都参与了这轮投资,包括Y Combinator、Nat Friedman、英伟达等,思科投资、英特尔资本、AMD风投、亚马逊、Meta等新投资者也参与其中。

新融资为IPO铺平了道路。该公司的一位投资者表示,这轮融资可能是Scale AI作为一家私营公司的最后一轮融资,“下一件合乎逻辑的事情是公开上市,(本轮融资中)有投资者可以在这方面提供帮助。

这笔交易凸显了数据对超级AI系统竞赛的重要性,以及投资者愿意为此支付的溢价。

“AI数据代工厂”Scale AI成立于2016年,总部位于旧金山,起初专注于标注自动驾驶系统用图,通过为OpenAI的ChatGPT等训练工具提供数据标注服务而迅速发展,是当前全球估值最高的AI数据标注独角兽。

Scale联合创始人兼首席执行官Alexander Wang是一位美籍华裔天才,出生于1997年,从小新墨西哥州长大,父母都是物理学家,十几岁就在编程竞赛中初露锋芒,读高中时接到科技公司的工作邀约。根据领英网资料,他在麻省理工学院期间的GPA成绩为5.0。

19岁那年,刚在麻省理工学院读了一年本科的Alexander Wang选择辍学,与22岁的Lucy Guo共同创办Scale AI。5年后的2021年,Scale AI的估值已经飙升到73亿美元

Alexander Wang回忆说,过去8年,Scale AI几乎推动了AI领域的每一个重大突破:其自动驾驶数据引擎推动了L4自动驾驶技术的突破;其公共部门数据引擎为美国国防部的许多主要AI项目提供了动力;Scale AI与OpenAI合作,在GPT-2上进行了人类反馈强化学习(RLHF)的第一次实验,并将这些技术扩展到InstructGPT及其他领域……

如今,Scale AI为几乎所有领先的AI模型提供数据支持,为OpenAI、Meta、微软等组织提供服务。

外媒报道称,现年27岁的Alexander Wang已经是美国华盛顿和硅谷的知名人物,一直在与美国政府和顶级AI公司密切互动。今年早些时候,Scale AI被美国国防部授予了一份合同,测试和评估各种AI模型。

据一位知情人士透露,Scale AI去年营收约为7亿美元

AI模型过去18个月里有了巨大的进步,但进一步的提升依赖于更大、更复杂的数据集。

Alexander Wang认为,AI数据的未来取决于三个原则:丰富的数据、前沿的数据、测量与评估

“我们必须建立数据代工厂,迎来AI就绪的数据丰富时代,而不是让自己屈服于数据稀缺。”他在社交平台上写道,“有了今天的资金,我们正在进入这一旅程的下一个阶段——加速丰富的前沿数据,为AGI铺平道路。”

一位选择不参与Scale AI最新一轮融资的风险投资家透露道,担心该公司的收入过于集中在一小部分AI业务上,这些业务在打造最佳模型的激烈竞争中正在烧钱。

“我们是一家基础设施提供商,”Alexander Wang说,“上面的模型开发生态系统如何发展,显然会影响我们的业务,就像它影响英伟达、数据中心提供商和云供应商一样。”

Scale AI的新融资是一系列AI大型交易中最新一笔。OpenAI和Anthropic在过去12个月里从微软、亚马逊、谷歌那里筹集了数十亿美元,马斯克也正在为自己的AI创企xAI融资多达60亿美元。不同的是,Scale AI专注于数据标注,并没有构建自己的生成式AI模型。

来源:Scale AI,英国《金融时报》



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

微软深夜再掀AI生产力革命,奥特曼登台「自曝」新模型!定制Copilot十亿打工人狂欢

微软昨夜刚上演了一波AI PC革命,今天又全是Copilot。而最让人意外的,竟是奥特曼本人登台预告了下一代模型将会带来新的模态和整体智能。


AI生产力的革命,微软怎会缺席?
在今天的开发者大会上,曾经誓要「颠覆」10亿打工人的Copilot,依然是全程的主角。

没想到70年后,还是要靠微软重新定义软件
不仅有Copilot加持的全新AI PC,日常生活助手Copilot,还有为全世界开发者提供的AI工具堆栈。

更惊喜的是,Sam Altman竟然在发布会的最后,被CTO Kevin Scott请上了台!
两人开场先是一波寒暄,然后共同感慨,这简直是疯狂的一周,疯狂的一年!

针对前段时间的OpenAI离职潮,奥特曼似乎用了一些隐晦的话语来暗戳戳回应:「为了让GPT变得稳健、安全,我们做了很多工作。OpenAI 创建了众多团队来确保LLM按预期工作。」

三大杀器
过去的一年半里,世界发生了诸多变化,其中最令Altman本人震惊的事是什么?
Altman表示,数百万开发者是推动过去一年里世界巨变的核心。
从GPT-4 ,再到GPT-4o的发布,尽管模型API推出时间不久,但我从未见过一项技术能如此迅速地得到有意义的应用。
人们正在构建我们从未想过的创新应用,完全展现了开放API的价值所在。
而Kevin Scott也调侃道:看得出来,你们很好地利用了手里的超强超算。

2020年交付的「鲨鱼」级超算训出了GPT-3,接下来的「虎鲸」级超算训出GPT-4,而现在「鲸鱼」级超算微软正交付给OpenAI
奥特曼还表示,新的模态和整体智能将是OpenAI下一个模型的关键。
他预计模型将会变得更智能、更强大,更安全,而且GPT-4o将会速度更快,成本更低。
是的,就像摩尔定律推动信息革命一样,Scaling Law和模型架构一起,改变了我们使用数据、生成数据的方式。

在这些缩放定律的影响下,我们拥有一个新的自然用户界面,这是一个模型,这意味着支持文本、语音、图像、视频作为输入和输出。

Microsoft Copilot,是日常生活中的助手;Copilot stack,则可以让我们构建AI程序、解决方案等。
还有一个重头戏,当然就是昨天发布的全新Copilot+ PC,它直接打破了纪录,成为有史以来最快的AI电脑!
如今,Windows成为了构建AI应用的最佳平台。而这种影响,不啻于Win 32对图形用户界面的意义。

GitHub Copilot「插件商店」首发
继Copilot成为最流行的代码补全工具和「个人助理」之后,微软本次又更新了这个效率提升神器。
微软表示,很多开发者在代码之外花费了75%的时间,比如追踪工作流、以及撰写需求文档和规格说明等。
不仅如此,定位和修复bug的工作往往需要频繁进行上下文切换,开发者在数据库、IDE、代码仓库、监控工具、云平台之间疲于奔命,无法专注于代码本身。
这正是全新GitHub Copilot可以发挥作用的地方。
它可以通过对话的方式将所有流程整合在一起,帮你调用所有工具和平台,开发者只需要专注于IDE界面的核心代码内容,最大限度减少上下文切换。
不仅如此,基于强大的网络搜索和推理决策能力,Copilot还能回答关于开发过程的问题。
比如在下面这个demo中,用西班牙语描述需求,Copilot就可以自动编写出代码,并为Azure上的部署提供建议。

GitHub产品副总裁表示:「使用自然语言编程将继续降低软件开发的门槛。未来,10亿人可以利用GitHub Copilot,以自然语言的方式与开发技术栈中的任何工具集成,在GitHub上构建代码。」

GitHub Copilot支持各种各样的开发工具和平台,包括DataStax, Docker, MongoDB, Octopus Deploy, Pangea, Pinecone, Product Science, ReadMe, Sentry, Stripe以及微软自家的Office全家桶、Azure和Teams。

GitHub产品高级副总裁Mario Rodriguez表示:「我们的目标是使GitHub Copilot成为最集成、最强大、最智能的AI平台。」
在此基础上延伸出的Copilot Workspace更是提高了开发团队使用GitHub管理项目代码的效率。
之前,用户只能通过Git Bash命令行上传项目文件,图形化界面能进行的操作非常有限。
有了Copilot Workspace,各种时间线和代码分支一目了然,上传文件也容易很多。

而且还提供了非常清晰的代码变动可视化界面,让你自始至终都对项目有满满的掌控感。

截止目前,GitHub Copilot仍处于内测阶段,之后将在GitHub插件市场中发布。
不仅如此,对开发者来说,更酷的是——你可以定制自己的Copilot插件!

SharePoint
SharePoint是微软开发的用于组织内部存储、管理和共享内容的平台,每天上传数量超过20亿条。
为了减少工作中搜索和筛选内容的时间,微软开发了从SharePoint创建Copilot的功能。
任何拥有SharePoint网站编辑权限的人,只需点击几下就可以自定义Copilot功能,还可以通过Teams聊天框、电子邮件等方式将创建好的Copilot分享给团队中其他成员。
点选好SharePoint中允许访问的内容范围,以及Copilot的身份和行为等信息,它就可以立刻投入工作了。
比如内容回答问题、总结信息或者查找文件,基于你之前授权给它的内容,Copilot可以提供最新、最准确的响应。
想要在SharePoint之外创建自己的Copilot?
没问题!微软还发布了Copilot Studio,提供更灵活的自定义功能。

Copilot Studio
在SharePoint之外,Copilot Studio支持超过1000个数据连接器,方便你将各种数据源导入Copilot。
Copilot Studio依旧采用类似SharePoint中「对话驱动」的界面,你可以像聊天一样描述——想要Copilot有什么样的知识和功能,Copilot Studio就可以立即创建,并支持实时的测试、修改和发布。
为了用户更容易上手使用,Studio中还内置了各种Copilot模板,比如用于组织清晰度的Organizatiion Navigator、用于员工健康管理的Wellness等,未来几个月还会有更多Copilot模板发布。
使用Copilot Studio,你会有一种一切尽在掌握的感觉。

VSCode
如果你是一个高端玩家,更喜欢用代码优先的方式构建插件,也可以使用Visual Studio Code和Teams Toolkit,编写函数来精准定义Copilot的工作流。

Copilot新能力解锁
Copilot早就不止步于代码补全功能,而是已经演变「个人助理」,成为打工人们的效率提升神器,而且与多种工具和平台合作,构建起一套完整的「Copilot生态」。

本次Build大会上,微软又为Copilot解锁了一系列新功能。

Team Copilot
Team Copilot将功能延伸到「个人助理」之外,开始成为团队的一员。
它能承担单独的职责,提升整个团队的工作效率,比如组织并记录会议、跟踪讨论内容等,甚至可以充当项目经理,为成员分配任务并及时跟进ddl。

对于聊天界面中团队成员们的讨论进展,Copilot还能实时更新自己的记录内容。

可以在Microsoft自家开发的Teams、Loop或者Planner等协作办公软件中使用Team Copilot。
这项功能将在今年晚些时候以预览版形式向有Copilot许可证的用户发布。

Agents Copilot
如果Copilot仅仅进化到团队助手,你可能还是小看了微软。
就像用户可以自定义Copilot插件一样,你也可以使用Copilot Studio自定义一个Copilot Agent。
它不再像原来一样被动地等着你问问题或者分配任务,而是变成「事件触发」的智能体,像虚拟员工一样工作并自动执行任务。
这意味着,Copilot Agent不仅需要记忆、上下文推理以及根据反馈学习的能力,而且需要更加主动,能够在后台自发执行任务。
这样的Copilot岂不是会让一大批白领失业?
微软业务应用程序和平台公司副总裁Charles Lamanna在采访中表示,它可以消除一些重复、琐碎的工作,例如数据输入等,也许都是没有人真正想做的事情。

GPT-4o上新,多款基础模型可用
除了Copilot华丽的演示之外,在开篇提到的三个平台中,最核心的是构建最完整的端到端堆栈——Copilot stack。

其中,最底层是基础设施,然后是基础模型层。

基础设施
为了AI工作负载,微软特意构建了全新的数据中心。
因此,微软可以用每一兆瓦的功率,来降低AI的成本和功耗。

截止2024年5月,Azure超算能力已经实现了30倍的增长!
可以说,他们提供了世界上最先进的AI加速器,开发者可以拥有最完整的AI加速器选择。

从GPT-4到GPT-4o,不仅模型的速度提高了6倍,成本更是便宜了12倍。
而这背后,是微软与英伟达、AMD的深度合作,以及自研芯片的大力推进。

英伟达关键平台产品,都会引入微软的云中。
而说到和AMD的合作,微软是第一个提供最新ND MI300X v5虚拟机的云服务供应商。
无论对于AMD,还是对于微软,这都是一个意义重大的里程碑。

自研Azure Maia 100,只要你用过微软的服务,或多或少都会接触到。
而最新Azure Cobalt也开始进行公开预览了,目前已经为Microsoft Teams等服务提供了数十亿次对话的支持。

基础模型
在基础模型方面,微软与OpenAI展开了深度合作,而现在GPT-4o可以在Azure上进行训练。
一张图,展示了GPT-4o依旧是最强的模型。

而在如此强大的模型的加持下,Copilot甚至已经「进化」到指导我们怎么玩游戏了!
举个例子,你想弄清如何在《我的世界》中制作一把剑,却毫无头绪。
Copilot会从头教你:为了造一把剑,你需要先收集材料。按E键,就能打开自己的材料库了。
Copilot发现,我们缺少制作剑刃的材料,为此,需要收集木材、石头、铁、金或者钻石。
忽然出现的小人,让玩家吓了一跳。
Copilot提示道:这是一场僵尸赛跑,我们需要尽快摆脱它们。要么快速建一座方块塔,或者快速找到一个避难场所,还可以挖到山的另一侧。

此外,微软首次介绍了十分强大的Agent能力。
想露营但找不到合适的鞋怎么办?给它看一眼你的鞋,就能让它给你提意见了。

Agent分析道,这款非常适合夏季远足、让双脚保持凉爽,然而却不是这次的最佳选择。
既然如此,我们就让Agent直接挑一款最合适的。
Agent发现,这次最合适的产品是TrekReady Hawking,它为脚踝提供了支撑,还能在寒冷的山区为脚部提供保暖。然后,它还帮我们把这双鞋添加到购物车中。

当然,除了OpenAI的模型之外,微软Azure平台还将提供多款可用的模型。
并且,微软依旧拥抱开源社区,与Hugging Face合作。

最强小语言模型:Phi-3
除了引入外部模型之外,微软一直以来都在押注小模型,并引领了一场SLM革命。
从去年6月Phi-1面世,到Phi-1.5、Phi-2,再到如今Phi-3,微软小模型已经完成四次迭代升级。

今天,Phi-3家族正式官宣新成员:
Phi-3-vision、Phi-3-small,Phi-3-medium。
其实,Phi-3-small,Phi-3-medium对于每个人来说,或许并

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

阿里云大模型降价不是短期竞争行为,而是长期战略选择

今天,国内大模型圈十分热闹,先是阿里云宣布大模型降价,随后国内多家公司跟进、回应,掀起一轮行业的降价潮。但与国内其它厂商仅下调轻量级模型价格的策略不同,阿里这次一共有9款模型降价,其中性能对标GPT-4的主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。


1块钱可以买200万tokens,相当于5本《新华字典》的文字量。Qwen-Long实力究竟如何?根据官方的信息显示,其不仅性能达到GPT-4级别,还支持最长1000万tokens的超长上下文对话,可轻松处理约1500万字或1.5万页文档,是同级别模型之最。

近期,OpenAI的GPT-4o和谷歌的Gemini 1.5 Pro也下调了API价格。不过从性价比上来说阿里云的主力模型仍然具有优势,这次降价也显得诚意十足。对于云计算厂商来说,没有产品力的降价是没有意义的,大模型基础能力的领先是通义千问降价的底气…
(以下省略,文章内容较长)


source

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

CCF-阿里妈妈科技袋基金正式发布,第一期聚焦大模型方向

2024 年 5 月 18 日,在 YEF 2024 期间, CCF 联合阿里妈妈正式发布「CCF - 阿里妈妈科技袋基金」(以下简称科技袋基金),致力于面向全球高校学者搭建产学研合作平台,增强学术界和工业界的融合交流,探索新一代人工智能的算法、模型与关键技术,为社会和企业带来世界领先的创新成果。

CCF - 阿里妈妈科技袋基金 发布会现场图

CCF 秘书长唐卫清在发布现场表示,CCF 作为计算机行业的学术共同体,非常重视搭建产学合作平台,CCF 产学合作基金启动于 2013 年,至今已有超千个项目获得资助,项目合作成果在产业界获得不错的落地应用效果,也极大推动和促进了科研学者实际了解产业需求。


相信通过本支基金的启动,阿里妈妈与学术界将实现强强联合,放大大模型技术在数字营销场景的应用效果。

淘天集团技术副总裁、算法技术负责人,阿里妈妈 CTO 郑波表示,大模型、多模态技术浪潮正席卷而来,站在「新一代人工智能技术革命」的新起点,面对着新棋局,需要工业界和学术界共同合作努力。科技袋基金是阿里妈妈对外合作发布的第一支基金,希望在 CCF 这个大平台上,同全球更广阔范围的优秀学者展开合作。

阿里妈妈的吉祥物是一只袋鼠,故本支基金命名为「科技袋」,希望基金未来能成为学术界和工业界的交流桥梁,激发出有趣的灵感创意,孕育孵化出一批优秀的前沿科技成果。

关于科技袋基金

大模型作为新一代人工智能中的关键技术,是当下学术界和工业界研究的热点方向,也是助力我国新质生产力发展的重要领域。大模型目前已在阿里妈妈的 To B 和 To P(professional consumer)业务场景开始应用:通过 AI 营销创意工具、智能营销 Agent、智能设计等,商家可以自由生产创意并提升效率和品质;通过智能出价、增强分析和智能资产管理,商家可以更精细化优化推广投放策略,并管理大规模人群、商品和内容资产;通过内容风控和反作弊等,商家和平台能更精准识别和处理风险,降低损失。

科技袋基金第一期将聚焦在大模型领域展开研究,推出 4 个方向、共 10 项研究课题,课题目录如下:

  • 方向一、大模型在电商搜索场景下的应用研究

    • 课题 1. 电商稀疏大模型和大模型相结合的搜索广告召回 / 预估模型新范式探究;
    • 课题 2. 大模型信息增强技术在搜索广告召回 / 预估模型的应用研究;
    • 课题 3. 大模型生成式召回的推理性能优化。
  • 方向二、大模型在推荐场景下的应用研究

    • 课题 1. 基于大模型的推荐系统建模方式研究;
    • 课题 2. 面向用户行为预测的生成式大模型研究;
    • 课题 3. 基于 LLM 增强的多目标 RL 调控算法研究。
  • 方向三、基于领域知识增强的工具评价、自动优化与任务规划

    • 课题 1. 基于领域知识增强的工具评价、自动生成和优化;
    • 课题 2. 基于领域知识增强的任务规划。
  • 方向四、大模型在电商内容风控审核中的应用

    • 课题 1. 基于大模型的复杂风险概念自动化辨识;
    • 课题 2. 基于大模型的法规理解及案例推理。

基金课题支持金额为人民币 30 万元 / 项,项目合作周期一年。项目期间,为确保学生能够接触到真实的工业和应用场景,阿里妈妈将提供学生实习的机会。

基金申报截止时间为 2024 年 6 月 18 日 24:00(北京时间)。

申报方式

申请者请通过邮件申报,请点击阅读原文并以附件的形式上传《项目申报模板》。

每位申请人限提交一份申请,邮件申报方式:Alimama-RF@service.taobao.com.

基金申报条件和后续时间计划
基金申报条件和后续时间计划

CCF 和阿里妈妈将共同邀请来自学术界、工业界的专家组成技术委员会,并担任项目评委共同评审,专家评审主要依据以下标准:申请课题的价值,创新性和可行性;提交的 proposal 与课题需求匹配度;申请者的执行计划及交付成果的价值;申请者(及团队)的学术水平和科研能力等。欢迎海内外优秀学者提交项目申请。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB