Axelera AI获得6800万美元B轮融资,加速下一代AI发展

News Highlights:
推动全球创新:Axelera AI的Metis™ AI处理单元(AIPU)被大规模采用,成为边缘设备上最强大的AIPU,推动计算机视觉和生成AI的下一代推理解决方案。图片{ width=60% }


加速市场扩张:欧洲最大的、超额认购的芯片设计外包业务B轮融资将Axelera AI推向新市场,包括汽车和高性能计算。
推动业务发展:10亿美元的商机管道和客户需求的强劲验证了Axelera AI作为AI行业首选合作伙伴的地位,以释放创新。

Axelera AI,领先的专门为生成AI和计算机视觉推理而设计的AI硬件加速技术提供商,今天宣布成功完成了超额认购额为6800万美元的B轮融资,总筹集金额达到1.2亿美元。在短短三年时间内,Axelera AI已经建立了一个180多名员工的世界级团队(包括55多名拥有超过40,000次引用的博士),推出了Metis™ AI平台,在效率和性能上实现了3-5倍的增长,并对一亿美元的强劲商机管道拥有预见性。这一成功引来了来自风险投资、主权财富和养老基金等多元化的全球资金支持。

Axelera AI的B轮融资是欧洲在芯片设计外包业界中最大的超额认购的B轮融资。该轮融资得到了主要机构投资者的支持,包括荷兰投资基金Invest-NL Deep Tech Fund、欧洲创新委员会基金、Innovation Industries战略合作基金(由荷兰养老金基金PMT和PME支持,由MN管理)和三星创投基金,以及现有投资者Verve Ventures、Innovation Industries、Fractionelera和意大利主权基金CDP Venture Capital SGR。这笔新资金增加了以前筹集的资金,包括RVO的创新信用和来自Bitfury、CDP Venture Capital、比利时联邦金融和投资公司(SFPIM)、imec、imec.xpand和Innovation Industries的股权投资。

企业正在采用新颖的方式将计算机视觉和生成AI能力融入业务模式中。然而,与能源消耗、成本、供应有限和可扩展性相关的挑战抑制了AI的真正潜力。Axelera AI通过提供无与伦比的性能和效率解决方案来应对这些确切的行业挑战。这笔新资金使Axelera AI能够基于其专有的数字内存计算和RISC-V技术发展其备受追捧的AI推理解决方案。

Axelera AI的增长战略还着眼于跨越新地理区域和市场领域的机遇。这笔B轮融资促进了Axelera AI在全球范围内的扩张,重点放在北美、欧洲和中东的增长机会上。此外,该资金促使在汽车、数字医疗保健、工业4.0、零售、机器人和无人机、监视等关键垂直市场的扩张。这项资金还使Axelera AI能够扩展其未来的产品走向,从边缘到数据中心,以满足生成AI、大型语言模型和大型多模型需求的不断增长。这种市场扩张包括高性能计算,通过设计高效、高性能且价格竞争力强的AI加速器,以驱动未来的百亿亿级和千亿亿级HPC中心。

“毫无疑问,人工智能行业有改变多个行业的潜力,”Axelera AI联合创始人兼首席执行官Fabrizio Del Maffeo表示。“然而,为了真正利用AI的价值,组织需要一种能够平衡成本、提供高性能和高效率的解决方案。这项资金支持我们的使命,从边缘到云端,使人们能够更容易获得人工智能。通过将我们的产品线扩展到边缘计算市场以外,我们能够解决AI推理的行业挑战,并以我们可扩展的成熟技术支持当前和未来的AI处理需求。”

IDC预测,截至2027年底,AI半导体的IT基础设施将达到1,930亿美元。为满足这一市场需求,Axelera AI的Metis™ AI平台,行业最强大、性价比最高且能效最高的AI推理处理单元,将于2024年下半年全面投产。

“我们非常高兴能够支持Axelera AI进行B轮融资。该公司采用数字内存计算实施了一种非常创新的边缘高性能AI加速方法,”三星半导体创新中心负责人、三星电子执行副总裁马可·基萨里表示。“Axelera AI的架构最小化了内存和计算单元之间的数据移动,旨在克服‘内存壁’挑战。它还有望显著降低功耗,这是边缘及更远处AI应用的关键特性。”

“Axelera AI的B轮融资,得到风投、主权基金和养老金基金的支持,突显了公司为客户提供满足生成AI和计算机视觉不断增长需求的行业定义解决方案的记录,”Axelera AI董事会成员、前Arm首席财务官印德·辛格表示。“有了这笔新资金,Axelera AI将能够继续建设其产品线,并拓展到其他市场,与GenAI市场的发展趋势相一致。”

Axelera AI经验丰富的董事会成员、执行领导团队和这一系列B轮投资的结合,使Axelera AI能够建立在早期客户势头基础上,并进一步支持各个垂直市场的AI创新者的需求。目前,Axelera AI的客户正在将Metis AI平台应用于其尖端产品中,以区别其在各自市场上带来的独特优势。请注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

比尔·盖茨表示,AI将有助于实现气候目标,而非阻碍

比尔·盖茨称,尽管人们越来越担心新数据中心的增加可能会耗尽绿色能源供应,但人工智能将更多地帮助而非阻碍实现气候目标。


这位慈善家和微软联合创始人告诉记者,人工智能将使国家使用的能源量减少,即使它们需要更多数据中心,也通过提高技术和电力网格的效率来实现这一目标。盖茨在对人工智能对气候影响的担忧方面进行了淡化,尽管越来越多人担心技术突破可能导致能源需求上升,并因此需要更多化石燃料。

“让我们不要太夸张了,”盖茨说道。”数据中心在极端情况下,可能增加了6%的能源需求,但可能仅为2%至2.5%。问题是,人工智能是否会加速超过6%的减少?答案是:当然会。”

根据高盛估计,通过AI聊天机器人工具ChatGPT运行的查询所需的电量几乎是谷歌搜索的10倍,这可能意味着数据中心的碳排放在2022年至2030年之间将超过两倍。一些专家估计,AI数据中心数量的增加可能导致发达国家的电力需求增长高达10%,在经过多年的能效提高之后。

盖茨在伦敦由其风险投资基金Breakthrough Energy主办的一次会议上告诉记者,由AI数据中心带来的额外需求更有可能得到与新投资匹配的绿色电力,因为科技公司”非常愿意”支付额外费用以使用清洁电力来源,以便”证明他们正在使用绿色能源”。

“科技公司愿意支付溢价,并帮助引导绿色能源产能,”他补充道。

Breakthrough Energy已对超过100家参与能源转型的公司进行了投资。盖茨还通过盖茨基金会在人工智能方面进行了大量投资,该基金会将其770亿美元财富的约三分之一投资于微软。微软又是ChatGPT创造者OpenAI最大的外部投资者,并在其Windows操作系统中推出了一套人工智能工具,品牌为Copilot。

但他对人工智能最终能够减少碳排放的信念并不罕见。今年2月,一份发表在《自然科学报告》上的同行评审论文声称,生成式人工智能在进行简单写作和插图任务时产生的二氧化碳要比人类进行这些任务少130到2900倍。

人工智能技术对排放的影响更直接。2016年,在谷歌收购英国人工智能实验室DeepMind几年后,谷歌宣布能够利用该实验室的初创深度学习技术使其数据中心的冷却账单节省了40%。谷歌称,其数据中心由于所有非IT任务的总体电力使用减少了15%。

但数据中心的能耗只是对人工智能碳排放影响的一部分。在微软的自身排放报告中,公司表示其”范围三”或间接排放一直在朝错误的方向发展,部分原因是建立全球新数据中心的影响——这是一个目前尚不能使用可再生电力完成的任务。

“在设备上”人工智能的崛起,由微软通过其新的Copilot+个人电脑和苹果通过其对Siri的”苹果智能”增强所展示,也使问题变得更加模糊:大公司可能承诺从可再生能源购买其所有电力,但他们无法向其客户做出同样的承诺,他们的新设备相比于其否则将会更加耗电。

盖茨警告说,尽管在人工智能和绿色电力技术方面取得了进展,但世界可能会因为过渡到绿色能源所需的数量并没有迅速出现而延迟达到2050年的气候目标。

他表示,绿色能源转变的延迟可能会阻碍污染行业等产业的脱碳,使2050年达到净零排放的目标变得更加困难。

“我担心,总体来说,我们需要的转变的绿色电力不会像我们需要的那样快速出现,”盖茨说。“如果你尝试规划并说:‘我们计划在2050年之前实现零排放’,你会说:‘再过10到15年可能更为现实。’很难预见。我认为我们不太可能在2050年之前实现零排放。”

盖茨的警告是在一份全球报告发现,尽管2023年可再生能源出现历史性增长,但由于不断增长的需求,化石燃料的消耗也创下了新的纪录高位的一周之后发布的。

了解更多相关主题:

  • 人工智能 (AI)
  • 比尔·盖茨
  • 气候危机
  • 计算机
  • 微软
  • 化石燃料
  • 能源
  • 新闻

分享
重新使用此内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Singtel和日立数字加速工业人工智能解决方案

合作加速企业数字化转型,并将日立的工业应用与Singtel的Paragon生态系统集成
在亚洲领先的通讯技术集团Singtel和代表日立广泛端到端数字转型服务和技术能力的Hitachi Digital今天宣布了一项新的合作,该合作将结合Hitachi深厚的人工智能专业知识与Singtel的Paragon平台,这是一款集成了5G、边缘计算和云的全功能编排平台。图片{ width=60% }


Hitachi Digital将在日立美洲的圣克拉拉研发实验室部署Paragon,随后在美国工厂进行工业4.0用例的试点。该试点旨在验证Hitachi人工智能应用在Paragon上的互操作性,涉及质量保证、工作场所安全、沉浸式培训和预防性维护。此次试验还将实现Paragon与日立工业云应用和数字服务的集成,从而使企业超越复杂、低延迟连接的限制,提升生产体验和效率。

日立预构建的工业人工智能应用与Paragon平台的网络和多云编排能力将用于创建多个基于Paragon的产品,以帮助客户改进和加速其云操作。随后,Hitachi数字服务将作为Singtel Paragon授权的系统集成商推出这些产品,向寻求在工业环境中利用多个网络协议进行数字转型的企业客户提供独特的价值主张。

Singtel数字基础设施公司首席执行官张忠信先生表示:“快速增长的工业4.0领域的企业依赖于高质量、可靠的连接,以确保运营顺畅。我们很高兴与日立数字合作,利用Paragon管理其在日立制造设施中的连接和云需求。将日立的先进人工智能应用与Paragon生态系统集成将增强我们针对制造企业的解决方案套件,让他们能够通过人工智能驱动的变革实现无缝运营。”

日立数字首席增长官Frank Antonysamy先生表示:“日立在结合几十年的数字、数据、云、人工智能、网络安全和连接专业知识方面投入了大量资金,为行业云部署建立了变革性解决方案。我们在该领域的应用和咨询服务已经成为全球企业数字化运动的重要组成部分。我们预计与Singtel的合作将使我们再次提升企业环境中下一代技术的能力,为客户带来新的生产力水平。”

组织在工业5G部署中常常面临复杂和分散的解决方案。人工智能在这个方程中增加了新的复杂性,因为组织现在还试图在这些情况下加速人工智能的采用。Singtel Paragon是一个全面的解决方案,使他们能够在电信基础设施上与5G网络连接并安全快速地部署边缘计算和人工智能,从而缩短上市时间,减少创新曲线。

Singtel和日立之间的合作将汇集互操作的解决方案和专业交付服务,这将极大地有利于寻求解决工业人工智能复杂性的组织。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Vultr就如何弥合人工智能雄心与成熟度之间差距的见解

Transformational AI enterprises are leading the charge, outperforming operational organizations across key business metrics。图片{ width=60% }


Vultr,全球最大的私人云计算平台,今天发布了一份新行业报告《新的战场:通过多模型人工智能释放力量》。 这一开创性的研究揭示了组织人工智能成熟度与其实现卓越业务结果的能力之间的明显相关性,在营收增长、市场份额、客户满意度和运营效率方面超越行业同行。

由Vultr委托S&P全球市场情报进行的研究调查了1000多名基于美国的企业IT和数字化转型决策者,他们负责其组织的人工智能战略,涉及医疗保健与生命科学、政府/公共部门、零售、制造业、金融服务等行业。在受访者中,将近三分之三(72%)的人处于较高级别的人工智能使用成熟度。报告还通过与人工智能决策者和实践者的深度访谈,提供了关于美国各个规模企业的人工智能使用的定性视角。

“随着全球组织利用人工投资,我们想研究人工智能成熟度的现状,”Vultr母公司Constant的CMO凯文·科克兰(Kevin Cochrane)表示。“我们发现,转型组织正在赢得心智和钱袋,同时也提高了其运营利润率。人工智能成熟度是新的竞争武器,企业必须立即投资以加速人工智能模型、培训和大规模生产。”

多模型人工智能时代

在组织内部活跃使用的模型数量是其部署的人工智能能力和整体人工智能成熟度的可靠衡量标准。数据显示,先进的人工智能采用者利用多个模型同时作为多模型方法的一部分。

平均而言,目前运营的不同人工智能模型数量为158个,预计这一数字将在未来一年内增至176个人工智能模型。这种增长突显了各行业人工智能采用加速的进展,其中89%的机构预计在两年内将实现先进的人工智能利用。

人工智能熟练度和成熟度是新的商业绩效战场
人工智能有望在整个企业中普及,预计在24个月内,所有业务功能中将有80%的采用。这将包括在所有应用程序和业务单位中嵌入人工智能。

随着人工智能在企业中的新立足点,对企业整体绩效将产生巨大影响。根据报告,那些具有转型性人工智能实践的公司报告称,他们在更高级别方面比同行表现更好。具体来说,有50%的转型公司正在“明显优于”行业同行,而绝大多数以人工智能驱动的组织表示,他们在客户满意度(90%)、收入(91%)、成本削减/利润扩大(88%)、风险(87%)、营销(89%)和市场份额(89%)方面提高了他们2022/2023年度的绩效。与此同时,近一半(40-45%)的机构表示,人工智能对市场份额、收入、客户满意度、营销改进以及成本和风险减少产生了“重大”影响。

“人工智能的变革影响是不可否认的—它正在吞噬行业,并在业务运营的各个方面变得无处不在。这需要一个由可组合的堆栈和平台工程支撑的新技术时代,以有效扩展这些创新,”科克兰说。

人工智能支出预计将超过IT支出
为了充分利用人工智能的潜力,88%的受访企业计划在2025年增加其人工智能支出,其中49%预期适度增加。关于关键基础设施、合作伙伴和实施策略的发现包括:

对于云原生应用程序,三分之二的组织要么是自定义构建其模型,要么是使用开源模型提供功能。到2025年,人工智能基础设施堆栈将是混合云,其中35%的推理将在本地进行,38%将在云端/多云端进行。由于技能短缺,47%的企业正在利用合作伙伴帮助他们制定策略和实现、大规模部署人工智能,只有15%的机构正在利用AWS、GCP或Azure等超大规模公司。开放、安全和符合性是跨组织、地理位置和边缘扩展人工智能的云平台的顶级属性。

“多年来,超大规模公司一直称霸基础设施市场,依赖规模、资源和技术专长,但这一切即将发生变化,”科克兰补充说。在未来的十年里,一切都将以人工智能为核心进行重建,组织将将云工程原则整合到其运营中。结果,我们将看到人工智能专家和独立机构的崛起,因为他们使组织能够开展变革性工作并获得竞争优势。

跨所有企业扩展人工智能面临挑战
随着人工智能竞赛的加剧,也不会没有障碍。预算限制、构建或获取人工智能算法、缺乏熟练人员以及数据质量是组织表示必须解决,以升级到下一个人工智能成熟度阶段的一些最大障碍。

对于那些在转型级别上的成熟度,治理(30%)成为更大的问题,而对于那些还处于加速阶段的公司来说,企业文化是更大的问题。

要获取更多信息,或下载完整报告的副本,请访问此处。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

神话科技任命Taner Ozcelik博士为CEO

半导体领军企业加入神话科技,将可负担和节能的边缘人工智能计算能力引入机器人、国防、安全、家庭和消费设备
今天,神话科技任命了资深半导体高管Taner Ozcelik博士为其新任CEO。图片{ width=60% }


Ozcelik将领导神话科技,该人工智能处理器公司利用其超高效的模拟内存计算技术推动人工智能推断的新市场,目前由于数字计算的严重内存和能源限制而局限于高成本应用程序。

神话科技的下一代产品预计将带来能效和成本效益方面的数量级提升,同时提供前所未见的性能可扩展性水平。基于第一代产品的经验,神话科技的下一代处理器具有全新的软件工具包和简化的架构,使模拟计算比以往更易于使用。这种性能、可扩展性和易用性的结合将从边缘低成本消费设备到数据中心中的高性能计算等各种产品中,彻底改变人工智能的经济和功耗情况。

Ozcelik是自主技术商业化的先驱,在NVIDIA度过了10年的时间,他在NVIDIA成立并领导了公司的汽车芯片部门,实现了几亿美元的营收,并积累了数十亿美元的业务。 Ozcelik博士开发了基于首款NVIDIA系统的自动驾驶系统,并构建了世界上第一批Jetson系统,后来成为DrivePX和DriveCX系统以及许多全球客户使用的机器人系统的基础。

在NVIDIA之后,Ozcelik博士在ON Semiconductor担任智能感知集团的高级副总裁兼总经理,任职7年,他在多个边缘行业建立了一系列部门,集团年收入约10亿美元,并在机器人、机器视觉、先进驾驶监控系统和汽车摄像头等领域取得了全球领先地位。 最近,Ozcelik担任了Luminar Technologies的执行副总裁兼总经理,领导半导体公司和研发,开发出性能、成本、尺寸和功耗提升50倍的下一代产品,并从主要OEM厂商那里获得了数十亿美元的新业务。
Ozcelik表示:“我多年来一直关注神话科技的发展,现在加入是因为技术已经达到了关键点。神话科技准备以他们的全新模拟计算平台在行业中引发变革,特别是随着他们的下一代产品。” “能源消耗和成本是人工智能面临的最大问题,因为人工智能的快速扩张导致对存储和能量的需求急剧增加。模拟计算是将可负担和数量级更节能的推断人工智能引入到经济的各个层面的唯一途径,而神话科技凭借他们全新的模拟计算平台独具优势,领导这一变革。”
Ozcelik补充道:“就能源效率而言,神话科技的架构最接近人脑在神经网络性能和决策方面,每次操作的能耗水平达到前所未见的飞秒级,这将在人工智能的新世界中改变游戏规则。”
神话科技的联合创始人兼现任CEO Dave Fick将转任首席技术官。“Taner是半导体领域最受尊敬的运营商之一,” Fick表示。“我多年来一直钦佩他的领导才能,我很高兴能够与他合作,满足人工智能革命对记忆和性能的强烈需求。”
人工智能行业目前正处于一个关键时刻,计算需求远远超过供应。能源效率至关重要,因为人工智能模型具有数十亿至数万亿个参数,所有这些参数都必须存储在内存中并在数字芯片的处理单元之间传输,从而产生延迟。相比之下,神话科技的模拟架构具有内存计算而无需传输的功能,因此避开了内存、能源和价格瓶颈。
“过去十年,这个行业开发了强大的人工智能模型,但我们甚至无法利用当今的数字计算技术以盈利运行这些模型,” Mythic董事会成员、DCVC联合创始人兼董事总经理Matt Ocko表示。“未来十年将专注于新的人工智能推断市场 - 实际将这些模型应用于日常生活和业务中。Taner是将这种变革级别的速度和性能带入大量新边缘设备的理想领导者,同时价格和功耗显著降低。”
在Ozcelik的领导下,神话科技将努力与洛克希德·马丁风险投资公司等关键应用系统构建商合作伙伴,该公司是神话科技的合作伙伴和投资者。 目前受数字计算能力和成本限制的机器人、智能城市、安全和国防应用将成为神话科技技术的可能应用领域。
Ozcelik表示:“人工智能半导体的真正进步基准是每毫瓦的性能:在能源限制下我们可以产生的计算性能量。” “每毫瓦的性能将决定未来十年人工智能的走向,多亏了Dave Fick及其团队的工程技术,这正是神话科技与所有其他人工智能芯片制造商的区别。凭借更低的成本和能耗提供卓越的性能,我们将为边缘人工智能敞开闸门。”
Ozcelik博士毕业于西北大学,获得博士学位,以及宾夕法尼亚大学沃顿商学院的工商管理硕士学位。 Ozcelik博士被任命为神话科技的CEO,立即生效。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Mythic任命Taner Ozcelik博士为首席执行官

半导体领导者加入Mythic,将可负担得起且能效极高的边缘AI计算能力引入机器人、国防、安全、家庭和消费设备
今天,Mythic宣布任命资深半导体高管、曾任NVIDIA汽车部门创始人及副总裁兼总经理的Taner Ozcelik博士为其新任首席执行官。图片{ width=60% }


Ozcelik博士将领导Mythic利用其超高效的模拟内存计算技术,推动AI推理进入新的市场,目前受制于数字计算的严重内存和能量限制,AI推理仅局限于高成本应用。
Mythic的下一代产品即将在功耗和成本效率方面取得数量级的提升,同时提供以往未曾见过的性能扩展性。借鉴第一代产品的经验,Mythic的下一代处理器拥有全新的软件工具包和精简的架构,使模拟计算比以往更易于使用。这种性能、扩展性和易用性的结合将改变从边缘低成本消费设备到数据中心高性能计算等产品中的AI经济学和功耗消耗。
Ozcelik博士是自主技术商业化的开拓者,曾在NVIDIA工作了10年,在那里他创立并发展了公司的汽车芯片部门,收入达数亿美元,累积业务额达数十亿美元。Ozcelik博士开发了NVIDIA在自动驾驶方面的首个系统,并构建了世界上首个Jetson系统,后来成为DrivePX和DriveCX系统以及许多全球客户使用的机器人系统的基础。
在离开NVIDIA后,Ozcelik博士在ON Semiconductor担任智能传感器集团的高级副总裁兼总经理工作了7年,在那里他建立了一系列涵盖众多边缘行业的部门,集团收入约为10亿美元,并在机器人技术、机器视觉、先进驾驶系统和汽车摄像头等领域取得全球领先地位。最近,Ozcelik博士担任了Luminar Technologies的高级副总裁兼总经理,领导半导体公司和研发,开发了一款性能、成本、尺寸和功耗均比上一代产品提高50倍的新产品,并从主要OEM厂商赢得了价值数十亿美元的新业务。
Ozcelik博士表示:“我多年来一直关注Mythic的进展,现在加入是因为技术已经达到了一个关键点。Mythic有望彻底改变行业,特别是随着他们的下一代产品。”他还说:“能耗和成本是AI面临的最大问题,随着AI的快速扩展,对内存和功耗的需求激增。模拟计算是将可负担得起并提供数量级更高能效的推理AI带入经济各层面的唯一途径,而Mythic在使用他们全新的模拟计算平台方面处于独特位置来引领这场进程。”
Ozcelik博士补充道:“在能量效率方面,Mythic的架构与人脑在神经网络性能和决策上最接近,每个操作单位的能量消耗达到前所未有的飞秒级别,这在新的AI世界中具有变革性。”
Mythic的联合创始人兼现任首席执行官Dave Fick将转任首席技术官。“Taner是半导体领域中最受尊敬的运营商之一,”Fick说。“多年来我一直钦佩他的领导才能,我很高兴能与他合作,以满足AI革命对内存和性能的强烈需求。”
AI行业正处于一个关键时刻,需求远远超过供应。能源效率至关重要,因为AI模型拥有数十亿至数万亿参数,所有这些参数都必须存储在内存中并通过数字芯片进行处理,导致延迟。相比之下,Mythic的模拟架构具有内存计算而无需搬运,避开了内存、功耗和价格瓶颈。
“Mythic is the true benchmark of progress for AI semiconductors is performance per milliwatt: the amount of computing performance we can generate given energy constraints,” said Ozcelik.“Performance per milliwatt will determine how far AI can go in the next decade, and thanks to Dave Fick and his team’s engineering, it’s how Mythic differentiates itself from every other AI chipmaker. With superior performance at far lower costs and power, we’re going to open the floodgates for edge AI.”
Ozcelik博士持有西北大学的博士学位和宾夕法尼亚大学沃顿商学院的MBA学位。Ozcelik博士的任命为Mythic首席执行官将立即生效。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

NinjaOne宣布全球合作伙伴计划

New program prioritizes partner success with world-class solutions, incentives, and resources to automate the hardest parts of IT。图片{ width=60% }


NinjaOne®,一家领先的端点管理、安全和可见性的IT平台,今天宣布了NinjaOne现在(NinjaOne Now) - NinjaOne的全球渠道合作伙伴计划,旨在推动合作伙伴的增长和客户的成功。该计划优先考虑合作伙伴的发展,为其配备世界一流的IT和安全解决方案。

“端点对我们的客户每天变得更加重要,SHI和NinjaOne正帮助客户利用其端点的优势,以降低风险、提高生产力并降低成本。” SHI International商业和中小企业销售副总裁Brian McGrath表示。 “NinjaOne现在以及整个NinjaOne团队让合作变得轻松而有益,我们共同帮助客户变得更加高效和安全。”

组织运行的端点比以往任何时候都多,它们越来越具有风险性和难以管理。根据分析公司Enterprise Strategy Group的数据,70%的员工每天使用四个或更多的端点,然而43%的高管表示他们没有资源来学习、配置或有效优化端点安全和管理技术。*客户正寻求渠道合作伙伴帮助他们大规模管理和保护他们的端点。NinjaOne渠道合作伙伴计划的益处包括:

为客户自动化IT中最困难的部分 – 借助NinjaOne,渠道合作伙伴拥有客户所需的自动化端点管理解决方案,可节省时间和资源,从而使他们能够专注于最具战略性的工作。一流的IT和安全集成 – NinjaOne具有与行业领先技术的强大集成套件,如端点和扩展检测和响应(EDR/XDR)、专业服务自动化 (PSA)等。这些集成促进了渠道合作伙伴的更多业务,使他们能够解决客户的更复杂挑战。资源、激励方式和培训 – NinjaOne现在不仅奖励渠道合作伙伴新业务,还奖励跨销售、升级销售和续约机会。除了营销和销售资源外,它还提供深入的培训和支持,为公司的渠道合作伙伴开拓业务。

此外,该公司在二月份宣布了其2.315亿美元的C轮融资,用以四倍增加对客户成功的支持,进一步创新,并支持其合作伙伴业务。

“NinjaOne帮助我们驱动更多收入,更重要的是,为我们的客户带来更好的结果。端点从未对业务成功如此重要,因此帮助我们的客户变得更加高效和安全是当务之急。” Port53的Go to Market和合作伙伴主管Matt Baringer表示。 “NinjaOne的解决方案和集成帮助我们解决客户最迫切的问题。最重要的是,NinjaOne使我们易于做生意并且收益丰厚,提供了出色的支持和资源为我们和我们的客户带来更多成功 —— 这对我们和我们的客户来说都是双赢。”

“在NinjaOne,我们对客户和合作伙伴的成功有着健康的执着。渠道合作伙伴是组织在艰难的IT和安全挑战中的信任顾问,并且对NinjaOne的成功至关重要。” NinjaOne渠道销售VP Joe Lohmeier表示。 “我们设计了我们的渠道合作伙伴计划是包容和有益于我们的合作伙伴。我们致力于使与NinjaOne做生意变得轻松,并与我们的渠道合作伙伴建立持久的关系,以便我们可以最好地为我们共同的客户服务多年。”

要了解更多关于NinjaOne合作伙伴计划,请访问:https://www.ninjaone.com/channel-partner-program/。

*Enterprise Strategy Group,TechTarget旗下的一个部门,研究出版物,管理端点漏洞差距:IT和安全的融合以减少暴露; Dave Gruber,主要分析员; Gabe Knuth,高级分析员; 和Bill Lundell,Syndicated Research主任; 2023年5月。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

没想到国内大模型厂商又一次high起来,是因为OpenAI 断供!

来源:AI前线

整理 | 褚杏娟、华卫

6 月 25 日起,陆续有包括中国大陆在内的各国和相关地区 API 开发者在社交媒体上表示,他们收到了来自 OpenAI 的邮件,表示将采取额外措施停止其不支持的地区的 API 使用。

根据网上流传的邮件截图,OpenAI 表示:“根据数据显示,你的组织有来自 OpenAl 目前不支持的地区的 API 流量。


从 7 月 9 日起,我们将采取额外措施,停止来自不在 OpenAI 支持的国家、地区名单上的 API 使用。”

“要继续使用 OpenAI 的服务,您需要在受支持的地区访问该服务。”在 OpenAI 给出的“支持访问国家和地区”名单上,世界上大部分地区都可以使用 OpenAI,包括几乎整个西方、东欧大部分地区、南亚和大约一半的非洲,但中国大陆、中国香港、俄罗斯、朝鲜、伊朗等地均未在列。

而上述不受支持的中国、俄罗斯、朝鲜、伊朗四个国家,似乎“踩在” OpenAI 的雷达上已有一段时间。今年 2 月,这家人工智能公司宣布关闭了其声称由这四个国家的 “国家附属恶意行为者 “使用的账户,表示他们使用 ChatGPT 帮助进行网络钓鱼攻击和开发恶意软件。上个月底,OpenAI 打击了另一组来自中国、俄罗斯、伊朗和以色列的账户。

实际上,OpenAI 早先就对中国大陆地区的用户实行了注册门槛,限制了其对 ChatGPT 服务的访问权限。中国大陆的开发者群体在构建基于 OpenAI API 的衍生服务时,往往需要通过代理服务器或在海外部署反向代理机制。这不仅增加了运维成本,也无法保证服务的稳定性。

这次,OpenAI 的强制决策一出,便立刻引发了国内大模型厂商的回应,各厂商纷纷表示可以支持企业“无痛”迁移,并发布了不少吸引 OpenAI 用户使用其平台的激励措施。而根据多位行业专业人士的看法和预测,国内大模型行业内部此时也有更深层次的担忧与挑战悄然浮现。

“百模大战”

首先作出反应的是智谱 AI。当天下午一点半左右,智谱 bigmodel.cn 推出了 OpenAl API 用户特别搬家计划,帮助用户切换至国产大模型,具体包括为开发者提供 1.5 亿 Token(5000 万 GLM-4 +1 亿 GLM-4-Air) 以及从 OpenAl 到 GLM 的系列迁移培训。对于高用量客户,智谱提供与 OpenAl 使用规模对等的 Token 赠送计划 (不设上限),以及与 OpenAl 对等的并发规模等。

当天下午四点半左右,百度智能云千帆推出了大模型普惠计划,即日起为新注册企业用户提供:

● 0 元调用:

文心旗舰模型首次免费,赠送 ERNIE3.5 旗舰模型 5000 万 Tokens 包,主力模型 ERNIE Speed/ERNIE Lite 和轻量模型 ERNIE Tiny 持续免费;

针对 OpenAI 迁移用户额外赠送与 OpenAI 使用规模对等的 ERNIE3.5 旗舰模型 Tokens 包。

● 0 元训练:免费模型精调训练服务

● 0 元迁移:零成本 SDK 迁移工具

● 0 元服务:专家服务(迁移 & 使用指导)

不过,百度智能云表示,以上优惠活动均在 2024 年 7 月 25 日 24 点前适用。

不到半小时后,阿里云紧接着宣布,将为 OpenAI API 用户提供最具性价比的中国大模型替代方案,并为中国开发者提供 2200 万免费 tokens 和专属迁移服务。据悉,通义千问主力模型 Qwen-plus 在阿里云百炼上的调用价格为 0.004 元 / 千 tokens,仅为 GPT-4 的 50 分之一。根据斯坦福最新公布的大模型测评榜单 HELM MMLU,Qwen2-72B 得分为 0.824,与 GPT-4 并列全球第四。

随后在当天六点 20 分左右,零一万物宣布发起了“Yi API 二折平替计划”,面向 OpenAI 用户推出了平滑迁移至 Yi 系列大模型的服务,并针对接入 OpenAI 的不同模型的用户,一一对应地提供了高模型性能且极具性价比的替换方案。

据介绍,目前注册使用 Yi API 的新客户,零一万物立即赠送 100 元额度;平台充值还将赠送 50% 到账额度,上不封顶,为用户提供更长线的优惠;任意充值即可享受 RPM/TPM 限速直升 Tier3,直达高级别的服务质量和超快响应速度。此外,零一万物 API 还将提供 Prompt 兼容调优服务支持,陪伴用户适配 Yi 系列大模型。

零一万物表示,在模型性能相近的同时,Yi-Large 的定价远低于顶配模型 GPT-4o。以 GPT-4o 的定价计算(取 Input 和 Output 均值为 Open API 价格),接入 Yi-Large 后使用成本可下降 72%;而对比 GPT-4 Turbo 的价格,用户接入 Yi-Large-Turbo 后使用成本可下降九成以上;对于简单任务的处理,Yi-Medium 的使用成本较 GPT-3.5-Turbo-1106 下降 66%。

此外,零一万物还可提供支持实时搜索的 Yi-Large-RAG,适用于需要结合实时信息进行推理的场景,以便用户基于自身需求选择更匹配的模型。

当日,AI Infra 厂商硅基流动则直接宣布开放 7 款大模型:SiliconCloud 平台的 Qwen2(7B)、GLM4(9B)、Yi1.5(9B)等开源大模型免费使用。SiliconCloud 是集合主流开源大模型的一站式云服务平台,目前已上架包括 DeepSeek-Coder-V2、Stable Diffusion 3 Medium、Qwen2、GLM-4-9B-Chat、DeepSeek V2、SDXL、InstantID 在内的多种开源大语言模型、图片生成模型,支持用户自由切换符合不同应用场景的模型。同时,SiliconCloud 提供开箱即用的大模型推理加速服务。

当天晚 8 点左右,腾讯云宣布,即日起,新迁移企业用户可免费获得腾讯混元大模型 1 亿 Tokens。目前,腾讯云提供混元 Pro、Standard、Lite 等多个不同版本和尺寸的模型,用户可任意选择。腾讯还将为新迁移企业用户提供免费专属迁移工具和服务,该福利截止 7 月 31 日 24 点前。

今日凌晨,百川智能也跟进宣布了“零成本迁移”的措施:免费赠送 1 千万 token、Assistants API 免费使用。另外,百川开设了专家技术群,表示专家随时答疑,五分钟即可完成 API 迁移。

据悉,百川智能前不久刚发布最新一代基座大模型 Baichuan 4,并推出成立之后的首款 AI 助手“百小应”。Baichuan 4 相较 Baichuan 3 在各项能力上均有极大提升,其中通用能力提升超过 10%,数学和代码能力分别提升 14%。

一时的机会,更卷的将来

中美之间日益紧张的关系可能是促使 OpenAI 决定打击不受支持的用户的一个因素。自特朗普执政以来,美国已经对中国实施了制裁和关税,包括拜登总统增加对中国芯片、电池和电动汽车的关税。

为此,中国也加大了实现技术自给自足的力度,规定其电信公司在 2027 年前停止使用英特尔和 AMD 的 CPU,并要求其汽车制造商在 2025 年前至少在国内采购四分之一的计算机处理器。

尽管 OpenAI 正计划阻止在中国的 API 访问,但这对中国公司来说,无疑是一个迅速填补即将到来的市场空白以获得更多用户的好机会。不过,之后国内其他厂商是否会跟进,目前尚不能确定。

有专家预测,OpenAI 主动“送生意”的做法,给了国内的大模型厂商喘气的机会,但后续可能就得被迫继续卷价格。这意味着,已经有些降温的“大模型价格战”或将再次“火热”。可以看出,国内大模型行业在机遇重重的同时,竞争也将进一步加剧。

正如百川智能 CEO 王小川所说,“我们不需要一千、一万个大模型,在没有价格战的时候,中国可能真的是上百、上千个大模型在进行。”

同时,有不少网友纷纷议论:部分国产大模型是否会因 OpenAI 的断服“现原形”。国产大模型中是否存在调用 OpenAI  API 的这一问题暂且不论,目前根据各类大模型用户在公开平台发表的使用反馈来看,许多国产大模型的中文文本上处理能力并不弱于 ChatGPT ,在视频、图片等多模态方面有所不足,但整体来说影响有限。

不可否认的是,对于国内一批使用 OpenAI  API 的开发者来说,影响是巨大的。还有人士对国内用户发出了“谨慎付费”的友善提醒,一些通过调用海外大模型 API 接口来提供服务的套壳网站,之后可能因高昂的站点迁移成本关停跑路。

此外,OpenAI 强制执行其不支持国家列表的访问政策,在对中国开发者产生负面影响的同时,也可能带来其他方面的双向后果。

根据 Reddit 上的一篇帖子,总部位于美国的云平台公司 Vercel 的用户如果通过 Vercel 的边缘网络访问 OpenAI,也会收到同样的 OpenAI 邮件。目前还不清楚这封电子邮件是否发送有误,但 Vercel 的边缘网络确实有一个位于香港的区域,与中国大陆一样不受 OpenAI 支持。


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

GrowthCurve Capital宣布收购Duetto

Duetto将利用GrowthCurve在人工智能方面的专业知识,增强对酒店科技投资的能力,并进一步加速扩张。图片{ width=60% }


Duetto(“Duetto”或“公司”),一家领先的为酒店行业提供收入管理软件的供应商,今天宣布已被GrowthCurve Capital(“GrowthCurve”)收购。GrowthCurve从华尔街皮卡斯(Warburg Pincus)及其他股东收购该业务。交易条款未披露。

Duetto提供简化酒店运营并优化收入的创新解决方案。专注于有机产品开发、数据和集成,Duetto将不同系统连接成一个协调高效的平台,促进全球酒店的盈利和增长。在60多个国家有6000多家酒店和赌场度假村的物业使用公司的应用程序,包括GameChanger定价、ScoreBoard智能报告和BlockBuster合同业务优化。本周早些时候,Duetto推出了最新产品OpenSpace,这是一个用于会议和活动空间的收入管理解决方案和预订引擎。Duetto可靠的客户服务和将酒店收入管理复杂性简化的承诺,使其连续三年被HotelTechAwards评为第一的RMS。

GrowthCurve Capital是一个以控股为导向的私募股权公司,专注于利用数据、分析和机器学习,结合全面的人力资本方法,以加速增长并创造长期价值。GrowthCurve将与Duetto合作,进一步加速其人工智能战略,包括开发新的AI产品、支持新业务线的推出和扩展到新市场。

Duetto首席执行官David Woolenberg表示:“我们很高兴与GrowthCurve合作,他们在机器学习和人工智能方面的专业知识,结合他们在高增长企业方面的经验,与我们的愿景完全契合。这次收购将加大我们在创新科技方面的投资,增强我们支持客户的能力,并巩固我们在酒店收入管理领域的领导地位。我们感谢我们的客户、团队成员、创始人和合作伙伴的持续支持,以及华尔街皮卡斯、Icon Ventures和我们的投资者的合作。凭借Duetto品牌的实力,我们相信与GrowthCurve共同努力,我们将实现雄心勃勃的增长目标,推动酒店科技的未来。”

GrowthCurve的技术和信息服务投资负责人Matthew Popper表示:“Duetto是快速增长的收入管理软件市场的领导者,其差异化解决方案帮助客户协调数据并大规模管理决策。我们期待与David和管理团队的其他成员合作,加速Duetto的增长,包括应用GrowthCurve在数据科学和人工智能方面的功能能力,进一步增强解决方案对客户的价值主张。”

GrowthCurve副总裁Sim Allan补充道:“Duetto在酒店行业独特地位,能加速智能分析和人工智能在酒店行业的应用,帮助客户释放数据价值,造福所有利益相关者,包括提升客户体验。我们很高兴与David和Duetto的业界领先团队合作,继续为酒店行业提供创新软件解决方案。”

华尔街皮卡斯的董事总经理Ash Somani和Parag Gupta表示:“与Duetto合作这七年来是一种荣幸和快乐。Duetto对客户满意度的坚定关注是其成功的关键。”在David Woolenberg的领导下,Duetto建立了一支极具才华的团队,我们有信心他们将在下一个增长阶段继续蓬勃发展。”

Jefferies LLC担任首席财务顾问,William Blair担任顾问,Orrick, Herrington & Sutcliffe LLP担任Duetto的法律顾问。Houlihan Lokey担任独家财务顾问,Davis Polk & Wardwell担任GrowthCurve的法律顾问。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

还不到6个月,GPTs凉了

上周,不少人发现微软官网忽然更新了一条“GPT Builder 即将停用”的通知。宣布将从7月10日起终止对Copilot GPT的支持,并会在四天内把平台上所有已创建的GPT连同相关数据全部删除。


如此猝不及防,因为就在仅仅3个月前, GPT Builder 才被微软打包进Copilot Pro服务正式推出。每月付费20美元的订阅用户可以根据特定需求,创建定制化的GPT聊天机器人来自用或分享。

对于刚上线就遭遇光速“停服”,官方给出的解释是:“正在继续评估针对消费者Copilot的可扩展策略,并优先考虑核心产品体验,同时仍然致力于为开发者提供机会。为此,我们将把GPT的重心转移到商业和企业应用场景,并停止消费级Copilot方面的GPT工作。”

简言之,试验了几个月,微软现在得出结论,GPT Builder在消费端并不算一个可行的产品。尽管公司全力推进Copilot等AI项目,也只会在其具有现实商业意义时予以支持。

处境一样尴尬的还有Copilot GPTs的“本体”、相同产品逻辑的ChatGPT 版GPTs和GPT Store。

随着GPT-4、Sora、Voice Engine、GPT-4o引发一轮又一轮的讨论热潮, OpenAI百宝箱内爆款频出, GPTs逐渐成了那个隐身在后,极少被人提及的名字。但人们也还依稀记得它的盛大出场——那个被视为具有划时代意义,可能改写整个AI行业的硅谷的冬天 。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB