大模型,站在“向下竞底”和“向上定价”的分岔路口

2024年以来,大模型的价格出现了显著的下降趋势,并且是全球性的。
海外AI巨头,OpenAI和谷歌都在五月的新品发布会上,下调了模型调用价格。


OpenAI的GPT-4o支持免费试用,调用API的价格也比GPT-4-turbo降低了一半,为5 美元/百万tokens。谷歌的当家王牌Gemini大模型系列,Gemini 1.5 Flash 的价格为0.35美元/百万tokens,比GPT-4o 便宜得多。

同样的“价格战”,也在国内开打。
5月13日智谱AI上线了新的价格体系,入门级产品GLM-3 Turbo模型,调用价格从5 元/百万tokens,降至1元/百万tokens。紧随其后的字节跳动,正式发布豆包大模型家族,其中的豆包通用模型Pro 32k模型,定价为0.0008元/千tokens。
当一串代表价格的数字,成为各家发布会上最显眼的一页、最广为传播的信息,其他厂商为了不失去曝光度,不流失现有用户,当然也要有所表示,被动跟进,加入“价格战”。

需要注意的是,社会各界用户早已在各个模型厂商的宣传布道中,拔高了对大模型的期望值。一味推广低质低价的使用体验,让人们对AI失去信心,觉得大模型不够万能、啥都干不好,对这一轮大模型主导的AI热潮,将是极大的负面影响。
当然,也不必过于焦虑。最坏情况和最好情况一样,发生的概率不大。现实中最有可能的,是大模型行业在最佳和最坏情况之间震荡。
一部分模型性能领先、商业模式向好、客情关系良好、现金流相对充裕的厂商,能够在跟进降价的同时,保持对底层创新的持续投资,但长期可以摊薄研发成本,靠规模增长来实现收入上涨。而注定也有一部分企业会在价格战与现金流压力下,被震荡出局。
一个AI公司创始人就表示:其实挺期待AGI到来的,虽然能秒灭我们这种小团队,但至少大家都解脱了。

当前国产大模型亟待完成的,是能力突破的技术进击。
从我们了解的大模型使用情况来看,企业和个人开发者最在意的商业化问题,仍然要靠模型本身的进化来解决,比如说:
目前阶段,很多任务场景,大模型连兜底的效果都还没有搞定,距离SLA级别的收费标准差距很大,无法达到商用;
精调虽然可以满足一部分场景,但难以泛化。有些场景的大模型精调效果,还不如用传统的小模型。这不是大模型“够不够便宜”的问题,是“为什么要用”的问题;
最终用户愿意付费的AI应用,必须真正做到降本增效,学习成本高一点都不会用。这就需要服务商和开发者详细地拆解任务流程,不忽视任何微小的业务细节,量身定制,降低整个开发过程的周期和难度,或许比降价更有吸引力。

其实,大模型质价比的“最具吸引力象限”,已经说明了,质量做高的前提下,实现价格更优,才是大模型商业化的可持续之路。
向下竞底只是权宜之计,能够“向上定价”的大模型才有未来。


Link to the original article

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

生成式AI是否正在让私有云“复兴”

在又一轮技术革命来袭之际,不少企业正面临着一个战略性的抉择:是继续依赖公共云的便利,还是回归私有云的怀抱?随着AI技术的飞速发展,这一决策变得更加紧迫。

根据Forrester于2023年进行的基础架构云调查,大约1300名受访的企业云决策者中,有79%表示他们的组织正在实施私有云。


此外,IDC预测,包括托管私有云在内的全球专用私有云服务支出将在2024年达到204亿美元,并且至少到2027年会翻一番。

另外,IDC数据显示,到2024年,包括硬件、软件和支持服务在内的全球企业私有云基础设施支出将达到518亿美元,并在2027年增长至664亿美元。当然,公有云提供商仍是不可小觑的存在。包括三大巨头AWS、微软和谷歌在内的公有云预计在2024年将吸金8157亿美元。

我们相信,这不仅是一次技术的回归,更是对成本控制、数据安全和企业自主权的深刻反思。让我们一起探索,这股私有云复兴的潮流背后,究竟隐藏着哪些不为人知的真相。

AI的推动作用

不可否认的是,AI驱动了私有云的重新兴起,使其价值远超过简单购买硬件并放置在数据中心的行为。事实上,此前由于公有云提供商提供的功能远远超过开源私有云系统或当前企业硬件供应商所能提供的,私有云的受欢迎程度有所下降。

随着AI工作负载变得越来越普遍和复杂,许多组织正在重新评估其云策略。如今,企业架构师之间的共识正倾向于采用混合云架构。

推动这一趋势的一个主要因素是控制与云和AI技术相关的不断攀升成本的需求日益增加。公有云提供商证明比本地部署更为昂贵,而这一点最终被CIO们意识到,他们发现CFO上门询问,对超出原计划约2.5倍的云资源成本寻求解释。

这一转变的关键在于诸如Dell APEX和HPE GreenLake(现配备有生成式AI支持)等私有云平台。实际上,大多数本地系统只需声明即可进入私有云市场。这种“私有云漂白”现象在云计算的早期阶段占据了很大一部分,但随着市场的成熟已大体消失。不过,它可能会再次出现。

错位的安全感

这些平台提供了处理AI工作负载所需的计算能力,甚至是GPU,以及必要的灵活性。它们也严格控制数据隐私和安全,尽管这种安全性往往是感觉多于实际。在很多情况下,公有云提供商因为在其自身解决方案上投入更多,反而能提供更高级别的安全性。

AI的兴起加剧了对数据安全的担忧,特别是关于企业私有数据可能意外被纳入公共AI模型的风险。再次强调,这种担忧更多源自感知而非现实,但我经常听到这样的顾虑,因此值得探讨。我无法设想一个场景,公有云提供商不仅会意外访问到企业数据,还会利用这些数据训练他们的AI模型。这将是一场史诗级的丑闻。尽管如此,许多企业发现私有云是一个吸引人的选择,因为它允许他们在受控环境中保留所谓的“敏感数据”。

挑战浮现

尽管有其优势,私有云并非没有挑战。例如,大规模AI操作需要专门的硬件,如使用GPU驱动的服务器。这可能成本高昂,并且需要大量的电力和冷却系统,而企业尚未完全理解这将带来的新成本。在许多情况下,这比在公有云提供商上运行这些AI负载要复杂得多。

然而,解决方案正在涌现,比如在Equinix等公司提供的共置数据中心内部构建私有云。这些数据中心特别配备了处理这些基础设施需求的能力,我认为它们是比自己动手搭建更好的选择。毕竟,我们总有一天需要退出数据中心业务,将其留给公有云提供商、共置服务提供商和管理服务提供商来提供更佳的解决方案。

那么,私有云对企业来说是个好选择吗?当然,它们一直是架构师考虑的选项之一。它们有其用途,如果成本效益更高,或者能为企业带来更多价值,就应当使用它们——无论是否有AI的参与。

我猜测,随着AI技术和应用的持续发展,云战略的转变预计将反映出对某些私有云替代方案日益增长的偏好。这一趋势预示着私有云解决方案有着光明的未来。多亏了AI,我怀疑那些看到其私有云产品兴趣减弱的企业技术供应商现在又有了新的活力。

参考链接

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

绕过直接数值模拟或实验,生成扩散模型用于湍流研究

编辑 | 绿罗

了解湍流平流粒子的统计和几何特性是一个具有挑战性的问题,对于许多应用的建模、预测和控制至关重要。例如燃烧、工业混合、污染物扩散、量子流体、原行星盘吸积和云形成等。


尽管过去 30 年在理论、数值和实验方面做出了很多努力,但现有模型还不能很好地再现湍流中粒子轨迹所表现出的统计和拓扑特性。

近日,意大利罗马第二大学(University of Rome Tor Vergata)的研究人员,提出了一种基于最先进的扩散模型的机器学习方法,可以在高雷诺数的三维湍流中生成单粒子轨迹,从而绕过直接数值模拟或实验来获得可靠的拉格朗日数据的需要。

令人惊讶的是,该模型对极端事件表现出很强的通用性,产生了更高强度和稀有性的事件,但仍然符合实际统计数据。这为生成用于预训练拉格朗日湍流的各种下游应用的合成高质量数据集铺平了道路。

相关研究以《Synthetic Lagrangian turbulence by generative diffusion models》为题,于 2024 年 4 月 17 日发布在《Nature Machine Intelligence》上。

图片

论文链接:https://www.nature.com/articles/s42256-024-00810-0

研究背景

拉格朗日湍流是与工程、生物流体、大气、海洋和天体物理学中的分散和混合物理学相关的许多应用和基本问题的核心。

在过去的 30 年里,科学家提出了许多不同的拉格朗日现象学模型。然而,尽管所有这些先前的尝试都能够很好地重现湍流统计的一些重要特征,但仍然缺乏一种系统的方法来生成具有正确的多尺度统计的合成轨迹。

因此,需要新的方法来解决这个问题。机器学习方法在解决流体力学中的开放性问题方面显示出强大的潜力。

考虑到现有技术,还缺乏基于方程和数据驱动的工具来生成 3D 单粒子或多粒子拉格朗日轨迹,这些轨迹具有与实验和直接数值模拟 (DNS) 定量一致的统计和几何特性。

DNS 和 DM 的比较

在各种湍流应用中,对合成生成高质量和高数量数据的需求至关重要,特别是在拉格朗日域中,即使只有一条轨迹也需要在巨大的空间域上再现整个欧拉场,这对于 DNS 来说通常是一项艰巨或不可能的任务,对于实验来说也是极其费力的。

加速度统计

基于扩散模型的机器学习方法

在此,研究人员提出了一种随机数据驱动模型,能够匹配高雷诺数下均匀和各向同性湍流中单粒子统计的数值和实验数据。

该模型基于最先进的生成式扩散模型(DM)。研究训练了两个不同的 DM:DM-1c,它生成拉格朗日速度的单个分量;DM-3c,它同时输出所有三个相关分量。

DM 说明及其后向生成过程的深入研究

所提合成生成协议(protocol)能够在整个可用频率范围内重现速度增量的缩放,并在原始训练数据中为所有统计收敛矩达到八阶。此外,该协议成功捕获了高达 60 个标准差甚至更高的加速度波动,包括三个速度分量之间的互相关性。

DM 训练协议

研究人员使用从 Rλ ≃ 310 处的 DNS 获得的高质量数据来训练模型。结果还显示出与四阶、六阶和八阶广义平坦度的数值实值数据非常吻合,由于间歇性波动的存在,其强度比高斯统计量存在时的期望值大一个数量级。

值得注意的是,模型表现出很强的泛化特性,能够合成训练阶段从未遇到过的强度的事件。这些极端波动是由小规模涡陷和急转弯轨迹造成的,具有前所未有的偏移和稀有性,始终遵循训练数据中固有的现实统计数据。

速度增量的多尺度统计特性

逐个尺度的间歇性特性

模型展示了跨时间尺度重现大多数统计基准的能力,包括速度增量的肥尾分布、反常幂律和耗散尺度周围增加的间歇性。在耗散标度以下观察到轻微偏差,特别是在加速度和平坦度统计数据中。

泛化性和可解释性

DM 显示出生成具有极其强烈事件的轨迹的能力,从而泛化超出训练阶段吸收的信息,同时仍然保留现实的统计特性。与从较小的训练数据集测量的结果相比,从 DM 生成的较大数据集测量的概率密度函数(PDF)的扩展尾的惊人观察清楚地说明了这一点。

DM 学习的用于生成正确的多次波动集的基本物理模型仍然难以捉摸。DM 基于嵌套非线性高斯去噪,本质上类似于用于创建多重分形信号和测量的波动的多尺度累积。

综合随机生成模型具有显著的优势。它们(1)提供对开放数据的访问,而不会出现与实际数据使用相关的版权或道德问题;(2)能够生成高质量和高数量的数据集,这些数据集可用于训练需要此类数据作为输入的其他模型。

最终目标是提供合成数据集,使下游应用程序的新模型能够达到更高的准确性,用合成预训练取代真实数据预训练的必要性。

注:封面来自网络



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

中美AI的五月剧变

文章来源:虎嗅APP
出品 | 虎嗅科技组
作者 | 王欣
编辑 | 苗正卿

图片来源:由GPTNB生成

中国正在努力弥合AI世界的割裂。

5月16日,中国和俄罗斯就AI的发展、安全与治理发表了联合声明。


这是中国继本月与法国、美国开展在AI领域的高端交流后的第三个政府间对话。

除国家层面的合纵连横之外,近期中国也明确了对AI企业合作的开放态度。特斯拉、苹果等AI大厂正在积极推进在中国的战略合作布局。

据路透社报道,本周五,多名知情人士透露特斯拉计划在中国建立数据中心,并进行数据处理,以训练AI最大的应用场景——FSD全自动驾驶算法。

值得注意的是,同天临港区政府发布了《中国(上海)自由贸易试验区临港新片区智能网联汽车领域数据跨境场景化一般数据清单(试行)》(以下简称“数据清单”)。对全球协同生产研发等领域所需的跨境数据传输,明确了相关管理规范要求。

这或许意味着,中国与国际各AI大厂的合作即将进入下一阶段。

与中国正致力于弥合AI领域的裂痕相比,一些其他国家却继续在AI领域奉行“小院高墙”策略,试图加剧AI领域的大国竞争。5月7日,拜登政府计划对ChatGPT等先进大模型设置出口管制,通过相关法案来防止外国竞争对手使用美国的AI技术。

通过收紧AI领域的技术流动出口,美国正对全球收起吊桥。

AI大厂落地中国,或进入Next Level

在路透社释放出“特斯拉计划在中国建立数据中心”信息前,特斯拉创始人CEO曾多次对特斯拉的AI公司身份进行重新定义。马斯克曾多次表示“我们应该被视为一家AI公司”,自动驾驶技术和AI对特斯拉的未来至关重要。

在马斯克的考量中,与中国的战略合作至关重要。马斯克表示特斯拉将在“任何能获得监管部门批准的市场”发布FSD服务并“包括中国。”

毕竟,中国有170万特斯拉用户,这些数据将有助于特斯拉改进AI算法,并进一步加强其电动汽车在中国市场的布局。

(以下省略内容)

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI 提高无创脑机接口性能,卡内基梅隆大学贺斌团队的新范式

脑机接口(BCI)有可能帮助恢复患者的运动功能,并通过提供大脑与机器人或其他设备的直接连接,使普通大众受益。
在最新的工作中,卡内基·梅隆大学(Carnegie Mellon University)贺斌教授团队开发了一种使用基于深度学习 (DL) 的解码器来连续跟踪 BCI 系统的范例,并通过广泛的在线实验展示了其功能。


该团队还研究了不同数量的训练数据如何影响 DL 性能,并收集了超过 150 h 的 BCI 数据,这些数据可用于训练新模型。
研究结果为开发基于深度学习的 BCI 解码器提供了重要范式,这些解码器可以提高性能并有助于使 BCI 更接近实际应用和广泛使用。
该研究以「Continuous tracking using deep learning-based decoding for noninvasive brain–computer interface」为题,于 2024 年 4 月 30 日发布在《PNAS Nexus》。
脑机接口(BCI)技术通过解析脑电信号,为人们提供了一种全新的与外部设备互动方式,无需依赖肌肉运动,这为运动、语言障碍患者及健康人群的日常生活带来革命性改变。BCI 的应用前景广阔,从辅助残障人士操控义肢到普通人无缝操作电子设备,极大地提升了生活质量。
与侵入性脑机接口(例如 Neuralink 或 Synchron)相比,非侵入性脑机接口具有许多优势。这些包括提高安全性、成本效益以及可供众多患者以及普通人群使用的能力。然而,非侵入性 BCI 技术在实际应用中受到性能不稳定和操作维度有限的制约。
卡内基·梅隆大学贺斌教授团队通过引入深度学习(DL)解码器,突破现有 BCI 性能瓶颈,特别是在连续追踪等复杂任务上的表现。连续追踪要求用户在大脑中想象动作以控制光标在二维平面上跟随目标移动,这对 BCI 的实时性和准确性提出了更高要求。
贺斌团队设计了一套标签系统,将用户的追踪行为转化为可供 DL 模型学习的监督信号,采用提出的 EEGNet 和 PointNet 的两种 DL 模型架构进行训练。
通过总计 28 位参与者的在线实验,研究团队积累了超过 150 小时的 BCI 数据,验证了 DL 解码器在随时间推移的学习过程中显著提升性能,最终超越了传统解码器。
在任务过程中,脑电图(EEG)方法从大脑外部记录了他们的活动。研究人员利用人工智能训练深度神经网络,然后利用 BCI 传感器数据直接解码和解释人类对连续物体运动的意图。
「人工智能技术的创新使我们能够比传统技术大大提高性能,并为未来在人群中广泛应用带来希望。」贺斌说。
此外,研究探索了迁移学习和会话中模型重校准策略,虽然迁移学习效果不明显,但会话中模型更新展现了一定的提升空间。这些发现不仅为复杂 BCI 任务的性能优化提供了实证支持,还指出了深度学习和迁移学习作为 BCI 技术未来发展方向的潜力,同时也为构建针对特定任务的高级解码模型提供了丰富的数据资源。
长期来看,持续增加的训练数据和深入的算法优化有望揭示 DL 解码器性能与数据量之间的更细致关系,推动 BCI 技术向更广泛实用化迈进。
此外,该团队的人工智能脑机接口功能表明可以直接应用于连续控制机器人设备。
「我们目前正在测试这种由人工智能驱动的非侵入式脑机接口技术,以控制机械臂的复杂任务。」贺斌说,「此外,我们正在进一步测试它不仅适用于身体健全的受试者,还适用于患有运动障碍的中风患者。」
将来,患有脊髓损伤、中风或其他运动障碍但不想接受植入物的运动障碍患者,将从这项研究中受益。
「我们不断推动非侵入性神经工程解决方案,以帮助每个人。」贺斌补充道。
论文链接:https://academic.oup.com/pnasnexus/article/3/4/pgae145/7656016
相关报道:https://techxplore.com/news/2024-05-refined-ai-approach-noninvasive-brain.html



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

集聚场景驱动力,激发AI生产力——WAIC 2024“人工智能+”应用场景持续广泛征集

今年的政府工作报告提出,大力推进现代化产业体系建设,加快发展新质生产力。同时要深化大数据、人工智能等研发应用,开展“人工智能+”行动。


近年来,上海市委、市政府不断创新政策举措,探索应用场景,深入推进城市转型、产业升级,为新一代人工智能发展开辟了广阔天地。世界人工智能大会(WAIC)作为行业标杆性盛会,每年都集聚了全球人工智能领域最具影响力的科学家、企业家、政界人士、高校组织、投资人及初创团队,已然成为全球人工智能领域学术与行业交流、展览展示、合作洽谈的重要平台和窗口。2024世界人工智能大会将于7月初在上海举办,大会规模再升级、形式再创新、议题再丰富、影响力再攀升。在大会3天期间,将进一步强化人工智能技术和产品与应用场景需求方的撮合功能,并首次于世博展览馆H3馆设立“人工智能+”应用场景综合服务区,现面向各相关单位,持续征集“人工智能+”应用场景项目。

1、什么是“人工智能+”应用场景综合服务区?
WAIC 2024“人工智能+”应用场景综合服务区面积约3000平米,重点设置三大“AI+中心”,促进人工智能技术产品与应用需求的精准对接,赋能千行百业数字化转型。

  • AI+场景展示中心 展示丰富的人工智能应用场景实践案例与典型需求,为应用场景需求方创造广泛和多维度的展示和发声机会。
  • AI+场景发布中心 组织开展多场AI+场景发布会,通过专业舞台为供需双方提供交流互动的平台。
  • AI+需求撮合中心 组织开展多场点对点产业对接会和供需撮合会议,深度解读场景需求,切实服务于发展新质生产力。

2、加入“人工智能+”应用场景综合服务区的优势?
世界人工智能大会举办6年来,持续提供技术交流与业务撮合服务,邀请参展企业、合作伙伴共同参与各行业领域的重大项目开发建设,涵盖众多应用场景,为供需双方搭建了高效、精准的互动平台。2022年,大会组织了200家采购需求方参与,意向采购金额1.8亿美元,通过精准配对、一对一洽谈、实地考察对接、需求发布等方式实现供需双方对接,共同助推新技术、新应用的落地。2023年,大会现场采购配对会及采购团闭门会20场,挖掘人工智能应用场景现场发布场景30个,发掘潜在场景50个,深度融合企业、媒体、IP资源组织采购团组及VIP参观团组123个,对接上下游企业210家,意向采购金额110亿元。

大会回顾
图片1
图片2
图片3
图片4
图片5

3、加入“人工智能+”应用场景综合服务区的还能收获哪些额外价值?
2024年,大会将在会前、会中和会后等阶段广泛宣传“人工智能+”应用场景综合服务区,向社会各界展示未来产业发展趋势,营造全面开放应用场景、助力人工智能产业高速发展的产业氛围。

  • 汇总各方项目内容,提供内容宣传以及技术对接等综合服务。
  • 给与项目方在大会期间参加VIP巡馆参观团、受邀出席行业相关论坛以及举办AI+场景发布会的机会。
  • 组织各界媒体深度采访和报道“人工智能+”应用场景综合服务区各应用场景方的实践案例和应用成果。

4、征集范围
WAIC 2024“人工智能+”应用场景综合服务区以“智链千行,能赋百业”为主题,覆盖金融科技、城市更新、新型工业化、乡村振兴、生物医药、文旅与酒店、广告与传媒、贸易与流通等各领域,政用产学研各界需求单位均可积极参与。

5、征集时间
即日起至2024年5月30日。

6、参与方式
(1)请扫描下方二维码进行登记。
图片6
(2)或填写《WAIC 2024“人工智能+”应用场景项目征集表》并发送至“人工智能+”应用场景征集专用邮箱lianjie@worldaic.com.cn

大会联系人:徐先生,18036064913
图片7
WAIC 2024已开启申报
扫码获取申请表或垂询联系人
抢先预约2024不容错过的AI盛会



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

光芯片能否代替电子芯片?破解 AI 「算力荒」

编辑 | ScienceAI

摩尔定律的描述已经非常快了——计算机芯片每两年左右就会安装两倍数量的晶体管,从而在速度和效率上产生重大飞跃。但深度学习时代的计算需求增长速度更快——这种速度可能不可持续。


论文链接:https://arxiv.org/abs/2202.05924

国际能源署预测,2026 年人工智能消耗的电力将是 2023 年的 10 倍,而当年的数据中心消耗的能源将相当于日本一个国家一年的能源消耗。

报告链接:https://www.iea.org/reports/electricity-2024

「人工智能所需的[计算能力]每三个月就会翻一番,速度远远快于摩尔定律的预测。」 计算硬件公司 Lightmatter 的创始人兼首席执行官 Nick Harris 表示,「这会破坏公司和经济。」

最有前景的方法之一是不使用电子来处理信息(电子在计算领域占据了 50 多年的主导地位),而是使用光子流(即微小的光包)。近期的研究表明,对于现代人工智能的某些基础计算任务,基于光的「光学计算机」可能具有优势。

剑桥大学物理学家 Natalia Berloff 表示,光计算的发展「为人工智能等需要高速、高效处理的领域的突破铺平了道路」。

最佳光学

理论上,光有许多潜在好处。其一,光信号比电信号可以携带更多信息——它们有更多的带宽。其二,光频率也比电频率高得多,因此光系统可以在更短的时间内以更少的延迟运行更多的计算步骤。

还有效率问题。除了相对浪费的电子芯片造成的环境和经济成本之外,它们的运行温度也非常高,以至于只有一小部分晶体管(所有计算机核心的微小开关)可以随时处于活动状态。理论上,光学计算机可以同时进行更多操作,在消耗更少能源的同时处理更多数据。斯坦福大学电气工程师 Gordon Wetzstein 说:「如果我们能够利用」这些优势,「这将带来许多新的可能性。」

一些简单的数学

矩阵或数字数组相乘的过程是大量重型计算的基础。具体来说,在神经网络中,矩阵乘法是如何在旧数据上训练网络以及如何在经过训练的网络中处理新数据的基本步骤。光可能是比电更好的矩阵乘法媒介。

这种人工智能计算方法在 2017 年爆发,当时麻省理工学院的 Dirk Englund 和 Marin Soljačić 领导的团队描述了如何在硅芯片上构建光学神经网络。

论文链接:https://www.nature.com/articles/nphoton.2017.93

研究人员将他们想要相乘的各种量编码成光束,然后将光束发送通过一系列改变光束相位(光波振荡方式)的组件,每个相位改变代表一个乘法步骤。通过反复分裂光束、改变相位、重新组合,可以使…

Related article: AI Needs Enormous Computing Power. Could Light-based Chips Help?

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

澳大利亚选举不存在检测AI生成虚假信息的工具包,澳大利亚选举委员会表示

standfirst: 澳大利亚选举委员会表示,澳大利亚在下次选举中不会对AI生成的虚假信息“免疫”。


“我无法预测它是否会被使用,”AEC委员汤姆·罗杰斯说道。“但我们看到世界各地的选举中越来越多地使用这些策略。我认为我们不会对此免疫。” 他还告诉参议院,在下次选举之前,他并不指望会有所需的广泛立法。

{Body}



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI暂停类似斯嘉丽·约翰逊声音的ChatGPT人工智能

OpenAI在周一移除了ChatGPT中一个备受宣传的音频选项,此举是为了应对对那种与斯嘉丽·约翰逊几乎完全相似的轻浪声音的广泛反应。


该公司在上星期广受关注的活动中使用了这种声音,称之为“Sky”,展示了新ChatGPT-4o人工智能模型的功能。研究人员与人工智能助手对话,展示了Sky个性化和响应性的特征,用户和媒体成员立即将其与2013年斯派克·琼斯电影《她》中约翰逊的人工智能伴侣角色进行了比较。甚至连OpenAI的CEO山姆·阿尔特曼似乎也暗示这种声音设计是有意模仿约翰逊的角色,展示活动结束后发布了一个只有一个单词的推文,内容是“her”。不到一周时间,OpenAI感到有必要明确澄清Sky并非基于约翰逊。公司发布了一篇关于Sky创作的博文,并声称公司重视配音行业。

“Sky的声音并非模仿斯嘉丽·约翰逊,而是属于另一位专业女演员,使用她自己的自然说话声音,”博文写道。“为了保护他们的隐私,我们无法分享配音演员的姓名。”许多评论人士评论了Sky与《她》中约翰逊的相似之处,包括约翰逊的丈夫、《周六夜现场》演员科林·乔斯特,在节目的季终节目中进行的一个段子中。上周,《每日秀》主持人黛西·里迪克开玩笑说:“你真的可以看出这是一个男性建立的技术,”她说,“她就像‘我知道世界上所有的信息,但我什么都不知道。’”

OpenAI声称其选择ChatGPT的声音是基于一系列标准,包括具有“永恒”的品质和“一种让人信任的亲近声音”。OpenAI去年在五个月的时间里审阅了数百份声音表演提交,公司在去年9月为其ChatGPT发布了五种不同的声音选项。选定的演员随后飞往旧金山录制会话,使OpenAI能够用他们的声音来训练模型。

随着安全团队的几位核心成员在几天前辞职,公司撤回了Sky的声音。一位关键研究人员扬·莱克在辞职后说,公司将“闪亮的产品”置于安全文化和流程之上。阿尔特曼及其其他联合创始人格雷格·布罗克曼在周末为公司辩护,表示如果存在安全问题,他们将不会发布产品。

上周日,OpenAI发布了关于其创建ChatGPT声音的博文,其中多次提到公司与娱乐行业专业人士合作,并为配音演员的工作进行了补偿。人工智能公司,尤其是OpenAI,受到了来自演员、创作者和媒体公司的激烈抵制,包括诉讼,涉及版权侵犯的指控,以及人工智能取代人类工作者的担忧。主要的娱乐工会,如Sag-Aftra,曾因包括其肖像权如何被人工智能使用在内的问题而罢工。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

King Street收购Colovore多数股权

Transaction enables Colovore to expand significantly with King Street’s differentiated capabilities in real estate King Street Capital Management, L.图片{ width=60% }


P. (“King Street” or “the Firm”), a leading global investment firm, today announced it has acquired a majority ownership stake in Colovore, a Silicon Valley-based data center operator that specializes in liquid-cooled, high-density colocation for artificial intelligence (AI) and high-performance computing (HPC). The transaction will leverage King Street’s deep real estate platform to support Colovore’s continued growth to meet increased demand for liquid-cooled data center solutions. Terms of the transaction were not disclosed. The existing management team of Colovore will remain in place to rapidly expand the business. “The next-generation chips and power-dense platforms that support AI and other high-performance computing applications are quickly overwhelming legacy, air-cooled data centers,” said Brian Higgins, Co-Founder and Managing Partner of King Street. “Colovore is uniquely positioned to meet the needs of these high-density customers, with a business focused exclusively on liquid-cooled data centers and over a decade of successful operating history supporting many of the leaders in the AI and HPC industries. We are thrilled to partner with the management team of Colovore and support this next phase of the company’s evolution.” Mark Van Zandt, Co-Head of Real Estate at King Street, added, “King Street’s data center investment platform is an extension of the Firm’s thematic approach to global real estate investing. Working in close coordination with our colleagues in the technology and energy sectors, we bring a comprehensive and differentiated perspective to the data center industry and look forward to working with Colovore to capitalize on this rapidly evolving investment opportunity.” With locations in Santa Clara, California and Nevada, Colovore plans to quickly scale into additional Tier 1 markets across the country under King Street’s sponsorship. Sean Holzknecht, President and Co-Founder of Colovore, stated, “Since 2012, we’ve been singularly focused on supporting the demanding and ever-increasing needs of modern, dense compute. We build our data centers from the ground up with robust liquid cooling to provide the most scalable power and cooling densities in our industry to optimize our customers’ deployments, reduce their TCO and ensure easy scalability. We look forward to working closely with our new partner King Street to quickly expand our data center footprint and support larger and more demanding customer needs created by the explosion in AI-driven workloads.” “We founded Colovore to allow engineers from Fortune 500s to startups to seamlessly create successive waves of innovation in compute-intensive and AI-oriented services,” said Peter Harrison, Chief Technology Officer and Co-Founder of Colovore. “Our partnership with King Street will expand our platform to many additional markets, and together we will continue to transform the data center industry and enable these emerging technologies and applications to thrive.” DH Capital, a division of Citizens, served as exclusive financial advisor to Colovore. Kirkland & Ellis LLP served as legal advisor to King Street.



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB