大模型应用新战场:揭秘终端侧AI竞争关键|智在终端

文章来源:量子位
鱼羊 发自 凹非寺
量子位 | 公众号 QbitAI

图片来源:由GPTNB生成

2024年过去2/3,大模型领域的一个共识开始愈加清晰:
AI技术的真正价值在于其普惠性。没有应用,基础模型将无法发挥其价值。


于是乎,回顾这大半年,从互联网大厂到手机厂商,各路人马都在探索AI时代Killer APP的道路上狂奔。这股风潮,也开始在顶级学术会议中显露踪迹。
其中被行业、学术界都投以关注的一个核心问题就是:
在大模型“力大砖飞”的背景之下,AIGC应用要如何在手机等算力有限的终端设备上更丝滑地落地呢?

Midjourney生成

这段时间以来,ICML(国际机器学习大会)、CVPR(IEEE国际计算机视觉与模式识别会议)等顶会上的最新技术分享和入选论文,正在揭开更多细节。
是时候总结一下了。

AI应用背后,大家都在聚焦哪些研究?

先来看看,AI应用从云端迈向终端,现在进展到何种程度了。
目前,在大模型/AIGC应用方面,众多安卓手机厂商都与高通保持着深度合作。
在CVPR 2024等顶会上,高通的技术Demo,吸引了不少眼球。
比如,在安卓手机上,实现多模态大模型(LLaVA)的本地部署:

Qualcomm Research发布于YouTube

这是一个70亿参数级别的多模态大模型,支持多种类型的数据输入,包括文本和图像。也支持围绕图像的多轮对话。
就像这样,丢给它一张小狗的照片,它不仅能描述照片信息,还能接着和你聊狗狗适不适合家养之类的话题。

量子位在巴塞罗那MWC高通展台拍摄的官方演示Demo

高通还展示了在安卓手机上运行LoRA的实例。

Qualcomm Research发布于YouTube

以及音频驱动的3D数字人版AI助手——同样能在断网的情况下本地运行。

Qualcomm Research发布于YouTube

Demo原型既出,加之手机厂商们的魔改优化,对于普通用户而言,意味着其中展现的新玩法新可能,在咱们自个儿的终端设备上已经指日可待。
但在顶会上,更加受到关注的是,demo之外,高通的一系列最新论文们,还详细地揭开了应用背后需要重点布局的关键技术。

量化

其中之一,就是量化。
在手机等终端设备上部署大模型/AIGC应用,要解决的一大重点是如何实现高效能的推理。
而量化是提高计算性能和内存效率最有效的方法之一。并且高通认为,使用低位数整型精度对高能效推理至关重要。
高通的多项研究工作发现,对于生成式AI来说,由于基于Transformer的大语言模型受到内存的限制,在量化到8位(INT8)或4位(INT4)权重后往往能够获得大幅提升的效率优势。
其中,4位权重量化不仅对大语言模型可行,在训练后量化(PTQ)中同样可能,并能实现最优表现。这一效率提升已经超过了浮点模型。
具体来说,高通的研究表明,借助量化感知训练(QAT)等量化研究,许多生成式AI模型可以量化至INT4模型。
在不影响准确性和性能表现的情况下,INT4模型能节省更多功耗,与INT8相比实现90%的性能提升和60%的能效提升。

图片

今年,高通还提出了一种名为LR-QAT(低秩量化感知训练)的算法,能使大语言模型在计算和内存使用上更高效。
LR-QAT受LoRA启发,采用了低秩重参数化的方法,引入了低秩辅助权重,并将其放置在整数域中,在不损失精度的前提下实现了高效推理。
在Llama 2/3以及Mistral系列模型上的实验结果显示,在内存使用远低于全模型QAT的情况下,LR-QAT达到了相同的性能。

图片

另外,高通还重点布局了矢量量化(VQ)技术,与传统量化方法不同,VQ考虑了参数的联合分布,能够实现更高效的压缩和更少的信息丢失。

编译

在AI模型被部署到硬件架构的过程中,编译器是保障其以最高性能和最低功耗高效运行的关键。
编译包括计算图的切分、映射、排序和调度等步骤。
高通在传统编译器技术、多面体AI编辑器和编辑器组合优化AI方面都积累了不少技术成果。
比如,高通AI引擎Direct框架基于高通Hexagon NPU的硬件架构和内存层级进行运算排序,在提高性能的同时,可以最大程度减少内存溢出。

硬件加速

终端侧的AI加速,离不开硬件的支持。
在硬件方面,高通AI引擎采用异构计算架构,包括Hexagon NPU、高通Adreno GPU、高通Kryo CPU或高通Oryon CPU。
其中,Hexagon NPU在今天已经成为高通AI引擎中的关键处理器。

以第三代骁龙8移动平台为例,Hexagon NPU在性能表现上,比前代产品快98%,同时功耗降低了40%。
架构方面,Hexagon NPU升级了全新的微架构。与前代产品相比,更快的矢量加速器时钟速度、更强的推理技术和对更多更快的Transformer网络的支持等等,全面提升了Hexagon NPU对生成式AI的响应能力,使得手机上的大模型“秒答”用户提问成为可能。
Hexagon NPU之外,第三代骁龙8在高通传感器中枢上也下了更多功夫:增加下一代微型NPU,AI性能提高3.5倍,内存增加30%。
事实上,作为大模型/AIGC应用向终端侧迁移的潮流中最受关注的技术代表之一,以上重点之外,高通的AI研究布局早已延伸到更广泛的领域之中。
以CVPR 2024入选论文为例,在生成式AI方面,高通提出了提高扩散模型效率的方法Clockwork Diffusion,在提高Stable Diffusion v1.5感知得分的同时,能使算力消耗最高降低32%,使得SD模型更适用于低功耗端侧设备。
并且不止于手机,针对XR和自动驾驶领域的实际需求,高通还研究了高效多视图视频压缩方法(LLSS)等。

在当前的热点研究领域,比如AI视频生成方面,高通也有新动作:
正在开发面向终端侧AI的高效视频架构。例如,对视频到视频的生成式AI技术FAIRY进行优化。在FAIRY第一阶段,从锚定帧提取状态。在第二阶段,跨剩余帧编辑视频。优化示例包括:跨帧优化、高效instructPix2Pix和图像/文本引导调节。

底层技术驱动AI创新

大模型应用是当下的大势所趋。而当应用发展的程度愈加深入,一个关键问题也愈加明朗:
应用创新的演进速度,取决于技术基座是否扎实牢固。
这里的技术基座,指的不仅是基础模型本身,也包括从模型量化压缩到部署的全栈AI优化。
可以这样理解,如果说基础模型决定了大模型应用效果的上限,那么一系列AI优化技术,就决定了终端侧大模型应用体验的下限。
作为普通消费者,值得期待的是,像高通这样的技术厂商,不仅正在理论研究方面快马加鞭,其为应用、神经网络模型、算法、软件和硬件的全栈AI研究和优化,也已加速在实践中部署。

图片

以高通AI软件栈为例。这是一套容纳了大量AI技术的工具包,全面支持各种主流AI框架、不同操作系统和各类编程语言,能提升各种AI软件在智能终端上的兼容性。
其中还包含高通AI Studio,相当于将高通所有AI工具集成到了一起,包括AI模型增效工具包、模型分析器和神经网络架构搜索(NAS)等。
更为关键的是,基于高通AI软件栈,只需一次开发,开发者就能跨不同设备随时随地部署相应的AI模型。
就是说,高通AI软件栈像是一个“转换器”,能够解决大模型在种类繁多的智能终端中落地所面临的一大难题——跨设备迁移。
这样一来,大模型应用不仅能从云端走向手机端,还能被更快速地塞进汽车、XR、PC和物联网设备中。

图片

站在现在的时间节点,人人都在期待改变世界的技术潮流翻腾出更汹涌的巨浪。
而站立潮头的弄潮儿们正在再次验证技术史中一次次被探明的事实:引领技术之先的人和组织,无不具备重视基础技术的“发明家文化”。
不止是追赶最新的技术趋势,更要提前布局,抢先攻克基本方案。
高通在《让AI触手可及》白皮书中同样提到了这一点:
高通深耕AI研发超过15年,始终致力于让感知、推理和行为等核心能力在终端上无处不在。
这些AI研究和在此之上产出的论文,影响的不仅是高通的技术布局,也正在影响整个行业的AI发展。
大模型时代,“发明家文化”仍在延续。
也正是这样的文化,持续促进着新技术的普及化,促进着市场的竞争和繁荣,带动起更多的行业创新和发展。
你觉得呢?

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

大模型应用新战场:揭秘终端侧AI竞争关键|智在终端

文章来源:量子位

鱼羊 发自 凹非寺

量子位 | 公众号 QbitAI

图片来源:由GPTNB生成

2024年过去2/3,大模型领域的一个共识开始愈加清晰:

AI技术的真正价值在于其普惠性。没有应用,基础模型将无法发挥其价值。


于是乎,回顾这大半年,从互联网大厂到手机厂商,各路人马都在探索AI时代Killer APP的道路上狂奔。这股风潮,也开始在顶级学术会议中显露踪迹。

其中被行业、学术界都投以关注的一个核心问题就是:

在大模型“力大砖飞”的背景之下,AIGC应用要如何在手机等算力有限的终端设备上更丝滑地落地呢?

Midjourney生成

这段时间以来,ICML(国际机器学习大会)、CVPR(IEEE国际计算机视觉与模式识别会议)等顶会上的最新技术分享和入选论文,正在揭开更多细节。

是时候总结一下了。

AI应用背后,大家都在聚焦哪些研究?

先来看看,AI应用从云端迈向终端,现在进展到何种程度了。

目前,在大模型/AIGC应用方面,众多安卓手机厂商都与高通保持着深度合作。

在CVPR 2024等顶会上,高通的技术Demo,吸引了不少眼球。

比如,在安卓手机上,实现多模态大模型(LLaVA)的本地部署:

Qualcomm Research发布于YouTube

这是一个70亿参数级别的多模态大模型,支持多种类型的数据输入,包括文本和图像。也支持围绕图像的多轮对话。

就像这样,丢给它一张小狗的照片,它不仅能描述照片信息,还能接着和你聊狗狗适不适合家养之类的话题。

量子位在巴塞罗那MWC高通展台拍摄的官方演示Demo

高通还展示了在安卓手机上运行LoRA的实例。

代码入参参数

以及音频驱动的3D数字人版AI助手——同样能在断网的情况下本地运行。

Qualcomm Research发布于YouTube

Demo原型既出,加之手机厂商们的魔改优化,对于普通用户而言,意味着其中展现的新玩法新可能,在咱们自个儿的终端设备上已经指日可待。

但在顶会上,更加受到关注的是,demo之外,高通的一系列最新论文们,还详细地揭开了应用背后需要重点布局的关键技术。

量化

其中之一,就是量化。

在手机等终端设备上部署大模型/AIGC应用,要解决的一大重点是如何实现高效能的推理。

而量化是提高计算性能和内存效率最有效的方法之一。并且高通认为,使用低位数整型精度对高能效推理至关重要。

高通的多项研究工作发现,对于生成式AI来说,由于基于Transformer的大语言模型受到内存的限制,在量化到8位(INT8)或4位(INT4)权重后往往能够获得大幅提升的效率优势。

其中,4位权重量化不仅对大语言模型可行,在训练后量化(PTQ)中同样可能,并能实现最优表现。这一效率提升已经超过了浮点模型。

具体来说,高通的研究表明,借助量化感知训练(QAT)等量化研究,许多生成式AI模型可以量化至INT4模型。

在不影响准确性和性能表现的情况下,INT4模型能节省更多功耗,与INT8相比实现90%的性能提升和60%的能效提升。

Quantization Research

今年,高通还提出了一种名为LR-QAT(低秩量化感知训练)的算法,能使大语言模型在计算和内存使用上更高效。

LR-QAT受LoRA启发,采用了低秩重参数化的方法,引入了低秩辅助权重,并将其放置在整数域中,在不损失精度的前提下实现了高效推理。

在Llama 2/3以及Mistral系列模型上的实验结果显示,在内存使用远低于全模型QAT的情况下,LR-QAT达到了相同的性能。

另外,高通还重点布局了矢量量化(VQ)技术,与传统量化方法不同,VQ考虑了参数的联合分布,能够实现更高效的压缩和更少的信息丢失。

Vector Quantization

编译

在AI模型被部署到硬件架构的过程中,编译器是保障其以最高性能和最低功耗高效运行的关键。

编译包括计算图的切分、映射、排序和调度等步骤。

高通在传统编译器技术、多面体AI编辑器和编辑器组合优化AI方面都积累了不少技术成果。

比如,高通AI引擎Direct框架基于高通Hexagon NPU的硬件架构和内存层级进行运算排序,在提高性能的同时,可以最大程度减少内存溢出。

硬件加速

终端侧的AI加速,离不开硬件的支持。

在硬件方面,高通AI引擎采用异构计算架构,包括Hexagon NPU、高通Adreno GPU、高通Kryo CPU或高通Oryon CPU。

其中,Hexagon NPU在今天已经成为高通AI引擎中的关键处理器。

以第三代骁龙8移动平台为例,Hexagon NPU在性能表现上,比前代产品快98%,同时功耗降低了40%。

架构方面,Hexagon NPU升级了全新的微架构。与前代产品相比,更快的矢量加速器时钟速度、更强的推理技术和对更多更快的Transformer网络的支持等等,全面提升了Hexagon NPU对生成式AI的响应能力,使得手机上的大模型“秒答”用户提问成为可能。

Hexagon NPU之外,第三代骁龙8在高通传感器中枢上也下了更多功夫:增加下一代微型NPU,AI性能提高3.5倍,内存增加30%。

实际上,作为大模型/AIGC应用向终端侧迁移的潮流中最受关注的技术代表之一,以上重点之外,高通的AI研究布局早已延伸到更广泛的领域之中。

以CVPR 2024入选论文为例,在生成式AI方面,高通提出了提高扩散模型效率的方法Clockwork Diffusion,在提高Stable Diffusion v1.5感知得分的同时,能使算力消耗最高降低32%,使得SD模型更适用于低功耗端侧设备。

并且不止于手机,针对XR和自动驾驶领域的实际需求,高通还研究了高效多视图视频压缩方法(LLSS)等。

在当前的热点研究领域,比如AI视频生成方面,高通也有新动作:

正在开发面向终端侧AI的高效视频架构。例如,对视频到视频的生成式AI技术FAIRY进行优化。在FAIRY第一阶段,从锚定帧提取状态。在第二阶段,跨剩余帧编辑视频。优化示例包括:跨帧优化、高效instructPix2Pix和图像/文本引导调节。

底层技术驱动AI创新

大模型应用是当下的大势所趋。而当应用发展的程度愈加深入,一个关键问题也愈加明朗:

应用创新的演进速度,取决于技术基座是否扎实牢固。

这里的技术基座,指的不仅是基础模型本身,也包括从模型量化压缩到部署的全栈AI优化。

可以这样理解,如果说基础模型决定了大模型应用效果的上限,那么一系列AI优化技术,就决定了终端侧大模型应用体验的下限。

作为普通消费者,值得期待的是,像高通这样的技术厂商,不仅正在理论研究方面快马加鞭,其为应用、神经网络模型、算法、软件和硬件的全栈AI研究和优化,也已加速在实践中部署。

以高通AI软件栈为例。这是一套容纳了大量AI技术的工具包,全面支持各种主流AI框架、不同操作系统和各类编程语言,能提升各种AI软件在智能终端上的兼容性。

其中还包含高通AI Studio,相当于将高通所有AI工具集成到了一起,包括AI模型增效工具包、模型分析器和神经网络架构搜索(NAS)等。

更为关键的是,基于高通AI软件栈,只需一次开发,开发者就能跨不同设备随时随地部署相应的AI模型。

就是说,高通AI软件栈像是一个“转换器”,能够解决大模型在种类繁多的智能终端中落地所面临的一大难题——跨设备迁移。

这样一来,大模型应用不仅能从云端走向手机端,还能被更快速地塞进汽车、XR、PC和物联网设备中。

站在现在的时间节点,人人都在期待改变世界的技术潮流翻腾出更汹涌的巨浪。

而站立潮头的弄潮儿们正在再次验证技术史中一次次被探明的事实:引领技术之先的人和组织,无不具备重视基础技术的“发明家文化”。

不止是追赶最新的技术趋势,更要提前布局,抢先攻克基本方案。

高通在《让AI触手可及》白皮书中同样提到了这一点:

高通深耕AI研发超过15年,始终致力于让感知、推理和行为等核心能力在终端上无处不在。

这些AI研究和在此之上产出的论文,影响的不仅是高通的技术布局,也正在影响整个行业的AI发展。

大模型时代,“发明家文化”仍在延续。

也正是这样的文化,持续促进着新技术的普及化,促进着市场的竞争和繁荣,带动起更多的行业创新和发展。

你觉得呢?



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI 基础设施计划曝光!从数据中心到能源,在美投资数百亿美元;联合加拿大、韩国、日本和阿联酋组建全球投资者联盟

根据彭博最新报道,OpenAI CEO Sam Altman 此前计划召集全球投资者共同建设基础设施以支持 AI 发展,目前该计划正变得更加清晰,首先在美国各州实施的一项计划预计将耗资数百亿美元。 今年 2 月,Altman 一直在寻求美国政府对该项目的支持,该项目旨在组建一个全球投资者联盟,为支持快速 AI 发展所需的昂贵物理基础设施提供资金。


目前,Altman 和他的团队正在研究几个之前从未报道过的细节,包括首先针对美国各州的计划。据悉,正在讨论的项目类型包括建设数据中心、通过涡轮机和发电机增加能源容量和传输、以及扩大半导体制造,支持者可能包括加拿大、韩国、日本和阿联酋的投资者。 OpenAI 还设想其他私营公司也参与该项目,微软可能是其中一个潜在合作伙伴。 此外,包括 Altman 在内的 OpenAI 高管最近几周一直在与投资者会面以推进这笔交易。 OpenAI 首席战略官 Jason Kwon 最近前往日本和韩国与投资者讨论该计划。 OpenAI 全球政策副总裁 Chris Lehane 已与加拿大的投资者进行了交谈。Altman 在早些时候的会谈之后还与阿联酋的投资者进行了更多对话。 此次谈判正值 OpenAI 即将进行新一轮数十亿美元的融资,苹果、英伟达和微软都将参与 OpenAI 新一轮 Thrive 牵头的融资,估值超 1000 亿美元。 当被问及基础设施建设计划时,OpenAI 的一位发言人表示,OpenAI 认为在美国建设更多基础设施对于进一步推进 AI 并使其优势广泛普及至关重要。 Altman 曾在一篇专栏文章中写道,美国政策制定者必须与私营部门合作,建设大量物理基础设施——从数据中心到发电厂——来运行 AI 系统。 一位了解 Altman 想法的人士表示,除了 OpenAI 之外,其他公司也将从这些基础设施项目中受益,与美国结盟的国家也将受益。 这项计划的支持者认为,额外的好处是,建设这些项目将创造就业机会,补充《芯片与科学法案》,该法案为美国半导体制造业拨出 390 亿美元补助金。 OpenAI 的全球野心可能引发美国国家安全担忧,包括美国外国投资委员会的审查,该委员会越来越关注中东主权财富基金及其与中国的关系。 据知情人士透露,近几个月来,OpenAI 已与美国国家安全委员会就投资计划举行了会议。 据彭博此前报道,此次会议建立在与多位美国官员的对话基础之上。在这些会谈中,Altman 和其他 OpenAI 高管强调,全球基础设施计划将通过建立一个跨国联盟来与中国自己的基础设施财团竞争,从而帮助增强美国的地缘政治优势,而原本可能流向中国的外国资本将流向美国。 其中一位知情人士说。拜登政府一直在努力与所谓的全球南方建立更紧密的技术联系,包括支持微软与阿布扎比 AI 公司 G42 之间的里程碑式合作。


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Intel砸锅卖铁,Altera沦为弃子了吗?

最近Intel的经营压力很大,在本月召开的董事会会议上,CEO帕特·基辛格将提出具体方案,来挽救公司业务和资本市场的信心。

据报道,摩根士丹利正在帮Intel做财务顾问,制定详细的战略计划,其中包括可能的选项:

1、剥离非必要业务和削减资本支出,包括出售FPGA部门Altera;
2、冻结德国的新建晶圆厂项目,这是一项价值320亿美元的工程项目;
3、将英特尔一分为二,即芯片制造与芯片设计分离开,互相剥离,独立发展(最激进的方案)。


英特尔存在一些大问题,如一是移动端设备做不下来功耗,实际上干不过ARM。二是GPU能力不能适应AI需求,也干不过英伟达。说到底,英特尔到今天还只是个PC和服务器 CPU厂商。一旦拆分,就意味着,以设计为主的话经营利润会变好一些,但是长远来看基础就没了。

英特尔虽然家大业大,但是现在“大而无当,往而不返”,需要做出痛苦的选择,CEO帕特·基辛格最近在推特上分享了圣经经文,这在平时并不常见,尤其是考虑到公司最近的大规模裁员和停止支付股息的决定。基辛格一直是个虔诚的宗教信徒,但这次他引用的经文似乎有了更深层的含义。

关于英特尔分拆Altera的分析,我在去年十月份就已经写文章,目前差不多一年过去了,结论没有什么变化。目前市场认为潜在的卖家有两家,AMD和Marvell,个人觉得AMD的可能性不大,一个是反垄断通过的可能性不大,另一个是AMD手里已经在消化赛灵思没有必要再折腾了。

以下是我去年的文章:

10月4日,英特尔宣布剥离其可编程解决方案部门(PSG),预计将于2024年1月1日开始作为独立业务运营,在未来两到三年内,英特尔打算为PSG进一步IPO,以加速业务的增长,英特尔保留多数股权。

PSG就是2015年英特尔花了167亿美元收购的Altera,此后在去年,另一家FPGA巨头Xilinx被AMD以490亿美元收购。

PSG的业绩其实表现还不错,2020-2021年,英特尔PSG增长速度为16%,英特尔2023年第二季度财报电话会议中披露,其PSG业务部门的收入同比增长35%,连续三个季度创下历史新高。

那么,英特尔为什么选择在此时要剥离FPGA业务呢?

我认为主要是两个原因:

1、英特尔当初整合Altera的目标已经失败。

当初,英特尔之所以收购Altera,终极目标是数据中心业务,这在我之前的文章里已经多次提到了。

眼下这个目标明显已经失败了。

在数据中心业务中,英伟达的GPU大获全胜,AMD/Xilinx的组合也占据了一定份额,另外还有谷歌的TPU自己用,但是Intel明显没有达到预期的目标,属于起了个大早,赶了个晚集。

在车载业务,高通的座舱芯片,特斯拉的自研芯片,英伟达、Xilinx都有了一席之地,而英特尔的MobileEye一直徘徊在自动驾驶市场的城乡结合部。

在整合PSG的过程中,英特尔试图将Altera的所有产品从台积电转回自己的10纳米工艺制造,但由于自身制造工艺的延迟,导致了Altera的所有产品受到了严重的影响,市场份额被严重削弱。以致于Altera的全球市场份额从当时的42%降到了现在的接近25%。

当初的美满结合变成了双输局面,Altera的团队自然也很不服气,再不单飞要被拖死了。

2、英特尔战略方向重大调整。

2021年,帕特·基辛格(Pat Gelsinger)成为英特尔的首席执行官,并提出了IDM 2.0战略,旨在重振公司的芯片设计和制造能力。该战略着重于恢复英特尔的制造优势,并将在2024年量产新的制程节点。与此同时,英特尔开始关闭或出售一些非核心业务,以集中精力发展核心业务。

因此拆分PSG并不是孤立的行动,英特尔陆续卖出或独立一批边缘业务,英特尔早些时候曾将其内存芯片部门出售给SK海力士,并将其Mobileye自动驾驶汽车芯片部门的一部分上市。

从今年的财报里可以看到,Intel已经在大量变卖资产,旗下业务也一个一个关,包括傲腾持久内存、源自Barefoot的使用P4语言进行编程的Tofino交换机芯片、以及刚开始不久的RISC-V Pathfinder项目等等,都已经直接砍掉了。

直接原因,地主家也没有余粮了,都去搞生产了。英特尔的制造业务太烧钱,几乎已经耗尽家底。

从2021年开始,两年间英特尔就宣布了接近两千亿美元的投资计划。

-2021年,宣布在马来西亚投入70亿美元,建芯片封测厂;
-同年宣布在Arizona投入200亿美元,建两座晶圆厂。
-2022年宣布在Ohio投入200亿美元,建两座晶圆厂,最终投入会达到1000亿;
-宣布未来十年在欧洲投入800亿欧元,第一阶段在欧洲330亿欧元的投资,包括在德国建设领先的半导体晶圆工厂,在法国新设研发和设计中心,并在爱尔兰、意大利、波兰和西班牙进行研发、制造和代工服务等。

英特尔一年的营收才600多亿,建厂的钱哪里来?靠美国政府补贴,还有就是卖业务了。

Altera回归FPGA市场胜算几何?

一转身一折腾,时过境迁,一个时代就过去了。

表面上看,PSG每个季度还能带来5亿美元左右的营收,但在我看来大多是Legacy业务,在大部分新兴市场领域,由于缺乏创新产品,PSG已经失去了先机。在我前面的文章里也曾经提到,Xilinx卖得最多的早已不是纯FPGA芯片了。在存量市场上,Altera的老产品正在不断被替代。

而在国内市场更加明显,Altera的市场份额大概比收购时缩减了一半以上,当然有一部分中低端存量市场也被我们国产吃掉了,再要回来可没那么容易了。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

英伟达暴跌,一夜蒸发近3000亿美元

据CNBC报道,英伟达周二暴跌 9.5%,导致该芯片制造商的市值蒸发近 3000 亿美元,创下美国股票史上最大跌幅,这也让公司跌至三周以来的最低点。

其实Nvidia早前发布的第二季度的业绩超出分析师预期,本季度的业绩展望也超出分析师预期,不过可能未达到投资者越来越高的预期。


上周四,也就是财报发布后的第二天,该公司股价下跌逾 6%。自该公司公布收益以来,该公司在过去三个交易日内已下跌 14%。

英伟达的波动,充分表明投资者对推动今年股市大幅上涨的新兴人工智能技术愈加谨慎。而在英伟达动荡的同时,整个纳斯达克和美国芯片股,也蠢蠢欲动。

英伟达拖累,美国芯片全面下挫

在英伟达大跌同期,费城芯片指数(.SOX)也暴跌7.75%,创2020年以来最大单日跌幅。当中,费城半导体指数的所有 30 家公司股价均下跌至少 5.4%,其中 On Semiconductor、KLA Corp. 和 Monolithic Power Systems Inc. 下跌超过 9%。纳斯达克 100 指数下跌近 3.2%。英特尔下跌近 8%,Marvell下跌 8.2%,博通损失约 6% 。AMD下跌 7.8%,高通下跌近7%。追踪半导体股票的指数VanEck Semiconductor ETF (SMH)也下跌7.5%,为2020年3月以来的最大单日跌幅。

过去一年,芯片类股票一直在上涨,因为人们乐观地认为,人工智能的热潮将要求企业购买更多的半导体和内存,以满足人工智能应用不断增长的计算需求。该板块由英伟达领衔,该公司在 AI 数据中心芯片市场占据主导地位。到 2024 年,该股仍上涨 118%。

其他芯片公司也在竞相加入这一增长行列。英特尔和 AMD 销售 AI 芯片,但迄今为止市场渗透率有限。博通正在为谷歌的TPU 芯片,高通正在宣传其芯片是运行 Android 手机 AI 的最佳芯片。

上周,英伟达公布了截至 7 月的季度营收为 300 亿美元,高于华尔街已经过高的预期。该公司数据中心业务(包括 AI 处理器)的营收同比增长 154%,部分原因是少数云计算和互联网巨头每季度购买数十亿美元的英伟达芯片。

Nvidia 表示,预计本季度销售额将增长 80%。一些投资者认为 Nvidia 的预测令人失望,一度打击了向该公司供应内存和其他零部件的芯片制造商。根据最新数据,过去一个月,外国和机构投资者抛售了价值 4 万亿韩元(30 亿美元)的三星电子和 SK 海力士股票。

韩国证券交易所9月1日的数据显示,8月份,外国机构减持了价值2.088万亿韩元的三星电子股票。韩国本土机构减持了价值1.378万亿韩元的三星股票。

分析师表示,这些抛售与 Nvidia 最近的财报有关。尽管这家科技巨头上个季度的营收增长了一倍多,但投资者对这一数字感到失望,因为与过去六个季度相比,收入增长最小。Nvidia 对第三季度的预期也显示同比增长较小,预计收入为 325 亿美元。

分析师解释称,英伟达缺乏有关其下一代人工智能芯片的具体细节,进一步打击了投资者的信心。英伟达宣布,台积电制造的 Blackwell 处理器将于第四季度开始量产,可能带来数十亿美元的销售额,但并未透露具体的发布时间表。此前业界预计 Blackwell 将在今年第三季度开始出货。

投资者还担心 Nvidia 对高带宽内存 (HBM) 的需求未来可能会下降,从而对 SK Hynix 产生不利影响,因为 SK Hynix 目前供应 Nvidia 用于制造图形处理单元 (GPU) 的大部分 HBM 芯片。

周二,ISM 制造业指数公布的 8 月份数据低于普遍预期,引发了人们对经济实力的担忧,但也可能增加了美联储降息的可能性,进一步导致市场表现低迷。

反垄断调查越来越严,加重担忧

在业绩未能达到预期的同时,英伟达面临的越来越严反垄断调查,也正在进一步凸显公司股票的未来不确定性。

得益于过去多年在GPU和CUDA的投入,英伟达建立起了深厚的生态系统,这使其成为一条难以被竞争对手超越的巨大护城河,英伟达也在人工智能芯片市场占据主导地位——据估计,英伟达在人工智能训练芯片市场占有 70% 至 95% 的份额——这表明其产品对这个快速增长的行业至关重要。此外,英伟达拥有极强的定价能力,这反映在其令人印象深刻的约 78% 的毛利率上。

也正是这种软硬绑定、出售系统的销售方法,让英伟达面临反垄断的调查。

今年七月,有知情人士透露,有伟大即将因涉嫌反竞争行为而受到法国反垄断监管机构的指控,这将是第一家针对这家计算机芯片制造商采取行动的执法机构。回到去年 9 月,法国就曾对显卡行业进行了突击检查,消息人士称,针对 Nvidia 的突击检查就是法国所谓的异议声明或指控书。此次突击检查是对云计算进行更广泛调查的结果。

报道指出,法国监管机构向企业发布了部分反对声明,但并非全部。英伟达拒绝置评。该公司在去年的监管文件中表示,欧盟、中国和法国的监管机构曾要求提供有关其显卡的信息。其他知情人士表示,由于法国当局正在调查英伟达,欧盟委员会目前不太可能扩大初步审查。

法国监管机构在六月底发布的关于生成人工智能竞争的报告中指出了芯片供应商滥用的风险。它对该行业对 Nvidia 的 CUDA 芯片编程软件的依赖表示担忧,该软件是唯一与加速计算必不可少的GPU 100% 兼容的系统。它还提到了对 Nvidia 对 CoreWeave 等专注于人工智能的云服务提供商的投资感到不安。

如果违反法国反垄断规定,公司将面临高达其全球年营业额 10% 的罚款,不过它们也可以做出让步以避免受到处罚。

与此同时,美国也正在加紧对英伟达的反垄断调查。

彭博社最新消息显示,美国司法部向英伟达公司和其他公司发出传票,以寻找这家芯片制造商违反反垄断法的证据,这是对这家人工智能处理器主要供应商的调查升级。知情人士透露,司法部此前曾向公司发放调查问卷,现在正在发送具有法律约束力的请求,要求收件人提供信息。这使政府距离发起正式投诉又近了一步。

知情人士透露,反垄断官员担心,英伟达让企业更难转向其他供应商,并对不专门使用其人工智能芯片的买家进行处罚。在彭博社报道传票后,英伟达股价在尾盘进一步下跌。

在回答有关调查的问题时,英伟达表示,其市场主导地位源于其产品质量,这些产品的性能更快。该公司在一封电子邮件声明中表示:“Nvidia 凭借自身实力取胜,这反映在我们的基准测试结果和对客户的价值上,客户可以选择最适合自己的解决方案。”

Nvidia 成立于 1993 年,通过向电脑游戏玩家销售显卡而闻名。但其芯片制造方法最终被证明对构建 AI 模型有用,这一过程涉及用数据轰炸软件。该公司还迅速扩大了其产品线,包括一系列软件、服务器、网络和服务——在Nvidia 看来,所有这些都是为了加快 AI 的部署。

其产品的成功——以及竞争对手在推出替代芯片方面的挣扎——使 Nvidia 成为全球一些最大公司供应链中的关键一环。例如,微软公司和 Meta Platforms Inc. 将其硬件预算的 40% 以上花在了这家芯片制造商的设备上。在 Nvidia 的 H100 加速器短缺的高峰期,单个组件的零售价高达 90,000 美元。

自从成为全球最有价值的芯片制造商和人工智能支出热潮的主要受益者以来,Nvidia 一直受到监管审查。销售额每个季度都翻一番以上,并超越了英特尔等曾经的芯片领导者。如上所述,Nvidia 这个做法引起了更广泛的监管问题。

生成式AI有泡沫吗?何时破?

随着生成式AI的发展,行业分析师开始公开质疑对 GenAI 的巨额投资是否会带来回报,人们对生成式人工智能的讨论也开始出现怀疑。高盛研究部在一封信中表示,除了编写co-pilots 和聊天机器人之外,缺乏“杀手级应用”是最紧迫的问题,而数据可用性、芯片短缺和电力问题也带来了阻力。

在OpenAI于2022年底向世界推出了一种名为 ChatGPT 的新型大型语言模型 (LLM)以来,基于神经网络的人工智能,尤其是基于transformer网络的 GenAI 的炒作水平,一直与之前的科技大时刻惊人地相似。

值得指出的是,在科技发展的历史长河里,其中一些大时刻最终成为了真正的转折点,例如移动和云计算,有些让我们扪心自问“我们在想什么”(区块链、5G),而其他技术突破的全部经验教训则需要数年时间才能显现出来(互联网泡沫,甚至Hadoop 式计算)。

因此,现在我们面临的最大问题是:五年后,我们将把 GenAI 归入哪一类别?认为 AI 可能走 5G 和区块链的老路的人士之一正是高盛。在6 月版《高盛研究通讯》中,有一篇广为阅读的报道,题为“Gen AI:投入太多,收益太少?”,编辑 Allison Nathan 思考了 AI 是否会成功。

她写道:“生成式人工智能技术有望改变公司、行业和社会,这一前景持续受到吹捧,这导致科技巨头、其他公司和公用事业公司在未来几年将花费约 1 万亿美元的资本支出,包括对数据中心、芯片、其他人工智能基础设施和电网的大量投资。”“但到目前为止,除了开发商效率提高的报告外,这些支出几乎没有什么可证明的。”

麻省理工学院教授达隆·阿西莫格鲁表示:“生成式人工智能有可能…



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

英伟达暴跌,一夜蒸发近3000亿美元

文章来源:半导体行业观察

据CNBC报道,英伟达周二暴跌 9.5%,导致该芯片制造商的市值蒸发近 3000 亿美元,创下美国股票史上最大跌幅,这也让公司跌至三周以来的最低点。

其实Nvidia早前发布的第二季度的业绩超出分析师预期,本季度的业绩展望也超出分析师预期,不过可能未达到投资者越来越高的预期。


上周四,也就是财报发布后的第二天,该公司股价下跌逾 6%。自该公司公布收益以来,该公司在过去三个交易日内已下跌 14%。

图片来源

英伟达的波动,充分表明投资者对推动今年股市大幅上涨的新兴人工智能技术愈加谨慎。而在英伟达动荡的同时,整个纳斯达克和美国芯片股,也蠢蠢欲动。

英伟达拖累,美国芯片全面下挫

在英伟达大跌同期,费城芯片指数(.SOX)也暴跌7.75%,创2020年以来最大单日跌幅。纳斯达克 100 指数下跌近 3.2%。英特尔下跌近 8%,Marvell下跌 8.2%,博通损失约 6% 。AMD下跌 7.8%,高通下跌近7%。追踪半导体股票的指数VanEck Semiconductor ETF (SMH)也下跌7.5%,为2020年3月以来的最大单日跌幅。

过去一年,芯片类股票一直在上涨,因为人们乐观地认为,人工智能的热潮将要求企业购买更多的半导体和内存,以满足人工智能应用不断增长的计算需求。

其他芯片公司也在竞相加入这一增长行列。英特尔和 AMD 销售 AI 芯片,但迄今为止市场渗透率有限。博通正在为谷歌的TPU 芯片,高通正在宣传其芯片是运行 Android 手机 AI 的最佳芯片。

上周,英伟达公布了截至 7 月的季度营收为 300 亿美元,高于华尔街已经过高的预期。该公司数据中心业务(包括 AI 处理器)的营收同比增长 154%,部分原因是少数云计算和互联网巨头每季度购买数十亿美元的英伟达芯片。

Nvidia 表示,预计本季度销售额将增长 80%。一些投资者认为 Nvidia 的预测令人失望,一度打击了向该公司供应内存和其他零部件的芯片制造商。根据最新数据,过去一个月,外国和机构投资者抛售了价值 4 万亿韩元(30 亿美元)的三星电子和 SK 海力士股票。

参考链接:



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

迈向「多面手」医疗大模型,上交大团队发布大规模指令微调数据、开源模型与全面基准测试

编辑 | ScienceAI

近日,上海交通大学、上海 AI Lab、中国移动等机构的联合研究团队,在 arXiv 预印平台发布文章《Towards Evaluating and Building Versatile Large Language Models for Medicine》,从数据、测评、模型多个角度全面分析讨论了临床医学大语言模型应用。

文中所涉及的所有数据和代码、模型均已开源。


GitHub: https://github.com/MAGIC-AI4Med/MedS-Ins

Paper Link: https://arxiv.org/abs/2408.12547

Leaderboard: https://henrychur.github.io/MedS-Bench/

概览

近年来,大型语言模型(LLM)取得了显著的进展,并在医疗领域取得了一定成果。这些模型在医学多项选择问答(MCQA)基准测试中展现出高效的能力,并且 UMLS 等专业考试中达到或超过专家水平。

然而,LLM 距离实际临床场景中的应用仍然有相当长的距离。其主要问题,集中在模型在处理基本医学知识方面的不足,如在解读 ICD 编码、预测临床程序以及解析电子健康记录(EHR)数据方面的误差。

这些问题指向了一个关键:当前的评估基准主要关注于医学考试选择题,而不能充分反映 LLM 在真实临床情景中的应用。

本研究提出了一项新的评估基准 MedS-Bench,该基准不仅包括多项选择题,还涵盖了临床报告摘要、治疗建议、诊断和命名实体识别等 11 项高级临床任务。

研究团队通过此基准对多个主流的医疗模型进行了评估,发现即便是使用了 few-shot prompting,最先进模型,例如,GPT-4,Claude 等,在处理这些复杂的临床任务时也面临困难。

为解决这一问题,受到 Super-NaturalInstructions 的启发,研究团队构建了首个全面的医学指令微调数据集 MedS-Ins,该数据集整合了来自考试、临床文本、学术论文、医学知识库及日常对话的 58 个生物医学文本数据集,包含超过 1350 万个样本,涵盖了 122 个临床任务。

在此基础上,研究团队对开源医学语言模型进行指令调整,探索了 in-context learning 环境下的模型效果。

该工作中开发的医学大语言模型——MMedIns-Llama 3,在多种临床任务中的表现超过了现有的领先闭源模型,如 GPT-4 和 Claude-3.5。MedS-Ins 的构建极大的促进了医学大语言模型在实际临床场景的中的能力,使其应用范围远超在线聊天或多项选择问答的限制。

相信这一进展不仅推动了医学语言模型的发展,也为未来临床

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

李飞飞团队提出ReKep,让机器人具备空间智能,还能整合GPT-4o

视觉与机器人学习的深度融合。

当两只机器手丝滑地互相合作叠衣服、倒茶、将鞋子打包时,加上最近老上头条的 1X 人形机器人 NEO,你可能会产生一种感觉:我们似乎开始进入机器人时代了。


事实上,这些丝滑动作正是先进机器人技术 + 精妙框架设计 + 多模态大模型的产物。

我们知道,有用的机器人往往需要与环境进行复杂精妙的交互,而环境则可被表示成空间域和时间域上的约束。

举个例子,如果要让机器人倒茶,那么机器人首先需要抓住茶壶手柄并使之保持直立,不泼洒出茶水,然后平稳移动,一直到让壶口与杯口对齐,之后以一定角度倾斜茶壶。这里,约束条件不仅包含中间目标(如对齐壶口与杯口),还包括过渡状态(如保持茶壶直立);它们共同决定了机器人相对于环境的动作的空间、时间和其它组合要求。

然而,现实世界纷繁复杂,如何构建这些约束是一个极具挑战性的问题。

近日,李飞飞团队在这一研究方向取得了一个突破,提出了关系关键点约束(ReKep/Relational Keypoint Constraints)。简单来说,该方法就是将任务表示成一个关系关键点序列。并且,这套框架还能很好地与 GPT-4o 等多模态大模型很好地整合。从演示视频来看,这种方法的表现相当不错。该团队也已发布相关代码。本文一作为 Wenlong Huang。

论文标题:ReKep: Spatio-Temporal Reasoning of Relational Keypoint Constraints for Robotic Manipulation
论文地址:https://rekep-robot.github.io/rekep.pdf
项目网站:https://rekep-robot.github.io
代码地址:https://github.com/huangwl18/ReKep
李飞飞表示,该工作展示了视觉与机器人学习的更深层次融合!虽然论文中没有提及李飞飞在今年 5 年初创立的专注空间智能的 AI 公司 World Labs,但 ReKep 显然在空间智能方面大有潜力。

方法

关系关键点约束(ReKep)
首先,我们先看一个 ReKep 实例。这里先假设已经指定了一组 K 个关键点。具体来说,每个关键点 k_i ∈ ℝ^3 都是在具有笛卡尔坐标的场景表面上的一个 3D 点。
一个 ReKep 实例便是一个这样的函数:𝑓: ℝ^{K×3}→ℝ;其可将一组关键点(记为 𝒌)映射成一个无界成本(unbounded cost),当 𝑓(𝒌) ≤ 0 时即表示满足约束。至于具体实现,该团队将函数 𝑓 实现为了一个…


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

打开AI黑匣子,「三段式」AI用于化学研究,优化分子同时产生新化学知识,登Nature

图片

编辑 | KX

AI 工具的强大功能,令人难以置信。但如果你试图打开引擎盖并了解它们在做什么,你通常会一无所获。


AI 常常被视为「黑匣子」。

对于化学来说,AI 可以帮助我们优化分子,但它无法告诉我们为什么这是最佳的——重要的特性、结构和功能是什么?

近日,伊利诺伊大学厄巴纳-香槟分校(UIUC)的一个跨学科研究团队打开了黑匣子,研究人员通过将 AI 与自动化学合成和实验验证相结合,找到了 AI 所依赖的化学原理,从而改进用于收集太阳能的分子。

研究找到了比现有稳定四倍的捕光分子,同时给出了使其保持稳定的重要见解 ——这是一个阻碍材料开发的化学问题。

研究人员提出将闭环实验与基于物理的特征选择和监督学习集成,称为「闭环转移」(Closed-loop Transfer,CLT),可以在优化目标函数的同时产生化学见解。

「通过我们的过程,我们确定了是什么赋予这些分子更高的光稳定性。我们把 AI 黑匣子变成了一个透明的玻璃球。」伊利诺伊大学厄巴纳-香槟分校化学教授 Nicholas Jackson 说。

相关研究以「Closed-loop transfer enables artificial intelligence to yield chemical knowledge」为题,于 8 月 28 日发表在《Nature》上。

图片

论文链接:https://www.nature.com/articles/s41586-024-07892-1

AI 引导的闭环实验

AI 引导的闭环实验平台,在加速科学发现方面显示出巨大潜力。但目前还不可能利用闭环优化策略来获取全新的化学知识。

光稳定性是一种普遍存在的化学功能,目前缺乏通用的化学设计原则。化学知识的缺乏限制了有机光伏、染色聚合物、太阳能燃料和荧光染料等领域的进展。

此前对分子光稳定性的研究主要集中在最低激发三重态 (T1) 的能量学及其与键解离能的关系上,但在分散的化学类别中研究有限。最近的研究表明,较高能量的三重态 (Tn, n > 1) 也适用于较窄的化学类别,但仍然缺乏通用的设计原则。

闭环范式有望在传统方法未能实现的光稳定性方面取得突破。为了实现这一愿景,需要从闭环策略中提取知识的新方法,然后 AI 才能产生可解释的假设并增强科学家对光稳定性和分子功能的根本理解。

「三段式」AI 方法用于化学研究

该研究的目标是,如何改进有机太阳能电池,这种电池基于薄而柔韧的材料,而不是现在遍布屋顶和田野的刚性、沉重的硅基电池板。

「阻碍有机光伏电池商业化的是稳定性问题。高性能材料在暴露于光线下时会降解,而这并不是太阳能电池所希望的,」UIUC 化学和生物分子工程教授 Ying Diao 说。「它们可以以硅无法实现的方式制造和安装,也可以将热量和红外光转化为能量,但自 20 世纪 80 年代以来,稳定性一直是一个问题。」

在此,伊利诺伊大学厄巴纳-香槟分校研究团队提出了一种三阶段方法,该方法在展示化学知识的同时,还优化了广泛化学空间中的分子功能。

  • 第一阶段是机器学习 (ML) 驱动的假设生成:应用贝叶斯优化 (BO) 来提高光稳定性,直到性能指标达到稳定状态,并使用基于物理的分子特征出现 ML 衍生的假设。
  • 第二阶段是假设检验:通过实验验证 ML 得出的假设,来建立新发现的化学知识。
  • 第三阶段是物理驱动的发现:将新的基于物理的知识应用于化学设计空间,人为驱动,突破优化瓶颈。
图片

图示:CLT 范式。(来源:论文)

分子的光稳定性提高四倍

在多轮闭环合成和实验表征中,AI 算法给出了合成和探索哪些化学物质的建议。每一轮之后,新的数据都会被重新纳入模型,然后模型给出改进的建议,每一轮实验都会更接近预期的结果。

研究人员在五轮闭环实验中产生了 30 种新的化学候选物。

重要的是,通过对 2,200 个潜在分子总空间的不到 1.5% 进行采样,排名前五位的分子的平均光稳定性提高了 500% 以上,这一结果与之前的理论预测一致。

图片

图示:第一阶段机器学习驱动的假设生成。(来源:论文)

研究结果还表明,与传统的 T1 能量光稳定性描述符相反,高能 TDOS 成为整个化学空间中分子光稳定性的主要决定因素。这一见解在第四轮 BO 之后出现,并在第五轮之后得到证实。由于 ML 模型的收敛与分子光稳定性的稳定期相吻合,这标志着 BO 实验的结束。

「模块化化学方法完美地补充了闭环实验。AI 算法要求获取具有最大学习潜力的新数据,而自动分子合成平台可以非常快速地生成所需的新化合物。然后对这些化合物进行测试,数据会返回到模型中,模型会一次又一次地变得更智能,」伊利诺伊大学化学教授 Martin Burke 说道。

Jackson 说,「现在我们有了一些使分子具有光稳定性的物理描述,这使得筛选新化学候选物的过程比在化学空间中盲目搜索要简单得多。」

「我们相信我们可以解决其他材料系统。最终,我们设想了一个界面,研究人员可以输入他们想要的化学功能,AI 将生成假设进行测试。」Schroeder 说。

参考内容:https://phys.org/news/2024-08-ai-black-team-key-chemistry.html



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

8岁小孩哥上手用AI制作游戏,全程2小时,引来50多万人围观

整个游戏都是孩子独立完成的,有视频为证。

一个八岁的孩子,在没有任何编程经验的情况下,居然手动建起了一个网站。


是不是炒作不知道,但真的感知到了 AI 正在让编程变的越来越简单。

这位孩子的父亲名叫 Meng To,是在线学习提供商 DesignCode 的创建者。刚刚,他在 X 上分享了这个令人惊讶的消息:

「我 8 岁的儿子在没有任何编码经验的情况下建立了一个 Three.js 网站,他利用 Claude AI 工具,并让 Cursor 为他完成所有代码工作。实际上,他完成了好几个项目,包括两个平台游戏、一个绘图应用、一个动画应用和一个 AI 聊天应用,每个项目大约花费 2 小时。我仅帮助他设置了 Cursor、Git 和 Netlify。」

最后,Meng To 还不忘感叹一句「现在,代码已成为一种设计工具,甚至不再需要人来编写代码了。」

图片

话不多说,我们先来看看这位 8 岁小朋友的多项成果。

首先看到的是一个方块游戏,蓝色方块移动到哪…

接下来展示的是一个类似超级马里奥的游戏,游戏里的人物可以行走、跳跃,还能控制跳跃的高度…

除了游戏,这位 8 岁小孩还制作了一个绘图应用,界面设置的非常简洁明了,点击相应的按钮,可以勾勒出不同的图形…

接下来是一个简单的动画软件,可以将书写的内容转化为动画…

一般的游戏开发,需要学习编程语言、游戏引擎、VR、AR 等内容。看到这,网友们不淡定了,纷纷表示怀疑:「真的吗?我不信?」…

为了证明整个游戏都是孩子独立完成的,老父亲晒出了孩子的简历…

「他一直对工程学很着迷,大约在 1-2 岁时,他就对吸尘器、洗衣机和时钟表现出浓厚的兴趣。4-5 岁时,他就对 3D 打印和乐器感兴趣。到了 6-7 岁,他迷上了《我的世界》,使用方块建造了许多复杂的世界。他从学校接触到了 Roblox、Roblox Studio(在线游戏创作平台)和 Scratch(专为儿童设计的编程工具)。到目前为止,他已经制作了 100 多个 Scratch 项目,其中不乏富有挑战性的复杂作品,以及数十款 Roblox Studio 游戏和 6 个网页应用。

老父亲进一步表示,两周前,他给孩子看了一段关于一个 8 岁的孩子开发哈利波特网络应用程序的视频,然后才向孩子介绍了 Claude AI。…

小孩每天花大约 2 个小时在项目上。前几天,孩子还赢得了一些收入,因为有 20 个人玩了他开发的游戏。…

制作过程中,老父亲尽量不介入孩子的创作过程,让他自己学习整个过程。

图片

这位「小孩哥」还有自己的 YouTube 频道,已经出了 20 多期视频,除了会做游戏,他还会用 Figma 做产品原型,用 Cursor 做 App。看来,那种有十年工作经验的应届毕业生不愁招不到了。…

这位老父亲也上传了孩子在 Cursor 中制作一个画笔应用的过程。首先进入 Cursor 界面:…

接着,小孩熟练的在右边栏键入「make a pen app」,Cursor 会帮助生成相应的代码:…

然后点击应用:…

接着去查找文件夹,找到后双击打开,不需要再做其他操作,就可以开始画图、调整大小、清除画面或更改颜色了:…

图片

除此以外,这位小朋友还做了一些更改,比如加大按钮的大小,并添加一些文字:…

再重新返回应用,按钮就变大了:…

随后,小孩又尝试了一些其他操作,比如添加字体:…

大家可以查看下面完整视频,更直观的感受下 8 岁小孩是如何构建一个应用的。链接

启发这对父子的,正是上周冲上外网热搜的 8 岁女孩玩转 AI 编程工具,45 分钟…

Cloudflare 副总裁晒出了自己女儿使用 Cursor 的体验…

这也引来众多大神围观, Karpathy 甚至连发两条评论:…

图片

8 岁小孩都能轻松上手,Cursor 这几天可是狠狠火了一把。

但是在 Cursor 闯出名气之前,大模型本身具备编码能力,市面上也早已推出多款 AI 编程软件,比如 GitHub Copilot,还有 Devin、Genie 等「AI 程序员」,能像人类软件工程师一样思考和行动,从需求到跑通都是全自动。

互···…

Cursor 默认使用 Claude-3.5-Sonnet 模型,它的代码补全功能将基于整个工程。它可以根据对项目的理解,预测之后的代码,它还可以根据你的近期更改,预测你下一步要做什么。

互···…

Cursor 给的代码「直接可用」的能力,也被许多有代码基础的开发者验证,你可以在 1 个半小时内开发出自己的股票看板,也可以在 2 个小时内做出一款谷歌浏览器插件。

图片

目前,Cursor 提供了免费、Pro 和面向企业的三种订阅模式。用户可以免费体验两周,而加入会员计划需要每月支付 20 美元。

有网友还算了一笔账,每月花 20 美元使用 Cursor 值不值?他的结论是:Cursor 的每次运行成本大约为 0.04 美元,包括约 833 个输入 token 和 2500 个输出 token,根据输入输出比率 1:3 计算,性价比可谓非常高。

参考链接:



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB