大摩:AI PC改变芯片业格局——从Wintel到Windows on Arm?

摩根士丹利分析师Charlie Chan等在最新报告中指出,看好Windows on Arm (WoA) AI PC的前景。分析师认为,基于Arm架构的AI个人电脑有望在未来几年获得更大市场份额,相关半导体股票成潜在受益者。


目前基于Arm的处理器(来自苹果和高通)在能源效率(以每瓦特性能衡量)方面已经开始赶上x86,这对未来AI PC的竞争至关重要。

对于WoA AI PC芯片出货量,分析师估计2024年约为200万台,2025年将增至1500万台,2026年进一步翻番至3000万台。假设英伟达和联发科在2028年占据WoA PC 50%的市场份额,出货量达到3300万台,2025年至2028年复合年增长率高达93%。

在WoA市场,高通目前扮演主导角色,但分析师预计,明年将有联发科、英伟达等厂商加入竞争。

报告认为,支持WoA AI PC发展的因素正在逐步成熟,未来几年这一市场有望出现爆发式增长。分析师预计,2025年人工智能PC将占笔记本电脑总出货量的30%,到2026年这一比例将升至50%。

根据IDC的数据,2023年,微软Windows操作系统在PC市场的市占率高达79%,其次是苹果macOS(11%)和谷歌Chrome OS(9%)。

分析师认为,随着AI大爆发,在即将到来的AI PC时代,“节能”将是电子设备最关键的卖点。分析师认为,能够在两方面都取得突破且具有一体化优势的公司,很将成为未来AI PC芯片赛道的赢家:

能够推出最“节能”芯片的公司可能是人工智能PC的赢家。在未来的边缘设备(无论是手机、笔记本电脑等)上运行AI应用程序(例如Copilot)将消耗更多的电力,而电池寿命过去一直是移动设备的关键限制。因此,我们预计WoA较低功耗的优势将是帮助其在2024年提高渗透率的因素之一。
Arm架构是一种RISC类型的指令集架构(ISA),而英特尔x86 ISA是一种复杂指令集计算机(CISC)架构。RISC指令更少,功能更简单,因此解码逻辑更简单,晶体管也更少。虽然标准Arm核心的性能可能低于x86产品,但基于Arm的CPU在功耗方面表现出了显著的优势。

英特尔今天仍然占据笔记本电脑CPU市场72%的市场份额,并使用自己的架构生产其大部分CPU产品。在微软的Windows生态系统中,Arm的CPU占比很小。

自2016年以来,联发科一直是Chromebook的Arm CPU供应商。基于Arm的CPU以与Android应用程序的兼容性和较长的电池寿命而闻名,帮助Chromebook在教育市场获得更高份额。

对于WoA AI PC芯片出货量,分析师估计2024年约为200万台,2025年将增至1500万台,2026年进一步翻番至3000万台。假设英伟达和联发科在2028年占据WoA PC 50%的市场份额,出货量达到3300万台,2025年至2028年复合年增长率高达93%。

从产业链来看,分析师指出台积电、联发科、英伟达等几家公司在WoA AI PC赛道中扮演重要角色:

台积电的3纳米先进制程技术以及CoWoS封装工艺,将助力基于Arm架构CPU与英特尔芯片一较高下。
作为经验最为丰富的Arm SoC设计公司,联发科预计将与英伟达合作,在2025年推出集CPU、GPU和AI加速器于一体的游戏AI PC芯片。

分析师指出,近年来,Arm为智能手机推出了更先进的CPU内核。为了提高基于Arm的CPU的性能,下游公司已经开始开发定制的Arm内核CPU,比如苹果MacBook的M系列CPU。iPhone上的A系列芯片同样受益于Arm CPU内核,在一众厂商中性能领先。。

更加关键的是,Arm在智能手机上的领先优势正在拓展到PC领域,随着越来越多厂商希望将NPU或APU等专用于AI任务的计算单元集成到其设计中,Arm在功耗和边缘人工智能推理任务上的出色之处也愈发凸显。

摩根士丹利的分析显示,目前基于Arm的处理器(来自苹果和高通)在能源效率(以每瓦特性能衡量)方面已经开始赶上x86,这对未来AI PC的竞争至关重要。

此外,微软也在软件上对Arm提供了更大力度的支持,有利于厂商转移到Arm架构芯片:

Arm64EC可能是一个关键点。微软于2021年宣布的Arm64EC可以将基于x86的应用程序的代码转移到基于arm的代码。它类似于苹果的Rosetta 2,后者用于苹果Macbook从英特尔芯片过渡到Arm芯片。我们认为,2025年的Windows 12可能比当前的Windows 11更好地支持Arm架构,具有更好的虚拟化技术(emulation)或软件适配性。

分析师指出,对微软而言,维护Windows操作系统在PC市场的主导地位,对于未来部署Copilot等AI服务至关重要。而苹果已经显示了在MacOS中使用基于Arm的芯片的优势。分析师认为,AI PC或许能为Windows on Arm创造一个新的切入点。

过去十年间,虽然Arm曾多次试图进入基于x86架构的PC CPU市场,但成效有限。虽然微软早在2011年就提出了WoA的想法,但由于难以与多芯片厂商集成软件,未能成功。预计在这一轮的AI热潮中,微软会在软件上加大对Arm设计的支持力度。

分析师还表示,随着Arm不断加强异构CPU设计能力,特别是新一代“Blackhawk”(黑鹰)高性能核心面世,Arm可以为AI等新兴领域玩家提供顶级硬件解决方案,尤其是大规模边缘人工智能推理领域:

现在被许可方有能力设计与GPU一致、为PC环境优化的CPU和NPU,并满足微软40倍性能提升的需求,以支持在边缘设备运行Copilot等AI应用。一开始Arm就处于独特位置,可为基于Windows的AI PC供应芯片。

在WoA市场,高通目前扮演主导角色,但分析师预计,明年将有联发科、英伟达等厂商加入竞争。与此同时,英特尔、AMD等传统PC芯片巨头也在加紧自家NPU(神经网络处理器)的开发步伐。

分析师还预计,鉴于AI PC刚刚起步,短期内在财务上对Arm的影响可能很小,但从长远来看,大摩认为Arm架构在AI PC等领域的应用越来越多,将支持更强劲的盈利势头,27财年开始会反映在财报里。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI“大模型宪法”出炉,公开征集建议!网友:大模型不性感了!

文章来源:51CTO技术栈
编辑 | 云昭

图片来源:由GPTNB生成

本周的OpenAI, 似乎并未辜负其名称中的“开放”字样。

近日,OpenAI虽然没有开源任何新模型,但该公司非常之“清流”,一改铜臭的商业味道。


OpenAI加入开放性组织

5月7日,该公司发布公告加入C2PA(致力于开发确定内容来源和真实性的技术规范,微软和Adobe也是成员之一,非营利性组织)的指导委员会,并表示这样做的目的是为了帮助人们验证用于创建或编辑多种数字内容的工具,并创建“专门帮助人们识别由我们自己的工具创建的内容的新技术”。

直白的解释,即,OpenAI希望与该领域的其他公司(包括竞争对手)合作,开发用于标记AI生成的图像、视频和其他内容的工具和技术,从而使观看者能够追溯到其来源并避免混淆他们用于现实世界的镜头和照片。

值得注意的是,C2PA这个组织发布过许多开源技术标准,所以OpenAI的接下来的好技术非常有望开源出来给开发者使用。

此外,就在同一天,OpenAI宣布将推出一款工具,可以检测出由其“文本到图像生成器Dall-E 3创建的图像。OpenAl表示,在内部测试中,该工具在约98%的时间内能够…

OpenAI 要为行业立规矩

这还不够,OpenAI开始在行业内立内容标准了!

其官网博客在7日宣布OpenAI 正在开发媒体管理器,该工具将使创作者和内容所有者能够告诉用户他们拥有什么,并指定他们希望如何将自己的作品纳入或排除在机器学习研究和训练之外。接下来,他们计划推出更多选择和功能。

这将需要尖端的机器学习研究来构建有史以来第一个同类工具,以帮助我们识别多个来源的受版权保护的文本、图像、音频和视频,并反映创作者的偏好。

“在开发媒体管理器时,我们正在与创作者、内容所有者和监管机构合作。我们的目标是在 2025 年之前推出该工具,并希望它能为整个人工智能行业树立标准。”

紧接着,5月8日,OpenAI公开分享了模型规范Model Spec,次日掌舵者Sam Altman评论道:

Model Spec规定了该公司模型如何运行,之后会继续倾听、讨论并调整。“我认为明确某件事究竟是BUG、还是决策造成的,这将是非常有用的。”

据悉,这个“模型规范”,是一个框架文件,旨在塑造 OpenAI 应用程序编程接口 (API) 和 ChatGPT 中使用的人工智能…

AI行为框架三定律

模型规范围绕3个主要组成部分构建:目标、规则和默认行为。这些元素是指导人工智能模型与人类用户交互的支柱,确保它们不仅有效而且遵守道德标准。

目标:该文件制定了广泛的总体原则,旨在为开发人员和最终用户提供帮助。其中包括帮助用户有效地实现他们的目标,考虑对不同利益相关者的潜在影响,以及坚持 OpenAI 在社区中积极反映的承诺。

规则:为了驾驭人工智能交互的复杂环境,模型规范建立了明确的规则。这些要求遵守适用法律、尊重知识产权、保护隐私,并严格禁止制作不安全工作 (NSFW) 内容。

默认行为:指南强调了假设良好意图、必要时提出澄清问题以及尽可能提供帮助但不过分的重要性。这些默认值旨在促进不同用户和用例的不同需求之间的平衡。

AI 布道者、宾夕法尼亚大学沃顿商学院教授 Ethan Mollick 等人将其比作科幻作家阿西莫夫于 1942 年提出的虚构“机器人三定律”。

质疑声音

当然,这个模型规范当然还远远不能称为完美,有网友甚至对于模型规范表示遗憾:因为这会阻止模型充分发挥其功能。

比较尴尬的地方就在于,本身在该示范中的一个示例就出问题了。科技作家Andrew 在 X 上指出,模型规范中包含的 OpenAI 的一个示例显示,一个假设的“AI 助手”对用户关于地球是平的错误说法做出了让步,并且没有提出疑问。

同时,还有人对当前 OpenAI 模型规范如何导致 ChatGPT 或其他 AI 模型行为的实现提出了质疑。

一项马拉松式的公开工程

OpenAI 认识到模型规范是一个不断发展的文档。它不仅反映了组织当前的实践,而且还是一个动态框架,将根据正在进行的研究和社区反馈进行调整。

这种协商方法旨在收集不同的观点,特别是来自政策制定者、值得信赖的机构和领域专家等全球利益相关者的观点。

收到的反馈将在完善模型规范和塑造未来人工智能模型的发展方面发挥至关重要的作用。

OpenAI 计划向公众通报从这一反馈循环中获得的变化和见解,强化其对负责任的人工智能开发的承诺。

OpenAI是裁判,也是运动员?

无论如何,本周一系列开放的动作或许在透露出OpenAI在处于某种转折点上。美大选将近,GPT-5的推出备受大家关注。“大模型行为准则”的推出,似乎也标志着某种秩序即将悄然而至。

正如SamAltman所说,通过明确定义人工智能模型应如何按照其模型规范行事,并不断寻求全球社区的意见,希望OpenAI 可以营造这样一个环境,让AI能够作为社会的积极力量蓬勃发展。

当然,虽然OpenAI自身也在因为同样的事情在面临着诉讼和挑战,比如:对未经明确同意对艺术家作品而进行训练而饱受批评。

医者能否自医?裁判还是运动员?则是另一个值得探讨的话题了。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI泡沫要破了?朱啸虎说大模型商业模式非常差,Sea创始人称企业转型AI将变乱

来源:钛媒体AGI

作者|林志佳

编辑|胡润峰

尽管ChatGPT狂飙一年多引发新一轮AI追赶热潮,但国内对于AI亏损等质疑声依然不减。

5月8日下午,金沙江创投主管合伙人朱啸虎在第18届中国投资年会上表示,大模型商业模式非常差,技术没有差异点,而且每一代模型都要重新去砸钱,每一代的变现周期则仅有两三年。


图片来源:由GPTNB生成

“我觉得奥尔特曼(OpenAI联合创始人兼CEO)是在吹牛,GPT-5肯定没有真近”。朱啸虎还认为,GPT-4已经满足了绝大部分的商业需求。他预计新一波AI应用的大爆发将在明年到来。

与此同时,东南亚科技龙头Sea冬海集团创始人、原新加坡首富Forrest Li(李小冬)日前向6万名员工发布内部信中警告称,未来几年企业向 AI 技术转型将带来混乱局面,过渡变得很困难。

总结来看,无论是朱啸虎,还是李小冬,大家都非常质疑 AI 的盈利能力和整个行业的困难程度,尤其是 AI 大模型商业化的“造血能力”不如预期。

实际上,AI 是一个长周期、不断创新的产业,而非互联网时期典型的“赢家通吃”、近乎为0的边际成本增长、高用户黏性的行业,AI、云计算等领域没有“垄断”,所以壁垒没有那么高,并需要不断技术创新,一旦减少研发投入,就如同IBM和微软当年事件一样,直接退出了行业头部位置,因此,所有 AI 公司都无法避开高昂的投入成本。

科大讯飞董事长刘庆峰曾谈到,AI 技术就跟Gartner曲线(描述技术发展周期的专业图表)一样,总有一个概念爆发的梦幻期,然后到泡沫破灭。但它不是真的破灭,是有很多人带着过度乐观、过度神化的角度看到没有那么好,又开始理性,理性之后再慢慢坚持下来,又会出现持续增长,进入推动社会进步的阶段。

因此,从周期性角度来看,尽管 AI 领域头部效应明显,但这个赛道没有终局,我们也不会看到仅凭借一个 AI 技术,就能实现大规模、垄断性质的商业化。

长期来看,AI 技术的大规模商业化仍需要很长时间,需要人们耐心等待。至于资本,他们肯定等不到这一刻。

朱啸虎讲一段话一语中的:“我是要给LP有持续稳定的现金流,这是最基础的一个角色。中国要谈‘耐心资本’,我昨天在讲,我是有耐心,但没有资本,对吧,这才是笑话。怎么才有耐心资本,必须是每年有持续稳定现金流的,大家才会相信你,如果我投了1个亿、10年一分钱没有回来,你到底是不是骗子我都不知道。但是每年有稳定的现金流,大家都会比较放心一点,这才会建立耐心、长期的投资。

本文链接: https://www.aixinzhijie.com/article/6845722
转载请注明文章出处

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Sora 使用中的真相:进步令人难以置信,但离不开大量人工

2 月初,OpenAI 发布的 Sora 惊艳了全世界,它在文生视频上的革命性突破,一度被视为吹向好莱坞的一场大风暴。

Sora 是一种扩散模型,与以往的 AI 视频生成器相比,Sora 能够依据提示词生成长达一分钟的视频内容,保持视觉质量和一致性,并且实现镜头的切换和构图调整,它还能使视频与背景相关的主题细节准确符合,生成的视频更加逼真,仿佛是现实世界的延伸。


当时,OpenAI 还发布了技术说明,表明它未来可以将生成的视频延长或无缝混合两个视频。

3 月起,Sora 对一些艺术家开放了使用权限,月末,OpenAI 在官网发布了几位艺术家使用 Sora 生成的超现实视频作品。近日,这些作品之一《气球人》背后的艺术家团队 Shy Kids 全揭秘了使用 Sora 的制作过程。

整体看下来,真正投入到影视制作中的 Sora 并没有当初那么惊艳,但它已经足够令人震撼——能让一个仅有三人的团队,在大约 1.5 至 2 周的时间内便制作出了一部精彩短片。

在该团队看来,当前形态的 Sora 在特定的图像生成方面取得了令人难以置信的进步;但对于相对复杂的项目,可能还需要一段时间的进化才能满足导演的具体需求。除了 Sora 的使用,这部《Air Head》依然使用了大量的编辑和人为指导才制作完成。团队表示,「将 Sora 融入创作流程是一种很真实的工作方式,但如果不这么干,好像也没什么关系。」

以下为 fxguide 与 Shy Kids 
就 Sora 目前的工作原理
进行讨论的内容整理: 

作为获得了 Sora 的有限访问权限的制作团队之一,Shy Kids 团队制作了 Sora 短片《Air Head》。Shy Kids 是一家加拿大制作公司,以其多样化和创新的媒体制作方法而闻名。

Sora 目前正在开发中,并通过像 Shy Kids 这样的团队的反馈积极改进。重要的是要认识到:Sora 尚处于非常早期的发展时期,几乎可以称之为前阿尔法阶段。

Shy Kids 中负责后期制作的帕特里克评论道,使用 Sora 是很有趣的过程,Sora 是一个非常强大的工具,「我们已经在梦想着它可以如何融入我们现有的流程。但我认为对于任何生成性 AI 工具来说;控制力仍然是最令人向往的,也是目前最难捉摸的东西。」

用户界面和交互:
为提升一致性,仅支持文本输入

Sora 的用户界面设计简洁,…

完整内容请参考原文链接


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI泡沫要破了?朱啸虎说大模型商业模式非常差,Sea创始人称企业转型AI将变乱

来源:钛媒体AGI

作者|林志佳

编辑|胡润峰

尽管ChatGPT狂飙一年多引发新一轮AI追赶热潮,但国内对于AI亏损等质疑声依然不减。

5月8日下午,金沙江创投主管合伙人朱啸虎在第18届中国投资年会上表示,大模型商业模式非常差,技术没有差异点,而且每一代模型都要重新去砸钱,每一代的变现周期则仅有两三年。


“我觉得奥尔特曼(OpenAI联合创始人兼CEO)是在吹牛,GPT-5肯定没有真近”。朱啸虎还认为,GPT-4已经满足了绝大部分的商业需求。他预计新一波AI应用的大爆发将在明年到来。

与此同时,东南亚科技龙头Sea冬海集团创始人、原新加坡首富Forrest Li(李小冬)日前向6万名员工发布内部信中警告称,未来几年企业向 AI 技术转型将带来混乱局面,过渡变得很困难。

一天两次质疑,AI 泡沫真的破了?

朱啸虎:大模型商业模式差、

OpenAI在吹牛、GPT-5没那么近

当前,一二级市场投资规模和数量全面下降。

李飞飞联合领导的斯坦福大学以人为本人工智能研究所 (Stanford Institute for Human-Centered AI,HAI) 在日前一份报告中表明,2023年,全球对 AI 领域的投资已连续第二年下降,考虑到少数股权交易和公开发行,去年 AI 总投资达1892亿美元,与 2022 年相比下降20%。

凯投宏观经济学家Diana Iovanel等人在报告中发出预测,AI推动的美股牛市还会继续,截止到2025年底,广大投资者对 AI 的热情依然不会有所退减,AI的股市指数将在2025年上涨27%以上(较当前水平而言),但泡沫将在2026年破灭。

那么,“AI 泡沫”真的快要破了?

5月8日举行的第18届中国投资年会上,朱啸虎与猎豹移动CEO、猎户星空创始人傅盛又在一起讨论 AI 投资。

“我们都感觉奥尔特曼(OpenAI CEO)在吹牛,GPT-5肯定没有那么惊艳,或者惊不惊艳都不重要,GPT-4已经满足了绝大部分的商业需求了,和X86架构会很像,以后10年的升级对商业模式没有什么大的更改了。”朱啸虎表示,在GPT-4以后,自己对GPT-5没有太多期待。

朱啸虎直接称,大模型商业模式太差,技术没有差太多的情况下,每一代技术都要投,现在可能3.5版本要投入几千万美元,迭代到4版本要几亿美元,到5版本可能要几十亿美元,每一代模型都要重新去投入,而变现周期可能就两三年,“这比发电厂还要差”。

“发电厂说实话,你投了基建以后基本上不需要再投入很多钱,而大模型是要每两、三年就要砸更多的钱去升级,而且变现后期可能就两、三年,说实话商业模式是非常差的。而且我们都感觉,山姆·奥特曼在‘吹牛逼’,是吧。”朱啸虎表示。

“我觉得‘四小龙’(旷视、依图、商汤、云从)不是下限是上限”,朱啸虎则更激进一点,他认为“四小龙”运气很好,碰上了安防大建设的巨大红利,虽然由于项目性质现金流不佳,但也有逾期的钱不断垫着现金流。“我们当年为什么不投‘四小龙’,就觉得技术是没有门槛的,最多领先别人半年时间,为什么市场上今天竞争还是这么激烈,(是因为)技术上没有什么差异点,大模型更是一样,我觉得更差。”

同场发言的傅盛表示同意。

傅盛认为,与AI四小龙所在的AI 1.0时代不同,以ChatGPT发布为起点的AI 2.0时代,全社会迅速达成共识,即这项技术会带来生产力革命。这意味着,在AI 1.0时代,在科技巨头下场之前,留给创业公司的时间差是足够的,但在AI 2.0时代,中国科技巨头下场的时间反而比初创企业更早。

傅盛还表示,到今天他都不认为“四小龙”是好模式,“看了一下某些上市公司财报收入30个亿,亏损70个亿,我觉得好的企业当然前期要投入,但不应该10年都是这样。”他表示猎豹也有一些亏损,但都是量入为出,有一定超前,但并不是完全不计成本地投入,所有的科技一定要最后形成闭环。

傅盛指出,包括OpenAI在内的大模型企业,其商业模式可能存在挑战。他认为,用大模型实现智能涌现就像哥伦布航海,在哥伦布首次抵达美洲大陆之后,所有人都会快速跟进,而大模型企业在技术上很难领先竞争对手超过1年,留给商业化落地的时间窗口太短。

他以苹果公司为例表示,苹果公司虽然有钱,但短期内只需要专注于开发端侧的中小模型和芯片,大模型接入其它厂商即可。

傅盛判断,以后每个设备,包括电脑和手机,都会内置一个本地的模型,而创业机会在于,如何将这项技术包装成产品让用户使用。他举例,他在做私有模型落地时发现,百亿参数的中小模型在绝大多数场景下已经够用,如果给它规定的场景足够清晰,表现还会好过参数更多、更通用的大模型。

在大模型的路径上,朱啸虎认为,开源小模型必然是未来方向,且商业机会很多,“大部分的工作都不需要清华本科、哈佛博士的,只需要一个专科的学生就足够了。”

傅盛认可这一点,“最后可能百亿参数模型的智能水平足够满足大部分应用,甚至如果给它规定的场景很清晰,会比GPT-4还好,就和你招一个中专生,每天就回答问题,不需要写古诗,也不需要参加奥赛。”

“有时候,你只需要招一个中专生,每天回答问题,你并不需要他写古诗,也不需要他做数学题。我们现在做的工作里,谁还需要去做奥数题呢?”傅盛表示,真正运行在个人设备上的大模型会是对整个社会生产力的真正变革。

朱啸虎还提及一个内部复盘是,从PC互联网到移动互联网,都是应用赚最多的钱。虽然每个周期一开始都是硬件和基础设施赚的钱多一点,但到后面应用赚钱是前面的10倍以上。

他认为,这次大模型也是,且速度更快,PC互联网迭代速度是10年为周期的,这次是以年为周期的,“所以我为什么很乐观,明年应用绝对爆发,因为开源模型已经到了足够的智能水平了。”

为什么是明年?“很多时候让子弹飞一会儿,不是一个坏的选择。”朱啸虎说。

亿万富翁Sea创始人:AI 转型将带来非常混乱的局面

据彭博报道,Sea公司创始人、亿万富翁Forrest Li(李小冬)日前在内部信中警告称,未来几年公司向 AI 的过渡将很困难。

45岁的李小冬谈到了变革性技术,他称现在 AI 可能是Sea一个更大的挑战。但他强调,该公司的财务状况比过去十年更好。

“AI 浪潮尚未完全到来,但我们可以看到它即将到来。这次技术转型对我们来说可能比上一次更困难。当时作为电子商务和移动游戏新手,我们一开始就完全专注于新平台。这一次,我们将不得不适应新技术。”李小冬表示。

作为东南亚电商购物平台Shopee的所有者,Sea在拥有超过6.5亿人口的东南亚市场面临着日益激烈的竞争。

尽管公司市值超过2000亿美金,但Sea亏损较大、东南亚市场面临竞争。字节跳动旗下的 TikTok、阿里巴巴旗下的Lazada,以及Temu 和Shein等新进入者正在争夺印度尼西亚、泰国等东南亚国家市场。

2023年5月,李小冬宣布Sea公司裁员约7500多名员工,约占员工总数的 10%,并冻结了高管团队薪资。同时,去年8月,除了 AI 之外,Sea还加大力度打造直播业务,这一新举措可能会侵蚀利润并引发与 TikTok 和阿里巴巴的价格战。

如今,在成本削减的帮助下,Sea提高了盈利能力,取得了一些成功。该公司在今年三月份表示,预计2024财年将连续第二年实现盈利。而年初至今,Sea股价上涨61%,接近12个月来的最高点,但它们仍远低于历史水平。

“我们关心每一块钱、每一分钱,”李小冬表示, “你可以有远大的梦想、远大的抱负,但如果你无法生存怎么办?你的脑海中总是会出现这样的声音,说我们可能没钱了。”

李小冬希望,Sea 能够实现盈亏平衡,该公司发展过程中在很多方面都追随亚马逊及其创始人杰夫·贝佐斯的先例。“硅谷的创新者可能很难专门思考这些问题。”

总结来看,无论是朱啸虎,还是李小冬,大家都非常质疑 AI 的盈利能力和整个行业的困难程度,尤其是 AI 大模型商业化的“造血能力”不如预期。

实际上,AI 是一个长周期、不断创新的产业,而非互联网时期典型的“赢家通吃”、近乎为0的边际成本增长、高用户黏性的行业,AI、云计算等领域没有“垄断”,所以壁垒没有那么高,并需要不断技术创新,一旦减少研发投入,就如同IBM和微软当年事件一样,直接退出了行业头部位置,因此,所有 AI 公司都无法避开高昂的投入成本。

科大讯飞董事长刘庆峰曾谈到,AI 技术就跟Gartner曲线(描述技术发展周期的专业图表)一样,总有一个概念爆发的梦幻期,然后到泡沫破灭。但它不是真的破灭,是有很多人带着过度乐观、过度神化的角度看到没有那么好,又开始理性,理性之后再慢慢坚持下来,又会出现持续增长,进入推动社会进步的阶段。

因此,从周期性角度来看,尽管 AI 领域头部效应明显,但这个赛道没有终局,我们也不会看到仅凭借一个 AI 技术,就能实现大规模、垄断性质的商业化。

长期来看,AI 技术的大规模商业化仍需要很长时间,需要人们耐心等待。至于资本,他们肯定等不到这一刻。

朱啸虎讲一段话一语中的:“我是要给LP有持续稳定的现金流,这是最基础的一个角色。中国要谈‘耐心资本’,我昨天在讲,我是有耐心,但没有资本

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

DatologyAI 完成 5000 万美元 A 轮融资,投资者包括微软、Amplify、Radical、Elad Gil

DatologyAI 成立于 2023 年,在今年初宣布获得 1165 万美元种子轮融资后,刚刚宣布获得 Felicis 领投的 4600 万美元 A 轮融资,其它投资者包括 Radical Ventures、Amplify Partners、Elad Gil、M12 和 Alexa Fund。

图片来源:由GPTNB生成

创始团队包括前 DeepMind 和 Meta AI 研究员 Ari Morcos、前 Twitter 工程主管 Bogdan Gaza 以及前 MosaicML 数据研究主管 Matthew Leavitt。


DatologyAI 目前团队拥有 11 名员工,其目标是减少数据管理中所需的人工决策量(这些决策往往可能存在偏见或耗时)。

这里有一张图片

数据质量问题至今没有得到充分解决,是一个严重的疏忽,因为并非所有数据都是一样的,以正确的方式使用正确的数据训练模型可以对生成的模型产生巨大的影响。这不仅仅是性能的问题。

这里有一张图片

根据德勤的一项调查中,40% 的公司表示,与数据相关的挑战(包括彻底准备和清理数据)是阻碍其 AI 计划的首要问题之一。另一项针对数据科学家的民意调查发现,科学家大约 45% 的时间花在数据准备任务上,例如“加载”和清理数据。

DatologyAI 认为,制定 AI 利用标准的公司需要根据自己的专有数据训练自己的模型。其中许多公司拥有 PB 或更多的未标记且通常是非结构化的数据 - 如此之多,以至于他们无法对所有这些数据进行训练,即使他们愿意,因为它很快就会变得成本高昂(假设你甚至可以访问足够的计算!) 。

因此,标准做法是简单地随机选择数据的子集。与深度学习的大多数其他领域不同,这种实践的创新相对较少被采用。这是有问题的,因为对数据的随机子集进行训练有很多很多问题:

  • 模型将计算浪费在冗余数据上,从而减慢了训练速度并增加了成本。
  • 有些数据具有误导性,实际上会损害性能。例如,在无法编译的代码上训练代码生成模型将导致总体上更糟糕的模型。
  • 对于相同的计算预算,较慢的训练会导致性能较差。
  • 数据集不平衡且有长尾——损害性能和公平性。

这里有一张图片

天使投资者 Yann LeCun 表示,模型的好坏取决于它们所训练的数据,但在数十亿或数万亿个示例中识别正确的训练数据是一个极具挑战性的问题。Ari 和他在 DatologyAI 的团队是解决这个问题的世界专家,相信他们正在构建的产品旨在为任何想要训练模型的人提供高质量的数据管理,这对于帮助 AI 发挥作用至关重要。

Reference:



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

DatologyAI 完成 5000 万美元 A 轮融资,投资者包括微软、Amplify、Radical、Elad Gil

DatologyAI 成立于 2023 年,在今年初宣布获得 1165 万美元种子轮融资后,刚刚宣布获得 Felicis 领投的 4600 万美元 A 轮融资,其它投资者包括 Radical Ventures、Amplify Partners、Elad Gil、M12 和 Alexa Fund。

创始团队包括前 DeepMind 和 Meta AI 研究员 Ari Morcos、前 Twitter 工程主管 Bogdan Gaza 以及前 MosaicML 数据研究主管 Matthew Leavitt。


DatologyAI 目前团队拥有 11 名员工,其目标是减少数据管理中所需的人工决策量(这些决策往往可能存在偏见或耗时)。

DatologyAI 早期知名天使投资人包括:谷歌首席科学家 Jeff Dean、AI 教父 Geoffrey Hinton、Meta 首席 AI 科学家 Yann LeCun、Quora 创始人& OpenAI 董事会成员 Adam D’Angelo、Cohere联合创始人 Aidan Gomez 和 Ivan Zhang、Contextual AI 创始人 Douwe Kiela、AI 副总裁 Naveen Rao 以及扩散模型发明者之一 Jascha Sohl-Dickstein。

数据质量问题至今没有得到充分解决,是一个严重的疏忽,因为并非所有数据都是一样的,以正确的方式使用正确的数据训练模型可以对生成的模型产生巨大的影响。这不仅仅是性能的问题。

根据德勤的一项调查中,40% 的公司表示,与数据相关的挑战(包括彻底准备和清理数据)是阻碍其 AI 计划的首要问题之一。另一项针对数据科学家的民意调查发现,科学家大约 45% 的时间花在数据准备任务上,例如“加载”和清理数据。

改进训练数据意味着改进:

  • 训练过程的效率,使您能够更快地将模型训练到相同或更好的性能,从而节省计算成本并使您的 ML 团队更加高效
  • 模型的性能不仅 在一般情况下,而且在数据集中不常见的长尾查询上也表现出色,但对您的业务绝对至关重要
  • 模型的大小:更好的数据意味着更小、更便携的模型,服务成本显着降低并且性能相同

通过确定要训练的正确数据以及呈现这些数据的正确方式来解决这个问题,特别是在面对 PB 级未标记数据时,是一个非常具有挑战性且成本高昂的问题,需要专门的专业知识。但解决这个问题的好处是巨大的,它可以说是当今 AI 研究中最重要的主题之一。

DatologyAI 认为,制定 AI 利用标准的公司需要根据自己的专有数据训练自己的模型。其中许多公司拥有 PB 或更多的未标记且通常是非结构化的数据 - 如此之多,以至于他们无法对所有这些数据进行训练,即使他们愿意,因为它很快就会变得成本高昂(假设你甚至可以访问足够的计算!) 。

因此,标准做法是简单地随机选择数据的子集。与深度学习的大多数其他领域不同,这种实践的创新相对较少被采用。这是有问题的,因为对数据的随机子集进行训练有很多很多问题:

  • 模型将计算浪费在冗余数据上,从而减慢了训练速度并增加了成本。

Reference:



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

10年前VAE经典论文获奖,ICLR 2024首个时间检验奖公布

ICLR 2024 评选出的时间检验奖,在各自领域可谓是开山之作。

由深度学习巨头、图灵奖获得者 Yoshua Bengio 和 Yann LeCun 在 2013 年牵头举办的 ICLR 会议,在走过第一个十年后,终于迎来了首届时间检验奖。


为了评选出获奖论文,项目主席审查了 2013 年和 2014 年 ICLR 论文,并寻找具有长期影响力的论文。

今年,由 Diederik P. Kingma、Max Welling 合作撰写的论文获得了该奖项,获奖论文为《 Auto-Encoding Variational Bayes 》;论文《 Intriguing properties of neural networks 》获得了亚军。

ICLR 2024 时间检验奖

论文《 Auto-Encoding Variational Bayes 》作者共有两位,他们当时均来自于阿姆斯特丹大学。

论文地址:https://arxiv.org/pdf/1312.6114
论文标题:Auto-Encoding Variational Bayes
作者:Diederik P. Kingma 、 Max Welling

获奖理由:概率建模是对世界进行推理的最基本方式之一。这篇论文率先将深度学习与可扩展概率推理(通过所谓的重新参数化技巧摊销均值场变分推理)相结合,从而催生了变分自动编码器 (VAE)。这项工作的持久价值源于其优雅性。用于开发 VAE 的原理加深了我们对深度学习和概率建模之间相互作用的理解,并引发了许多后续有趣的概率模型和编码方法的开发。这篇论文对于深度学习和生成模型领域产生了重大影响。

作者介绍

Diederik P. Kingma 现在是谷歌的一名研究科学家。根据领英介绍,Kingma 曾经是 OpenAI 初创团队的一员,在 OpenAI 工作期间领导了一个算法团队,专注于基础研究。2018 年,Kingma 跳槽到谷歌,加入 Google Brain(现在合并为 Google DeepMind),专注于生成式模型研究,包括扩散模型和大型语言模型。

Kingma 主要研究方向是可扩展的机器学习方法,重点是生成模型。他是变分自编码器 (VAE,即本次获奖研究)、Adam 优化器、Glow 和变分扩散模型等研究的主要作者。根据 Google Scholar 显示,Kingma 的论文引用量达到 24 万多次。

论文另一位作者 Max Welling 现在为阿姆斯特丹大学机器学习教授。和一般机器学习研究者不同,Max Welling 并不是计算机专业科班出身,而是在世界顶尖公立研究型大学 —— 荷兰乌得勒支大学学了 11 年的物理,而且导师是荷兰理论物理学家、1999 年诺贝尔物理学奖得主 Gerard ‘t Hooft。在 Hooft 的指导下,Max Welling 于 1998 年拿到了量子物理学博士学位。

时间检验奖亚军论文

ICLR 2024 亚军论文颁给了《 Intriguing properties of neural networks 》。论文作者共有七位,他们当时分别来自谷歌、纽约大学、蒙特利尔大学。

在过去的十年中,他们中的大多数已经离开了原来的公司和机构。

Christian Szegedy 现在为 xAI 联合创始人;Wojciech Zaremba 为 OpenAI 联合创始人;Ilya Sutskever 是 OpenAI 联合创始人(不过自从 OpenAI 发生宫斗后,暂无消息 );Joan Bruna 现在为纽约大学副教授(Associate Professor);Dumitru Erhan 为谷歌 DeepMind 研究总监;Ian Goodfellow 加入谷歌DeepMind;Rob Fergus 现在为谷歌 DeepMind 的研究科学家。

论文地址:https://arxiv.org/pdf/1312.6199
论文标题:Intriguing properties of neural networks
作者:Christian Szegedy、Wojciech Zaremba、Ilya Sutskever、Joan Bruna、Dumitru Erhan、Ian Goodfellow 、 Rob Fergus

获奖理由:随着深度神经网络在实际应用中越来越受欢迎,了解神经网络何时以及如何出现不良行为非常重要。本文强调了神经网络可能容易受到输入中几乎察觉不到的微小变化的影响。这一想法催生了对抗性攻击(试图欺骗神经网络)以及对抗性防御(训练神经网络不被欺骗)的研究。

这篇论文发表于 2014 年,可以说是对抗样本(Adversarial Examples)的开山之作。论文发现神经网络对数据的理解跟人类的理解方式并不相同,在此基础上,研究者又发现给输入数据添加扰动(也就是噪声),神经网络的输出会产生变化,他们将这种扰动后的图像称为对抗样本。

参考链接:https://blog.iclr.cc/2024/05/07/iclr-2024-test-of-time-award/



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

网传Ilya Sutskever的推荐清单火了,掌握当前AI 90%

随着生成式 AI 模型掀起新一轮 AI 浪潮,越来越多的行业迎来技术变革。许多行业从业者、基础科学研究者需要快速了解 AI 领域发展现状、掌握必要的基础知识。


如果有一份「机器学习」精炼秘笈,你认为应该涵盖哪些知识?近日,一份网传 OpenAI 联合创始人兼首席科学家 Ilya Sutskever 整理的一份机器学习研究文章清单火了。网友称「Ilya 认为掌握了这些内容,你就了解了当前(人工智能领域) 90% 的重要内容。」

推荐清单:https://arc.net/folder/D0472A20-9C20-4D3F-B145-D2865C0A9FEE

从研究主题上看,Ilya Sutskever 重点关注 transformer 架构、循环神经网络(RNN)、长短期记忆网络(LSTM)、神经网络的复杂度等。

例如,Ilya 推荐谷歌在 2017 年发表的经典论文《Attention Is All You Need》,这是 transformer 架构的问世之作。transformer 架构今天已经成为人工智能领域的主流基础架构,特别是它是生成式 AI 模型的核心架构。

Ilya 不仅推荐原论文,还推荐一篇由康奈尔大学副教授 Alexander Rush 等研究者在 2018 年撰写的博客文章 ——《The Annotated Transformer》。这篇文章以逐行实现的形式呈现了论文的注释版本,它重新排序梳理了原论文的内容,并删除了一些部分,最终展现的是一个完全可用的实现。2022 年 Austin Huang 等研究者又在其基础上编辑整理出一份采用 PyTorch 实现的更新版博客。

在 RNN 方面,Ilya 首先推荐阅读 AI 大牛 Andrej Karpathy2015 年撰写的一篇博客,强调「RNN 惊人的有效性」。

Ilya 还推荐了由纽约大学 Wojciech Zaremba(OpenAI创始团队成员)和 Ilya Sutskever 本人 2015 年发表的论文《Recurrent Neural Network Regularization》。当时,Ilya 还是谷歌大脑的研究科学家。

这篇论文为 RNN 提出了一种简单的正则化技术,阐述了如何正确地将 dropout 应用于 LSTM,大大减少了各种任务的过拟合,包括语言建模、语音识别、图像字幕生成、机器翻译等等。

此外,Ilya 还推荐了 DeepMind、伦敦大学学院 2018 年联合发表的论文《Relational recurrent neural networks》。

在 LSTM 方面,Ilya 推荐了 Anthropic 联合创始人、前 OpenAI 可解释性团队技术负责人 Christopher Olah 2015 年撰写的博客文章《Understanding LSTM Networks》,这篇文章全面细致地讲解了 LSTM 的基本知识,并阐明 RNN 取得的显著成果本质上是依靠 LSTM 实现的。

在「复杂度」方面,Ilya 重点推荐了《Kolmogorov Complexity and Algorithmic Randomness》一书中讲解「算法统计」的部分。柯尔莫哥洛夫复杂度为计算理论提供了一个用于探索问题固有复杂度的框架,可帮助研究人员更好地设计和评估 AI 模型。

在这份推荐清单中,我们还看到了一些著名 AI 学者的经典论文。例如,2012 年 ImageNet 图像识别大赛中图灵奖得主 Geoffrey Hinton 组的论文《ImageNet Classification with Deep Convolutional Neural Networks》,这篇论文提出了 AlexNet,引入了全新的深层结构和 dropout 方法,颠覆了图像识别领域,甚至被认为开启了深度学习革命。Ilya 也是这篇论文的三位作者之一。

还有 2014 年,DeepMind Alex Graves 等人提出的神经图灵机(NTM)。NTM 将神经网络的模糊模式匹配能力与可编程计算机的算法能力相结合,具有 LSTM 网络控制器的 NTM 可以从输入和输出示例中推断出简单的算法,例如复制,排序等。

此外,Ilya 还推荐了神经网络应用于基础科学(化学)的研究论文、扩展定律相关文章等等,并推荐了斯坦福大学计算机科学课程 CS231n:用于视觉识别的卷积神经网络。

感兴趣的读者可以查看原推荐清单,了解更多内容。

参考链接:https://twitter.com/keshavchan/status/1787861946173186062



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI在用 | 又丑又萌,Remini+Wink搞定最火黏土风vlog

机器之能报道
编辑:山茶花

以大模型、AIGC为代表的人工智能浪潮已经在悄然改变着我们生活及工作方式,但绝大部分人依然不知道该如何使用。
因此,我们推出了「AI在用」专栏,通过直观、有趣且简洁的人工智能使用案例,来具体介绍AI使用方法,并激发大家思考。


我们也欢迎读者投稿亲自实践的创新型用例。

近日,一款丑到掉渣的粘土风格滤镜攻占了各大社交平台。世界名画、经典影视作品、畅销的音乐专辑……

五官乱飞的《武林外传》(额滴小贝咋这么黑)、奇奇怪怪的《老友记》(Phoebe 堪称「古希腊掌管粘土的神」)、丑到要赐一丈红的《甄嬛传》……

本尊看了都无语的泰勒・斯威夫特专辑封面:

这些「又丑又上头」的照片均出自一款名为 Remini 的 AI 应用。据悉,五一期间,该应用的日下载量一度飙升到接近 40 万次,并在国区 Appstore 免费榜中打败抖音,连续几天位居榜首。

值得注意的是,Remini 目前在国内只上架了 iOS 应用商店,苹果手机可以下载使用。同时,它还是一款付费软件,包周 68 元,新用户有 7 天免费试用期,到期后自动扣费。

安利一种非常实惠的体验方式:下载 APP 后马上取消订阅,具体操作为「IPhone - 设置 - ID 账号 - 订阅 - 取消」。

当然,还有进阶玩法。

抖音博主 Jacob 制作的一条粘土风格旅行 vlog 火了。截至目前已收获 11.9 万点赞,7.7 万转发。

其实,制作一条粘土风格的旅行 vlog 流程并不复杂,但细节太磨人。据该博主介绍,短短几十秒的视频足足花了几十个小时,大部分时间都花在等 AI 出图和筛选上。

如何制作粘土风格的旅行 Vlog
主要用到的工具:Remini、Wink。

首先,AI 扩图。(工具:美图秀秀、剪映、Clipdrop)
Remini 生成的图片下方均带有大大的水印,因此我们在生成之前先用扩图功能扩展图片下面部分,这样即使有水印我们也可以截掉而不影响画面。

剪映 App 有完全免费的扩图功能,Wink 和美图秀秀则每日有三次免费扩图机会,如果想要更专业的效果,也可付费使用 Clipdrop。(网址:https://clipdrop.co/)

其次,图片转绘粘土风格。(工具:Remini)
打开 Remini,在「Discover new style」这一栏中点击「Clay」风格。进入操作界面后,上传一张图片,数秒钟即可生成一张粘土风格的图片。生成过程中不要退出该应用。

Remini 时常「翻车」,因此我们总结出一套「出片秘籍」:

  1. 尽量上传清晰、无遮挡的正脸照,半张脸或挡住脸的素材出图无法体现个人风格。
  2. 不要上传怼脸大头照,否则很容易收获一张又老又丑还斗鸡眼的照片。
  3. 尽量选择中近景,画面元素和色彩越丰富越好,更有趣味性和动画感。

也有网友「支招」,先把照片变成卡通风格,然后再用粘土特效就会更好看。

最后,图片转动图。(工具:Wink)
打开 Wink 这款 App,一上来就是「粘土风格转动图」的开屏页。选择「AI 动图」,上传 1-9 张照片,点击「立即生成」。

Wink 最终生成的是一段配上音乐的小视频,如果不满意,我们还可以使用 Wink 自带的「视频剪辑」功能进行修剪。好家伙,Wink 这是把剪映的活都给抢了。

和 Remini 一样,Wink 也可以免费使用一周,第 7 天自动续费,包年 168 元。「AI 动图」功能限时免费两次。

下面是最终生成的效果,有点简陋,大家凑合着看吧:

视频链接:https://mp.weixin.qq.com/s/HYNuyHZfMmk5VCyTV6tAAQ

粘土风格同款滤镜
其实,除了 Remini 有粘土滤镜外,美图秀秀、Midjourney 也有同款效果。

美图秀秀(免费)
打开美图秀秀 APP,在搜索栏中输入「粘土」。在搜索结果中,挑选喜欢的风格,点击「使用配方」,然后上传图片,等待数秒即可出图。

与 Remini 相比,美图秀秀的粘土滤镜功能是完全免费的,而且生成的大头照似乎更好看一些,不过清晰度大打折扣。

Midjourney(付费)
我们也可以使用 Midjourney 实现 Remini 的同款粘土特效。下载几张粘土滤镜的效果图,上传到 Midjourney 作为参考垫图;然后上传一张需要处理的图片,并复制图片链接;再在 Midjourney 中选择 niji 模型,输入提示词公式来生成图片。因为提示词越靠前,影响比重越大,所以我们需要一开始就强调粘土质感。

万能提示词公式:原图 + 风格词 + 描述词 +—sref 链接 +—sw 200

其中风格词包括:Clay animation style(粘土动画风格)、Claymation Animation(粘土动画)、stop-motion animation(定格动画)、3D cartoon characters(3D 卡通人物)、plasticine material(橡皮泥材料)等。

小红书博主 Rocket 分享一段 Prompt:Claymation portrait of Steve Jobs,holding an apple,abstract claymation,Shaun the Sheep style,Malika Favre style——ar 3:4

仿照此prompt,还可生成其他类似的图片:

总之,这三款粘土滤镜应用各有千秋。Remini 主打一个简单,不过费用有点贵;美图秀秀免费但清晰度不高;Midjourney 需要输入提示词,而且每月最少也得掏 10 美元,但不得不说,Midjourney 生成效果是真不错。

以后我们会通过新专栏带来更多 AIGC 案例演示,也欢迎大家留言评论并给出改进建议。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB