AI 应用创业者自述:我们是怎么从大厂夹缝里抢流量的

做了那么多AI应用,谁来用?第一波用户从哪来?如何持续不断地获得用户反馈?
在各种AI应用层出不穷的今天,开发者和创业公司也在愁这事。
毕竟,像Kimi、豆包这类可以铺天盖地打投流战的产品,只是有钱的少数。


而没钱的大多数呢?不出自财大气粗的大厂,没有巨头的流量生态“喂养”,甚至在寻求融资的过程中被反复质疑,只能硬着头皮自己找出路。
这其中,甚至不少产品早在开发之初,就已经尝试尽可能地避开巨头的射程范围,专注于自己的小赛道了。但当他们真正进入现实世界,为自己的产品寻找最初的流量时,…

起于SEO搜索,长于KOL种草,大于生态裂变

歌歌AI写歌 COO 王枢沛,10万月活,2023年3月上线
流量只有免费和付费两种,对于AI创业团队来说,最关键的是能不能拿到免费流量。
从我们的产品歌歌AI来说,我们是一款文生音乐产品,可以根据用户的提示词,用AI来作词、编曲、发行,用户可以获取版权和发行收益。从2023年3月正式上线,到现在运营了一年半的时间,用户量从零到了几十万的水平。
当然这在互联网产品里不算什么,但在AIGC创业公司里,特别是音乐垂类,算不错了。我比较骄傲的点在于我们没有烧钱大规模投放,沉淀下来的用户是…

警惕“产品越好用,用户越不愿意裂变”

蛙蛙写作负责人,波形智能联合创始人万磊 ,30万用户,2024年2月份上线

蛙蛙写作是一款用AI写小说、剧本等长文本的产品,上线八个月,用户大概有30万了。
我越来越清晰地看到这款产品随着用户增长,想在后期精准上量,还得靠广告投放。群体本身不愿意裂变分享,是个很有趣的现象。
目前,在投放这一环,因为我们的产品是web端的,所以主要投的是百度搜索流量,关键词是“AI写作”“AI写小说”。目前截止 9 月的ROI(投资回报率)基本上达到了1,意思是假设我们投了20万元的…

结尾
歌歌AI和蛙蛙写作,分别属于AIGC娱乐和AIGC效率两类创业产品,他们同样从SEO起步,而后一个走向了公域投放,一个走向了私域裂变,在度过了早期的增长之后,都在进一步扩大规模的路上,遇到了流量投放的大山。
甚至不止是已经走了很远的他们,更多的创业开发者们也遇到了类似的流量增长问题。
原本在冷启动环节,开发者们都颇为佛系,且因此有了很多出乎意料的的出圈方式。有的产品靠产品打市场,受到APP Store的编辑推荐,从而斩获第一批用户,慢慢地开始自给自足;有的借助小红书、QQ群的用户自发酵,例如心光日记被小红书用户热情推荐后获得了相当份额的增长;还有产品尝试靠“1+N”模式引流,通过搭建针对目标用户的“一波流”互动小游戏,再把流量…
“我有时候会想,像微信产品的增长里,像如何让大家知道红包功能,如何习惯小程序的存在,都有很天才的增长方案。那AI应用的增长功能是什么呢?”万磊说到。
但这个问题,暂时还没有答案。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

重磅!美国取消SB-1047法案,OpenAI、谷歌、Meta大难不死!

美国加州州长Gavin Newsom在今天凌晨正式否决——SB-1047法案!

值得一提的是,过去30天Gavin一共签署了17个关于监管大模型、生成式AI安全使用的法案,唯独否决了1047,看来他也不是一个糊涂人。

在这个积极否决的过程中,AI界泰斗-吴恩达、图灵奖获得者-Yann LeCun、斯坦福教授-李飞飞等发挥了重要作用。


尤其是吴恩达,曾多次在公开场合呼吁科技人士抵制该法案功劳非常大。

对于全球开发者来说今天也是个重要的日子,可以继续使用Meta、谷歌等美国科技大厂开源的大模型啦。

SB-1047法案简单介绍

「AIGC开放社区」一共写了6次关于SB-1047法案的内容,算是国内最关注该事件的媒体之一。再简单介绍一下该法案,以及为什么会对开源大模型、生成式AI发展带来很多阻力。

SB-1047是美国加州在今年2月7日拟定的,全名叫《SB-1047 前沿AI大模型安全创新法案》,主要用于增强大模型安全、透明性、使用规范的条例。

但其中有非常多的不合理内容,例如,规定开发、训练成本超过1亿美元的大模型,比如Meta开源的Llama-3系列;谷歌的Gemma系列,一旦开源有人使用它做一些非法的事情,那么源开发商也会受到非常严重的处罚。

在监管方面,当大公司开放其模型给别的国家用户使用时,需要提交客户的所有资料,包括客户的身份、信用卡号、账号、客户标识符、交易标识符、电子邮件、电话号码。

同时,每年都要提交一次资料,并对用户的行为、意图进行评估。用户的所有资料会被备份7年,也会在海关、边境总署备案。

类似不合理的条款还有很多,起草该法案的人员就是想彻底扼杀开源大模型以及大模型出口。所以,像OpenAI、Meta、谷歌这些科技巨头会成为SB-1047的最大受害者。

此外,美国加州这个地区在科技领域非常特殊,是谷歌、Meta、OpenAI、苹果、英特尔、特斯拉总部的所在地,也有斯坦福、加州大学伯克利、加州理工、南加州大学等全球顶尖的计算机名校,算是全球科技创新中心之一。

一旦这个法案执行起来,不仅是大公司受到重创,就连一些初创的小企业也几乎要完蛋了。当时这个法案一出来之后,很多人都表示,一些科技企业将会搬走。

否决SB-1047法案理由

根据美国加州官网公布的否决消息显示,Gavin州长表示,全球50家顶级AI企业,有32家在加州,它们对AI大模型的发展、创新至关重要。SB-1047的初衷是出于好意,但它在实施上存在一些严重问题。

SB-1047只关注最贵、大规模的AI模型,建立了一个监管框架,可能会给公众一种控制这项快速发展技术的虚假安全感。较小的、专业化的模型可能同样甚至比SB-1047针对的大模型更危险,会阻碍AI技术创新。

此外,SB-1047法案缺乏灵活性,没有为不同类型的AI应用提供足够的灵活性,这可能会导致在实施过程中的混淆和不确定性。

Gavin指出,该法案没有考虑到AI模型是否部署在高风险环境中,而这是非常重要的,因为在低风险环境中可能不需要同样严格的监管措施。同时,法案没有明确哪些类型的决策是关键决策,也没有定义什么是敏感数据,这可能会导致在保护个人隐私和数据安全方面的不足。

Gavin强调,像SB-1047种一刀切的方法会抑制在某些领域的创新和AI技术的发展,而且法案的规定可能难以实施,因为它们没有为不同类型的AI模型、应用提供明确的指导。保护公众免受AI技术真正威胁的最佳方法应该是更加细致和有针对性的,而不是一刀切的解决方案。

下面是吴恩达、Yann LeCun、李飞飞等指责SB-1047法案的诸多不合理。也可以查看「AIGC开放社区」过去对该法案的多次解读。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Meta开源多模态模型——Llama 3.2

Meta开源了首个多模态大模型Llama-3.2,这是Llama-3系列的一次重大升级,一共有4个版本。
Llama 3.2 1B、3B是整个系列最轻量级的模型,适合边缘设备和移动应用程序的检索和摘要,可用于个人信息管理和多语言知识检索等,支持 128k标记的上下文长度,可在手机、平板电脑等设备中使用。


值得一提的是,这两款模型在发布时便对高通和联发科的硬件进行了适配,并针对 Arm 处理器进行了优化,广泛的兼容性将加速其在各种移动和物联网设备中的应用。
开源地址:https://www.llama.com/?utm_source=twitter&utm_medium=organic_social&utm_content=video&utm_campaign=llama32

图片来源:由GPTNB生成

11B和90B视觉模型是 Llama首次发布的多模态大模型,能理解和推理图像,实现文档分析、图像字幕和视觉问答等任务。
Llama 3.2 90B版本擅长常识、长文本生成、多语言翻译、编码、数学和高级推理等,还引入了图像推理功能,可完成图像理解和视觉推理任务,能进行图像标题生成、图像文本检索、视觉基础、视觉问题解答和视觉推理,以及文档视觉问题解答等。
Llama 3.2 11B版本适合内容创建、对话式人工智能、语言理解和需要视觉推理的企业应用。在文本摘要、情感分析、代码生成和执行指令方面表现出色,也增加了图像推理能力,其用例与 90B 版本类似,包括图像标题生成、图像文本检索、视觉基础、视觉问题解答和视觉推理,以及文档视觉问题解答等。
根据测试数据显示,Llama 3.2模型在图像识别和视觉理解基准测试中与领先的闭源模型具有竞争力,例如,Claude 3 haiku等。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

苹果放弃投资 OpenAI,硅谷最大融资悬了?

OpenAI最近的日子可谓冰火两重天,一方面,融资活动如火如荼;另一方面,技术高管们走得走,散的散,以至于其内部员工不免发出如上调侃。不过,事情尚未尘埃落定之前,一切尚有变数。


早有传言称苹果将参与OpenAI的融资轮时,这并不出人意料,毕竟当苹果宣布将ChatGPT服务整合进Siri时,双方合作似乎也是水到渠成。而《华尔街日报》最新的报道指出,苹果原本可能参与OpenAI下周即将完成的高达65亿美元的融资轮,但却在最后关头决定退出。作为全球最负盛名的AI独角兽,备受追捧的OpenAI然不缺投资者。报道称,在苹果选择「放手」后,微软、英伟达等巨头仍在谈判桌上。其中已投130亿美元的微软预计还将追加约10亿美元。风险投资公司Thrive Capital也将领投本轮,投入约10亿美元。投资公司Tiger Global Management和阿拉伯联合酋长国支持的公司MGX也都在积极商谈参与事宜。尽管本轮融资尚未最终敲定,参与者和投资金额仍有变动的可能,但可预见的是,OpenAI正坚定地从非营利组织转型为营利性公司。因为报道还提到,若是OpenAI两年内没完成公司结构的重组,本轮投资者将有权要求退回他们的「真金白银」。然而,在OpenAI转型为真正的商业公司之前,不可避免地会经历一段漫长的阵痛期。据《华尔街日报》报道,许多现任员工和前员工认为,OpenAI在发布产品公告和进行安全测试方面过于急躁,且已失去对竞争对手的领先优势。更直白地说,在Altman的掌舵下,OpenAI正逐步变得更像一家普通公司。员工们普遍不满的一点是,肩负掌舵人身份的Altman大多时候不参与公司的日常事务,而是忙于全球推广AI,筹集资金以建设AI所需的芯片和数据中心。首先,这无疑是好事,因为开发和运营AI模型本质上是一门烧钱的游戏。AI走出实验室,进入现实世界改变人们的生活,依然需要金钱的「燃料」。根据《纽约时报》查阅的财务文件,OpenAI 8月份的月收入达到3亿美元,自2023年初以来增长了1700%。该公司预计今年的年销售额约为37亿美元,并且估计明年收入将激增至116亿美元。但据一位同样审查了这些文件的金融专业人士分析,在支付了运营服务相关成本、员工工资和办公室租金等其他费用后,OpenAI预计今年将亏损约50亿美元。并且,这些数字还不包括基于股权的员工薪酬和文件中未完全解释的几项高额费用。截至发稿前,OpenAI拒绝对这些文件发表评论。其次,一些在OpenAI工作多年的研究人员却认为,大量资金的注入和巨额利润的前景正在侵蚀OpenAI的文化。还记得超级对齐团队负责人Jan Leike曾在X上发文:我与OpenAI领导层在公司核心优先事项上的分歧已久,最终达到了一个临界点……近年来,安全文化和流程已经让位于更为吸引人的产品。成立于2015年的OpenAI是一家非营利性的研究机构,其宗旨是「创建造福全人类的安全通用人工智能(AGI)」。但照目前来看,这艘大船正悄然偏离了航向。置身事中的OpenAI高管离职潮或许是这一变化的最好表征。简单来说,这大致可分为两个原因,一是高管心里受委屈了,二是钱没给够。而此时,外媒WSJ又曝出一些新鲜的瓜料。据悉,在五月份Ilya和超级对齐团队负责人Jan Leike官宣离职之后,OpenAI高层担心这会引发更大规模的人才流失,因此积极寻求Ilya的回归。OpenAI前CTO Mira和总裁Brockman携带着其他员工的贺卡和信件拜访Ilya,并对其晓之以情,动之以理,并表示如果没有Ilya,公司可能会陷入「崩溃」。报道还指出,当时Altman也亲自上门拜访,并对其他人尚未找到解决Ilya离职问题的办法表示遗憾。当时,Ilya向他的前同事表示,他正在认真考虑重返OpenAI。然而,不久后,临时「变卦」的Brockman突然打电话通知Ilya,公司撤回了让他回归OpenAI的提议。原因是,公司内部高管在确定Ilya新角色及其如何与其他研究人员共事(包括他的首席科学家继任者)方面「遇到了困难」。后来的故事大家都知道了,Ilya很快宣布创立新公司SSI,并已成功筹集了10亿美元的资金。再者,技术大咖离职潮的出现本质上还是绕不开「安全」二字。在GPT-4o发布之前,OpenAI的高管们希望借此机会狙击Google年度开发者大会,以抢占更多的关注。而研究人员被要求在仅剩的9天内完成比原计划更为全面的安全测试。加班加点、日夜通宵的安全团队每天工作20小时,几乎没有时间核查他们的工作。基于不完整数据的初步结果显示,GPT-4o符合部署的安全标准。但在模型发布后,《华尔街日报》援引知情人士消息称,后续分析显示该模型的劝说能力超出了OpenAI内部标准,即创建能够说服人们改变信念并参与潜在危险或非法行为的内容的能力。急于推出GPT-4o是一个普遍现象。作为时任CTO(首席技术官),Mira曾多次推迟搜索和语音交互等产品的计划发布,因为她认为这些产品尚未准备就绪。其他高级员工也越来越不满。联合创始人兼顶级科学家John Schulman告诉同事,他对OpenAI内部冲突感到沮丧,对未能挽回Ilya感到失望,并担心公司正在逐渐地忘记「初心」。于是乎,今年8月,他离开了OpenAI,转投了注重安全的老对手Anthropic。昨日,外媒The Information报道提到,Brockman和Murati在公司的AI发展计划上也时常存在分歧。尽管Brockman作为公司总裁,通常应该负责公司的整体战略规划和决策,但他同时也会参与到具体的项目中,比如将早期的AI研究成果转化为实际应用的产品原型。这种既是决策者,又是执行者的角色重叠,很轻易就让其与Murati及其技术团队的观点和计划产生分歧。《华尔街日报》报道称,Brockman喜欢插手任何感兴趣的项目,这常常让相关人员感到不满,比如Brockman经常在最后一刻要求对已规划好的项目进行修改,这迫使包括Murati在内的其他高管出面调和。多年来,员工一直敦促Altman约束Brockman,称他的行为让员工「士气低落」。这些担忧一直持续到今年,最终Altman和Brockman同意他应暂时休假。上个月,Brockman在X平台上写道:「我将休假到年底。这也是自九年前共同创立OpenAI以来的第一次放松。」报道还指出,OpenAI高层已经人手不足。就在Murati辞职的同一天,首席研究官和副总裁也相继离职。Altman现在需要加强他的管理团队,设法完成对公司至关重要的数十亿美元融资,并尽快推动将非营利组织转型为营利性公司的复杂进程。也许再过不久,我们将会看到,目前正在「休长假」的Brockman宣布回归OpenAI。如果没有这些曝光的内幕,估计谁也不会想到,Brockman会成为 OpenAI高管离职潮的又一赢家。而这场OpenAI连续剧显然还将持续下去,吃瓜群众能做的也只有静待反转、反转和反转。


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Meta开源多模态模型——Llama 3.2

Meta开源了首个多模态大模型Llama-3.2,这是Llama-3系列的一次重大升级,一共有4个版本。

Llama 3.2 1B、3B是整个系列最轻量级的模型,适合边缘设备和移动应用程序的检索和摘要,可用于个人信息管理和多语言知识检索等,支持 128k标记的上下文长度,可在手机、平板电脑等设备中使用。


值得一提的是,这两款模型在发布时便对高通和联发科的硬件进行了适配,并针对 Arm 处理器进行了优化,广泛的兼容性将加速其在各种移动和物联网设备中的应用。

图片来源:由GPTNB生成

11B和90B视觉模型是 Llama首次发布的多模态大模型,能理解和推理图像,实现文档分析、图像字幕和视觉问答等任务。

Llama 3.2 90B版本擅长常识、长文本生成、多语言翻译、编码、数学和高级推理等,还引入了图像推理功能,可完成图像理解和视觉推理任务,能进行图像标题生成、图像文本检索、视觉基础、视觉问题解答和视觉推理,以及文档视觉问题解答等。

Llama 3.2 11B版本适合内容创建、对话式人工智能、语言理解和需要视觉推理的企业应用。在文本摘要、情感分析、代码生成和执行指令方面表现出色,也增加了图像推理能力,其用例与 90B 版本类似,包括图像标题生成、图像文本检索、视觉基础、视觉问题解答和视觉推理,以及文档视觉问题解答等。

根据测试数据显示,Llama 3.2模型在图像识别和视觉理解基准测试中与领先的闭源模型具有竞争力,例如,Claude 3 haiku等。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

2024第八届上海人工智能大会暨未来二十人论坛人工智能专题会议在上海国家会展中心隆重召开

2024年9月24-25日,由中国国际科技促进会、中国国际工业博览会组委会指导,中国国际科技促进会元宇宙专业委员会和中国文化产业协会文化元宇宙专业委员会主办,上海市突出贡献专家协会、上海市人工智能学会、上海市计算机学会和上海大数据联盟联合主办的2024第八届上海人工智能大会暨未来二十人论坛·人工智能专题会议在上海国家会展中心盛大举行。大会得到了中国国际科技促进会国际科技产业创新工作委员会、中国外商投资企业协会数字经济工作委员会、中国生物工程学会科创中国工作委员会、上海市生物医药行业协会新质医药专业委员会、上海医药行业协会、中小银行互联网金融(深圳)联盟、数字丝绸之路产业投资基金联盟和“一带一路”信息产业发展联盟的共同支持,由上海正运道管理咨询有限公司承办。


本届上海人工智能大会以“产业数字化,模创新时代”为主题,设置1个主论坛和3个大会专题论坛。主论坛聚焦前沿科技和产业发展…


![Image](https://image.jiqizhixin.com/uploads/editor/098da421e-f0ad-49eb-907d-d96398d5565b/1727677873841.jpeg)2024年9月24-25日,由中国国际科技促进会…(部分内容省略)


![Image](https://image.jiqizhixin.com/uploads/editor/09746b4a-6eaa-4f6e-b71d-de0bbd52d124/1727677873869.jpeg)中国国际科技促进会国际联络部副主任、元宇宙…(部分内容省略)


![Image](https://image.jiqizhixin.com/uploads/editor/2db6e498-a917-48eb-a29c-9a17e6bef629/1727677873908.jpeg)巴基斯坦驻上海总领事馆总领事Shehzad Ahmad Khan先生则在致辞中强调…(部分内容省略)


![Image](https://image.jiqizhixin.com/uploads/editor/4356bdd9-d53b-4e91-940b-f83e59fb5574/1727677873958.jpeg)欧洲科学院外籍院士、俄罗斯自然科学院外籍院士、西安电子科技大学人工智能学院院长、IEEE Fellow焦李成教授发表了题为《人工智能赋能数字经济:挑战与机遇》的主旨演讲…(部分内容省略)


![Image](https://image.jiqizhixin.com/uploads/editor/fe1d5670-689e-489b-a696-5409d8d839fd/1727677874011.jpeg)在圆桌对话环节,以AI浪潮下的产业革新与法律挑战为主题的圆桌论坛…(部分内容省略)


![Image](https://image.jiqizhixin.com/uploads/editor/16d12754-45bc-4a1a-af66-da489ad33219/1727677933555.png)大会现场亦保持大会传统,颁出了包括中国银行上海分行、信也科技、中国进出口银行、临港金服、腾讯云、高新兴等在内的6个大会最具创新力企业奖项,这不仅表现出大会在AI行业的专业性,更彰显了大会在支持前沿技术和关注行业发展的重大决心。

![Image](https://image.jiqizhixin.com/uploads/editor/33640363-0a5d-48b7-9e85-31776c43f45f/1727677874095.jpeg)部分兄弟省区市和上海市负责同志,有关高校负责同志,海内外人工智能领域的专家学者、企业家、投资家和有关国际机构负责人等300余人出席大会。

![Image](https://image.jiqizhixin.com/uploads/editor/5e5a1030-07c2-45fe-a74d-221a5932f648/1727677874030.jpeg)中国国际科技促进会元宇宙专业委员会、中国文化产业协会文化元宇宙专业委员会、中国生物工程学会科创中国工作委员会、中国外商投资企业协会数字经济工作委员会、上海市生物医药行业协会新质医药专委会、上海医药行业协会、上海市人工智能学会、上海大数据联盟、“一带一路”信息产业发展联盟和文创元宇宙(上海)研究院等单位出席了启动仪式。
![Image](https://image.jiqizhixin.com/uploads/editor/eb855b02-6ea0-4062-861b-9c918e959440/1727677874047.jpeg)
![Image](https://image.jiqizhixin.com/uploads/editor/e384ff45-8050-4979-85e6-1e7e37a449f8/1727677874062.jpeg)

![Image](https://image.jiqizhixin.com/uploads/editor/062ea86e058bb0d2c3f121ccbfd60fa/1727677874011.jpeg)

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI 应用创业者自述:我们是怎么从大厂夹缝里抢流量的

做了那么多AI应用,谁来用?第一波用户从哪来?如何持续不断地获得用户反馈?
在各种AI应用层出不穷的今天,开发者和创业公司也在愁这事。
毕竟,像Kimi、豆包这类可以铺天盖地打投流战的产品,只是有钱的少数。


而没钱的大多数呢?不出自财大气粗的大厂,没有巨头的流量生态“喂养”,甚至在寻求融资的过程中被反复质疑,只能硬着头皮自己找出路。
这其中,甚至不少产品早在开发之初,就已经尝试尽可能地避开巨头的射程范围,专注于自己的小赛道了。但当他们真正进入现实世界,为自己的产品寻找最初的流量时,却发现,他们再一次掉入了互联网巨头们制定游戏规则的流量世界里。
在线上流量格局固化的背景下,付费流量占大头,免费流量又少又难拿。于是,有人被动寄希望于APP Store的编辑推荐,有人选择在垂直的小圈子里“捞人”,有人发动身边一切人脉做内容种草…..
创业者正在想尽办法,在这个旧世界里为自己的新产品寻找用户,省下每一块钱,抢来每一滴流量。
以下是他们的“流量拓荒”故事。
起于SEO搜索,长于KOL种草,大于生态裂变
歌歌AI写歌 COO 王枢沛,10万月活,2023年3月上线
流量只有免费和付费两种,对于AI创业团队来说,最关键的是能不能拿到免费流量。
从我们的产品歌歌AI来说,我们是一款文生音乐产品,可以根据用户的提示词,用AI来作词、编曲、发行,用户可以获取版权和发行收益。从2023年3月正式上线,到现在运营了一年半的时间,用户量从零到了几十万的水平。
当然这在互联网产品里不算什么,但在AIGC创业公司里,特别是音乐垂类,算不错了。我比较骄傲的点在于我们没有烧钱大规模投放,沉淀下来的用户是精准的、有付费意愿的,目前已经做到了盈收打平。
尽可能地少花钱、做免费流量,贯穿了我们…

完整文章链接

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI高管震荡内幕:CEO无视安全仓促上马4o,员工每天干20小时赶进度,追名逐利不再理想主义

来源:量子位

图片来源:由GPTNB生成

动荡内幕终于曝光——

OpenAI CTO Mira Murati的离开,与GPT-4o、Her息息相关!

简单来说,就是今年春天OpenAI为了大抢谷歌开发者大会的风头,紧急推出GPT-4o。

时间真的是非、常、紧、张,以至于安全团队只能在极短的时间内(9天,拿不到更多时间了)完成安全测试评估


时间紧,任务重,即便007式工作,每天工作20小时,测试数据还是不足。

结果大家也看到了,4o发布后才爆出该模型存在安全问题。

总的来说,OpenAI好像有点变形了:压榨员工、轻视安全,在市场上大出风头比安全可靠更重要

之前奥特曼被开除时诟病的问题,特别是对安全的漠视,实实在在被证明了。比起AI技术的安全可靠,他更在乎竞争上的赢。

图片

很多员工和高管都超不满的。

当初4o发布第二天,沉寂许久的OpenAI灵魂人物Ilya就宣布了自己的离开。

现在,4o全量上线的第二天,Mira也走了。

还带着研究主管Bob McGrew和研究副总裁Barret Zoph一起跑路。

(真不知道是说这些元老们太顾念公司,还是说OpenAI真是营销天才。)

说来说去,他们告别OpenAI都围绕一个原因,那就是“公司对安全重视程度不足”。

OpenAI,真的不要安全了??!

图片

试图抢救“安全性”的Mira

我们再来展开说说4o上线的火急火燎程度。

今年5月14日,OpenAI发布GPT-4o;5月15日,Google发布名为Project Astra的AI助手,同日OpenAI首席科学家Ilya官宣离职。

一切的发生,早“有预谋”。

据透露,挑在14日发布,完全因为OpenAI想抢Google的风头。

为此,OpenAI安全团队仅得到了9天的时间,来做安全检测。

就,时间真的不够啊!

9天时间里,安全团队成员们007式工作,每天不分白天黑夜,拼死拼活干20个小时,还是没做完安全测试。

图片

即便如此,GPT-4o还是如期发布了。

然后就果然被发现GPT-4o有安全问题,它的“劝说”“诱导”性非常强,具备创建能够说服人们改变信念并参与潜在危险或非法行为的内容的能力。

很容易引导人误入歧途,干些不好的事,说些不对的话。

一些OpenAI内部员工也表示,仓促发布GPT-4o,让OpenAI失去了对领域内的领先优势。

但能咋办,发都发布出去了……

Mira试图力挽狂澜,只能把4o的全量上线往后一延再延,最终在本周三(9月25日)才全量发布。

隔天她就宣布辞职了。

她挥一挥衣袖,带走了另外两名高管。

图片

其实,Mira也不是没有试图拯救过OpenAI的“不安全”。

一方面,OpenAI前任及在职员工分别透露过,作为CTO的Mira多次推迟了包括搜索和语音交互在内的产品的计划发布。

她认为它们还没有准备好。

另一方面,最近曝出5月Ilya辞职后,Mira和后来长期休假的总裁Greg Brockman都去Ilya家找过他。

他俩带着公司员工写的卡片,对Ilya晓之以理,动之以情:

我的老天奶,你可回来吧,Ilya!公司现在好混乱,没有你咱肯定得崩溃!

Ilya应该是动过心的,他对OpenAI的前同事表示,他真的在认真考虑要不要重回OpenAI。

但没过多久,Brockman就打电话过来说OpenAI撤回了让Ilya重返公司的邀请。

真·一整个大问号。

图片

多八卦两句,Ilya和Mira之间,还有其他核心成员因不满OpenAI对安全的重视程度而离职。

比如John Schulman,也是OpenAI的联合创始人。

8月6日,他告别OpenAI,转投最强竞对Anthropic。

他在推特发文表示,他表示选择离职是为了更深入地从事AI对齐研究,即确保AI的发展与人类价值观相一致。

OpenAI转向:公司关键数据曝光

一切的一切,似乎都与OpenAI转向有关。

LeCun表示,将一家非盈利开放研究机构变成一家秘密的、以产品为中心的盈利性公司,势必会导致许多人退出。

图片

有媒体,甚至直接以OpenAI as we know it is dead为名。

图片

据OpenAI内部员工爆料,OpenAI越来越专注于构建产品而非研发技术。这些产品的重点不再是纯粹的研究。

此前,也的确有类似的消息爆出,比如GPT-5迟迟不发,却计划出AI搜索对标谷歌,大举招募产品设计等相关的员工。

不过另一面,参加过o1和草莓的研究员Noam Brown针对这些传闻了个推特:

研究的重要性降低了?没听说过

图片

奥特曼本周去意大利参加活动时,也否认了员工离职与公司转变有关。

我看到的大多数内容也完全是错误的。但过去一年里,我们的董事会一直在独立思考公司的下一阶段发展需要什么。
我认为这些变动反映了人们准备好迎接人生新篇章,同时也标志着新一代领导力的崛起。

不过也有网友替奥特曼说话:经营一家公司远比想象中那么困难。它不可能以非盈利的形式生存下来。

图片

纽约时报今天也透露了关于OpenAI经营的一些关键数据:

  • 8月收入达到了3亿美元,相较于去年(2023年)年初增长了1700%,较去年同同期增长两倍多。
  • 截至今年6月,每月使用其服务的人约有3.5亿人,相较于今年3月仅有1亿人左右,高了三倍多。
  • 今年的年销售额预计约为37亿美元,其中10亿来自于企业;而去年仅有7亿美元。
  • 每月大概有1000万ChatGPT用户,向OpenAI支付20美元。
  • 2025年收入将达到116亿美元;2029年收入达到1000亿美元。

这样看,OpenAI其实已经赚很多了,甚至势头还在蹭蹭蹭地往上涨。

但如果对于现阶段的公司来说,可能还不够。

比如支付一些基础运营和硬件设施的费用,今年就将亏损约50亿美元。

那老板就不能不管了。要么从用户这边入手,要么从投资方这边入手。

文件中显示,预计今年年底ChatGPT订阅价格将再涨个2美元,并且未来五年内涨到44美元。

我先帮咱们算算,大概一个月也就300多块钱吧。

那融资这边,OpenAI一直就没有闲着。

早在今年8月份就被曝出,OpenAI正在就新一轮融资进行谈判。

老股东兴盛资本(Thrive Captial)可能领投10亿美元,最大股东微软也有望参与此轮融资(但没看到OpenAI首位投资人Vinod Khosla的身影)。

由此,OpenAI的估值将超过此前的860亿美元,甚至超过1000亿美元。

什么概念呢?相当于当时Anthropic估值(150亿)的6倍、马斯克xAI(240亿)的4倍。

结果现在刚好一个月过去,这次寻求的融资估值已上升至——1500亿美元

融资窗口期:高层动荡,苹果退出

如今,OpenAI又迎来了关键的融资窗口期。

本轮计划以1500亿美元估值收获70亿美元融资,不过其他媒体爆料说是65亿美元,也是创业公司有史以来最高估值之一。微软预计将参与投资10亿美元。

这轮融资最早可能在下周结束。

据爆料,作为投资的一部分,OpenAI有两年时间需要将自己的公司转变成营利性的公司。

随后还会有新的一系列电话会议,介绍OpenAI产品和研究团队的主要领导人。

这样的时间,大批量重要高管离职,也不免让一些业内人士合理怀疑:

融资还没结束就离职,可能会让投资者恐慌,由此搞乱OpenAI接下来进展。

图片

不过就在刚刚,有消息称,苹果将不再参与此次的投资。

以及对于OpenAI来说,最大的挑战不是一笔两笔融资,也不是产品模型是不是依然具备先进性,而是正在失去理想主义的旗帜,变得没有梦想,走向平庸。

奥特曼在被重新评价

归结起来一句话:初心已不再。

当初OpenAI建立,就是看到了AI正在带来的巨大改变,以及最顶级的DeepMind这样的研究机构,正在成为Google这样巨头的附庸,包括马斯克在内的人,担心智能时代的核武器,垄断在日益“邪恶”的大公司手中。于是自掏腰包、慷慨解囊,给最顶级的人才发大公司同样级别的薪水,然后用梦想激励他们Think Different,真正改变世界。

天才Ilya就是在这样的背景中,放弃了谷歌最顶级的待遇,成为OpenAI的联合创立者,一点点沿着“天方夜谭”式的AGI目标,最后在GPT的新范式中,真正改写了AI时代的进程。

然而山姆·奥特曼不是这样的人,他不是技术出身,他也不是乔布斯那样希望通过产品改变世界的人,他关注创新、欣喜于创业投资的乐趣,但最后似乎角色更像是一个顶级的硅谷生意人。他最初的角色是OpenAI的资助者,后来成了CEO,然后又在马斯克出局OpenAI后获得了更大的内部话语权,并且在ChatGPT问世后,大名得曝,地位前所未有,一度封神。

他被外界评价“ChatGPT之父”——即便严格来讲他不是,他乐于代表整个团队谈论AGI、谈论AI带来的世界变革,游走出访于各个国家,享受最受欢迎的追捧。一度,他被放到了乔布斯、马斯克之后,认为他可能就是下一个从硅谷改变世界的人。

直到Ilya发动内讧,以“不顾AI安全”之

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

280页PDF,全方位评估OpenAI o1,Leetcode刷题准确率竟这么高

OpenAI 的 o1-preview 模型已经发布两周了,网上也有了很多零星的测评。不过,大部分测评都侧重于某一个方面,对于 o1-preview 的系统评估目前还比较匮乏。


在一篇长达 280 页的论文中,来自加拿大阿尔伯塔大学等机构的研究者报告了他们对 o1-preview 的系统评估结果,非常具有参考价值。

论文标题:Evaluation of OpenAI o1: Opportunities and Challenges of AGI
论文链接:https://arxiv.org/pdf/2409.18486

具体来说,这项综合研究评估了 o1-preview 在各种复杂推理任务中的性能,涵盖多个领域,包括计算机科学、数学、自然科学、医学、语言学和社会科学。通过严格的测试,o1-preview 展示了非凡的能力。

主要结论如下:

  • 编程挑战:在解决复杂的竞赛性编程问题上,o1-preview 的成功率达到了 83.3%,超过了众多的人类专家。
  • 放射学报告生成:在生成连贯且准确的放射学报告方面,o1-preview 的表现优于其他评估过的模型。
  • 高中数学推理:在高中水平的数学推理任务中,o1-preview 达到了 100% 的准确性,并提供了详细的解题步骤。
  • 自然语言推理:无论是在通用领域还是医疗等专业领域,o1-preview 都展现出了高级的自然语言推理能力。
  • 芯片设计任务:在 EDA 脚本生成和错误分析等芯片设计任务中,o1-preview 的表现超过了专门的模型。
  • 人类学和地质学:o1-preview 在人类学和地质学这两个专业领域展示了深刻的理解和推理能力。
  • 量化投资:o1-preview 具有全面的金融知识和统计建模技能,在量化投资领域表现良好。
  • 社交媒体分析:在包括情感分析和情绪识别在内的社交媒体分析任务中,o1-preview 也有有效的表现。

尽管 o1-preview 在一些简单的问题上偶尔会出现错误,并且在某些高度专业的概念面前遇到了挑战,但总体结果表明,该模型在向通用人工智能(AGI)迈进的过程中取得了显著进展。

评估不仅突显了 o1-preview 目前的优势和局限性,还指出了未来发展的关键领域,如多模态集成、特定领域的验证和实际应用中的伦理考虑。这些发现为大型语言模型在众多领域的潜力提供了宝贵的见解,并为 AI 研究和应用的进一步发展铺平了道路。

论文目录如下:

以下是论文中的部分结果展示。

代码生成
为了评估 o1-preview 的编码能力,作者在 Leetcode 竞赛环境中对其性能进行了扩展测试。

如表 2 所示,o1-preview 成功通过了 12 个问题中的 10 个,通过率高达 83.3%。该模型在 Weekly Contest 413 中只答错了一个问题,在 Biweekly Contest 138 中又答错了一个问题。值得注意的是,这两个问题都被归类为「hard」级别。…

尽管存在这些挑战,但与顶级人类竞争者相比,01 -preview 展示了相当或更快的代码生成速度。这说明 01 -preview 具有较强的推理能力,可以有效处理大部分的编码任务。然而,在特别复杂或计算密集的情况下,模型的性能仍然有限,正如在这些困难的问题中观察到的那样。

图 3 和图 4 演示了编码评估中的两个示例。在图 3 中,01 -preview 展示了它有效解决简单问题的能力,用最少的计算时间完成任务并成功通过所有测试用例。然而,如图 4 所示,该模型遇到了一个难题。在这个失败案例中,01 -preview 最初生成了一个正确的解决方案,但是解决方案超出了时间限制。在第一次提交之后,模型陷入了试图优化代码时间复杂度的循环中,这在随后的尝试中导致了不正确的解决方案。这个例子突出了该模型在处理需要显著优化的复…


This Makedown content includes the transformation of the provided article content without HTML tags, maintaining the image links display.

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

重磅!美国取消SB-1047法案,OpenAI、谷歌、Meta大难不死!

美国加州州长Gavin Newsom在今天凌晨正式否决——SB-1047法案!值得一提的是,过去30天Gavin一共签署了17个关于监管大模型、生成式AI安全使用的法案,唯独否决了1047,看来他也不是一个糊涂人。在这个积极否决的过程中,AI界泰斗-吴恩达、图灵奖获得者-Yann LeCun、斯坦福教授-李飞飞等发挥了重要作用。


尤其是吴恩达,曾多次在公开场合呼吁科技人士抵制该法案功劳非常大。对于全球开发者来说今天也是个重要的日子,可以继续使用Meta、谷歌等美国科技大厂开源的大模型啦。

SB-1047法案简单介绍

「AIGC开放社区」一共写了6次关于SB-1047法案的内容,算是国内最关注该事件的媒体之一。再简单介绍一下该法案,以及为什么会对开源大模型、生成式AI发展带来很多阻力。

SB-1047是美国加州在今年2月7日拟定的,全名叫《SB-1047 前沿AI大模型安全创新法案》,主要用于增强大模型安全、透明性、使用规范的条例。但其中有非常多的不合理内容,例如,规定开发、训练成本超过1亿美元的大模型,比如Meta开源的Llama-3系列;谷歌的Gemma系列,一旦开源有人使用它做一些非法的事情,那么源开发商也会受到非常严重的处罚。

在监管方面,当大公司开放其模型给别的国家用户使用时,需要提交客户的所有资料,包括客户的身份、信用卡号、账号、客户标识符、交易标识符、电子邮件、电话号码。同时,每年都要提交一次资料,并对用户的行为、意图进行评估。用户的所有资料会被备份7年,也会在海关、边境总署备案。类似不合理的条款还有很多,起草该法案的人员就是想彻底扼杀开源大模型以及大模型出口。所以,像OpenAI、Meta、谷歌这些科技巨头会成为SB-1047的最大受害者。此外,美国加州这个地区在科技领域非常特殊,是谷歌、Meta、OpenAI、苹果、英特尔、特斯拉总部的所在地,也有斯坦福、加州大学伯克利、加州理工、南加州大学等全球顶尖的计算机名校,算是全球科技创新中心之一。一旦这个法案执行起来,不仅是大公司受到重创,就连一些初创的小企业也几乎要完蛋了。当时这个法案一出来之后,很多人都表示,一些科技企业将会搬走。

否决SB-1047法案理由

根据美国加州官网公布的否决消息显示,Gavin州长表示,全球50家顶级AI企业,有32家在加州,它们对AI大模型的发展、创新至关重要。SB-1047的初衷是出于好意,但它在实施上存在一些严重问题。SB-1047只关注最贵、大规模的AI模型,建立了一个监管框架,可能会给公众一种控制这项快速发展技术的虚假安全感。较小的、专业化的模型可能同样甚至比SB-1047针对的大模型更危险,会阻碍AI技术创新。

此外,SB-1047法案缺乏灵活性,没有为不同类型的AI应用提供足够的灵活性,这可能会导致在实施过程中的混淆和不确定性。Gavin指出,该法案没有考虑到AI模型是否部署在高风险环境中,而这是非常重要的,因为在低风险环境中可能不需要同样严格的监管措施。同时,法案没有明确哪些类型的决策是关键决策,也没有定义什么是敏感数据,这可能会导致在保护个人隐私和数据安全方面的不足。Gavin强调,像SB-1047种一刀切的方法会抑制在某些领域的创新和AI技术的发展,而且法案的规定可能难以实施,因为它们没有为不同类型的AI模型、应用提供明确的指导。保护公众免受AI技术真正威胁的最佳方法应该是更加细致和有针对性的,而不是一刀切的解决方案。

下面是吴恩达、Yann LeCun、李飞飞等指责SB-1047法案的诸多不合理。也可以查看「AIGC开放社区」过去对该法案的多次解读。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB