Sure Med Compliance宣布与Valet Health的新合作

Sure Med Compliance,一家领先的数字医疗保健公司,致力于提高患者、医疗服务提供者和生命科学公司的治疗成果,宣布与Valet Health合作,推出一项独特的患者参与计划。图片{ width=60% }


Valet Health是一个成熟的以投资回报为驱动的数字平台,用于新患者获取和自动化现有患者参与,特别是针对先进程序。

“我们非常高兴宣布这一新的战略合作。此次合作将Sure Med令人激动的功能与Valet Health的AutoPilot解决方案相结合,实现在HIPAA合规的营销自动化和短信功能的基础上,生成实时的治疗候选问题答题结果。通过Valet Health的数据归因技术和Sure Med的直接电子健康记录以及实践管理系统集成,医疗机构可以实现更高的方案利用率,减少对非新型阿片类药物的依赖。” - Sure Med Compliance首席执行官约翰·鲍曼(John Bowman)表示。

这一合作代表了一种新颖的方法,自动为患者提供教育,并在他们进行先进介入性程序的过程中与他们互动。

Sure Med内的患者候选人测验数据将无缝集成到Valet Health智能系统精心策划的移动和各种数字渠道的自动化患者沟通中。此外,分析还将包括数字计划回报率以及服务线评估工具。

“了解塑造患者参与数字渠道的力量是至关重要的,因为我们创新并加强我们为实施最佳数字战略的专业实践提供支持。Valet Health对此为医生和患者提供的解决方案和与Sure Med共同实现的潜力感到非常兴奋。” - Valet Health首席执行官戴夫·鲍文(Dave Bowen)表示。

针对患者旅程进行映射、测量和优化的全面策略标志着医疗保健领域的重大进展。这种方法通过整合前沿技术举措,使方案回报率清晰可见。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Granica入围2024年A.I.奖的决赛

Leading AI Data Readiness Platform Among Finalists From International Cloud Artificial Intelligence Awards Program

Granica,一家领先的AI数据准备平台,已被提名入围2024年A.I.奖,涵盖了“年度AI解决方案”等三个类别。图片{ width=60% }


今年由著名的云计算奖项主办机构The Cloud Awards推出的新奖项计划The A.I. Awards旨在表彰和奖励在云人工智能技术和机器学习的使用或开发中的卓越和创新。

该计划涵盖了各种类别。一些类别专注于特定行业领域,如零售/电子商务、交通运输和娱乐,另一些则侧重于利用AI推动自然语言处理(NLP)或网络安全等领域的改进。通过类似“最先进的AI环境”和“年度AI部署”等奖项,也表彰了AI实践的整体优秀表现。该计划接受了来自全球各种规模组织的参赛作品,包括北美、欧洲、中东和亚太地区。

The Cloud Awards的CEO詹姆斯·威廉姆斯表示:“我们很高兴揭晓首届A.I. Awards的入围者名单。该计划突出展示了全球云AI领域正在发生的惊人创新,Granica完全当之无愧地跻身今年的杰出入围者之列。

“在整个计划中,这些入围者表明,巧妙的AI驱动解决方案可以来自任何地方,任何规模的组织,可推动几乎您能想到的任何行业的积极变革。我们迫不及待地想看到评审专家选出的获奖者,并祝愿所有入围者在最终评估环节中好运。”

Granica的CEO兼联合创始人Rahul Ponnala表示:“我们很荣幸能够入围2024年A.I. Awards的年度AI解决方案类别的入围者名单。能够达到这一阶段证明了我们的团队在利用AI为客户和合作伙伴提供卓越成果方面所做出的艰苦努力。我们自豪地与其他入围者并肩站在一起,并期待在接下来的几周中了解评委会对获奖者的决定。”

该计划现在将进入最终评审阶段 - 从这些入围者中选择每个类别的获奖者。A.I. Awards的获奖者将于2024年10月8日星期二宣布。

该计划将于2025年夏天回归,欢迎新的提交,以继续表彰云AI解决方案的卓越表现。

探索AITechPark,获取AI、物联网、网络安全、AITech新闻以及行业专家的深入见解!​



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

生成式AI与版权保护:问题、争议与思考

文章来源:出版发行研究

图片来源:由GPTNB生成

自2022年11月美国OpenAI公司推出ChatGPT以来,生成式人工智能技术迅速崛起,并广泛应用于版权创作领域。生成式人工智能在提升内容创作效率、赋能文化创意产业发展的同时,也引发了新的版权争议和理论探讨。


在生成式人工智能涉及的众多版权问题之中,“人工智能生成的内容能否构成作品,进而受到版权法保护”一直是各方关注的焦点。本文从生成式人工智能领域的国内外诉讼纠纷着眼,聚焦“人工智能生成内容可版权性”议题,并尝试提出具有可行性的规则应对建议,供后续进一步探讨。

一、问题提出:生成式人工智能作品属性纠纷凸显

近期,国内外生成式人工智能领域的司法实践发展迅速。2023年8月18日,美国哥伦比亚特区法院就“泰勒诉美国版权局AI绘画版权登记案”作出判决;8月24日,北京互联网法院在线公开审理了国内首例“AI文生图著作权案”。分析域内外案件涉及的诉讼争议,不难发现“何种程度的人类创作干预可以让人工智能生成内容获得作品保护”,已然成为当下人工智能领域亟待解决的核心法律问题。

(一)域外判决:完全由人工智能生成的内容不享有版权

在“泰勒诉美国版权局AI绘画版权登记案”中,原告泰勒(Stephen Thaler)研发了一款名为“创意机器”(Creativity Machine)的AI绘图软件,并用其自动生成了一幅绘画——“天堂最近的入口”(A Recent Entrance to Paradise)。在美国版权局以“该作品没有人类参与创作”为由拒绝授予其版权后,原告向美国哥伦比亚特区法院提起诉讼,要求更正版权局的上述决定。[1]…

(二)国内争议:需证明人类对人工智能生成内容的创作贡献

在国内“AI文生图著作权案”中,原告李某利用开源AI软件Stable Diffusion生成了一幅绘画,并发布在自己的小红书主页之中。被告刘某是一名创作爱好者,在百家号发布的诗歌中将涉案AI图像用作插图。原告就此向北京互联网法院提起诉讼,主张涉案AI图像构成美术作品…

(三)探讨基础:技术迭变赋予人工智能版权探讨新的时代意义

国内理论界和实务界关于人工智能生成内容可版权性的讨论由来已久。早在2019年,北京互联网法院和深圳南山区人民法院便分别审结了两个案件,并对“人工智能生成内容”是否构成作品作出了差异化的认定…

二、核心探讨:生成式人工智能对版权制度的底层冲击

生成式人工智能的发展应用,推动版权制度的关注重点从下游传播领域向上游创作领域转变。长久以来,版权法在主、客体制度层面的基本立场从未改变:无论是面对此前的“算法推荐”还是当下的“AI生成”,版权法都只对自然人的行为加以规制。…

三、制度建议:生成式人工智能内容版权保护的路径探索

无论是出于版权法激励作品创作的制度目的,还是着眼于促进国内生成式人工智能产业的发展,将利用生成式人工智能创作的内容纳入作品保护范畴都具有现实必要性。在具体的保护标准层面,仍需要满足版权法对于作品独创性“有无”的要求,即能够体现出人类的“创作构思”。…



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

突破数据墙!27岁华裔MIT辍学创业8年,年化收入逼近10亿

就在刚刚,创业成功的27岁亿万富翁Alexandr Wang宣布——Scale AI的年化收入,几乎达到了10亿美元!这个数字,足够震惊整个硅谷的。

相比之下,OpenAI预估的年收入也只是35-45亿美元而已。


再减去85亿美元的成本,OpenAI今年可能会血亏50亿。

这Scale AI是什么来头,能在营收上取得如此惊人的成绩?

原来,它主攻的就是如今AI模型的一大软肋——对数据的巨大需求。

Scaling Law的存在意味着,随着模型变大,对数据的需求也呈现指数级增长,越来越多的人担心大模型会耗尽可用数据。

Scale AI的主营业务——做AI模型的「数据工厂」,恰好处于这个风口之上。

如果能攻克「数据墙」这个AI进步的巨大瓶颈,Alexandr Wang理所当然会赚得盆满钵满。

在AI浪潮中,赚得盆满钵满

生意能做这么大,源于Scale AI越做越成功的一项大业务。

在AI生态圈中,为大公司提供基础设施或服务支持的业务,市场需求巨大。

Scale AI做的就是后者——为这些公司提供人工数据标注员。帮AI公司提高LLM的准确性。Meta、谷歌等大公司,都是它的客户。

而且,今年Scale AI的生意越做越红火了。

跟去年同期相比,它今年上半年的销售额增长了近4倍,已经接近4亿美元。

可以肯定地说,Scale AI是从AI热潮中受益最多的私营企业之一。

投资者们当然也看到了这一点。

今年5月,Scale AI以138亿美元的估值,进行了新一轮融资。

投资者包括Accel、Founders Fund、Index Ventures、Thrive Capital和Greenoaks Capital等。

并且,除了亚马逊和Meta之外,Scale AI还吸引了各种各样的新投资者:思科、英特尔、AMD等风险投资部门参与其中,而且很多注资过的公司也回归了,包括英伟达、Coatue、Y Combinator等等。

就在近期,Wang手下的高管团队,再度进行了调整。

首席技术官Arun Murthy将离开公司,而去年离开风投公司Benchmark的前优步高管Jason Droege将加入公司担任首席战略官,直接向Wang汇报。

首席策略官Jason Droege解释自己为什么要加入Scale AI:这让我有机会参与到我一生中技术领域最根本的变革中。

在Droege看来,Scale解决了人工智能中最困难的挑战之一:通过数据改进模型。做到这一点需要卓越的人才、复杂的运营和对AI未来发展的…

2023年上半年开始,公司收入激增

这家成立8年的初创公司,一直负责合同工的招聘和培训,但尚未实现盈利。

然而就在今年上半年,它成功改善了运营的毛利率——每产生1美元收入,只需要花费约1.2美元,而在去年上半年,这一数字为1.5美元。

如今仅考虑业务成本(比如合同工的工资),Scale AI保留的收入只有一半。毛利率这一财务指标,略低于50%。比起2022年上半年约57%的毛利率,这个数字有所下降。

这一水平,大大低于科技投资者对软件…


Click here for the Full Article

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

突破数据墙!27岁华裔MIT辍学创业8年,年化收入逼近10亿

就在刚刚,创业成功的27岁亿万富翁Alexandr Wang宣布——
Scale AI的年化收入,几乎达到了10亿美元!
这个数字,足够震惊整个硅谷的。

相比之下,OpenAI预估的年收入也只是35-45亿美元而已。


再减去85亿美元的成本,OpenAI今年可能会血亏50亿。

这Scale AI是什么来头,能在营收上取得如此惊人的成绩?
原来,它主攻的就是如今AI模型的一大软肋——对数据的巨大需求。

总结来看,OpenAI的o1模型在推理能力方面都取得了重大突破,在AIME、Codeforces、Scale的SEAL排行榜等关键基准测试中表现出色。
这些结果表明,o1-preview和o1-mini是解决复杂推理问题的强大工具。然而,要充分发挥这些模型的潜力,可能需要比用户习惯的其他模型发布更多的实验和尝试。


Source: 原文链接
Images: 图片来源

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

《泰坦尼克号》导演卡梅隆,加入生成式AI赛道

Stability AI的首席执行官Prem Akkaraju宣布,全球最著名导演之一詹姆斯·卡梅隆,加入董事会。
卡梅隆表示,将利用其在电影制作领域的几十年深厚经验,帮助Stability AI在图像、视频等领域更进一步。


同时相信生成式AI将是下一代影视的主要制作工具。

图片来源:由GPTNB生成

卡梅隆曾在2023年被问及ChatGPT等生成式AI在电影制作中能否起到帮助作用。他当时表示对使用AI协助编写剧本不感兴趣,认为AI不太可能感动观众,写出的东西没有灵魂
但他也承认,如果20年后一部由AI生成的剧本赢得了奥斯卡奖,好莱坞应该会对AI产生浓厚的兴趣。仅仅经过了一年的技术迭代,生成式AI就发生了翻天覆地的变化,同时改变了卡梅隆对这个技术的看法。

但卡梅隆还表达了他对AI的真正担忧是其武器化。在1984年拍摄《终结者》电影时他就非常关注AI的问题:“我在1984年就警告过你们,但你们没有听。我认为AI的武器化是最大的危险。我认为我们将进入AI军备竞赛,如果我们不建造它,其他人肯定会建造,然后它就会不断迭代升级。”

图片来源:由GPTNB生成

卡梅隆的职业生涯一直在探索新兴技术,并且每一次都为电影行业带来了技术革命。30年前,他站在CGI技术的前沿引领该技术的发展。现在,他看到了生成式AI和CGI图像创造的结合,认为这将是艺术家们讲述故事的全新方式。

目前,Stability AI的董事会成员一共有四位,分别是CEO Prem,Greycroft的联合创始人兼管理合伙人Dana Settle,Coatue Management的首席运营官兼普通合伙人Colin Bryant以及新加入的卡梅隆导演。

詹姆斯·卡梅隆是全球最著名的电影导演、编剧和制片人,1984年,卡梅隆凭借自编自导的科幻恐怖片《终结者》一炮而红。这部电影以其独特的故事和突破性的特效赢得了观众和评论家的一致好评,为其奠定了在好莱坞的地位。

1991年,卡梅隆执导并编剧的《终结者2:审判日》再次取得巨大成功,该片不仅在票房上大获成功,还因其开创性的CGI特效和动作场面而备受赞誉。

1997年,卡梅隆执导的爱情灾难片《泰坦尼克号》成为当时全球票房最高的电影。这部电影以1912年泰坦尼克号沉没事件为背景,讲述了一段感人至深的爱情故事。该影片在1998年的奥斯卡颁奖典礼上横扫11项大奖,包括最佳影片和最佳导演。

图片来源:由GPTNB生成

2009年,卡梅隆又执导并编剧的科幻电影《阿凡达》,再一次掀起了电影变革,将3D电影普及到全球各地。影片采用了最先进的3D技术和CGI效果,创造了一个前所未有的视觉奇观。

同时《阿凡达》再次刷新了全球票房纪录,并获得了九项奥斯卡奖提名,最终赢得了最佳艺术指导、最佳摄影和最佳视觉效果三项大奖。

Stability AI是目前最知名的开源大模型平台之一,其开源的文生图、文生视频等模型的下载量累计超过1亿次,尤其是Stable Diffusion系列模型是目前使用最多的文生图产品。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Llama-4使用10万块GPU训练、更好开源,扎克伯格亲口确认!

全球最大社交平台Meta(Facebook、Instagram、WhatsApp等母公司)联合创始人兼CEO扎克伯格接受了,前Vox著名记者Cleo Abram的专访。
主要谈到了Meta最新发布的变革性产品全息AR眼镜,开源大模型、生成式AI的发展以及全球开发者非常关心的Llama-4。


扎克伯格亲口确认了Llama-4使用了超过10万个GPU进行训练。目前Meta公开的算力是60万块GPU,也就是说Llama-4已经成为Meta的主力拳头产品,使用更多的GPU训练有助于突破AI极限。
扎克伯格认为AI大模型的极限非常高,远没有达到尽头。例如,Llama 3使用了2万块GPU进行训练;Llama 4使用了超10万块GPU,Llama 5则会使用更多。这就是说在如此多的GPU训练下,模型的性能和商业潜力会进一步被人类挖掘。
它可能会在某个时候达到了一个极限,就像以前的系统一样存在一个渐近线,不会继续增长。但也有可能这个极限不会很快到来,我们可以继续构建更多的算力集群,生成更多的合成数据来训练模型,并且在相当长的一段时间内它们对人们变得越来越有用。
所以,这对于大模型赛道的玩家来说非常非常重大且高风险。因为我们需要对未来需要构建多少基础算力设施进行押注,这对于Meta这样的超大规模企业会涉及数千亿美元投资。
同时随着这种大规模GPU训练的出现,模型的性能可能会发生实时性的变化,可能架构会再一次发生根本性变化(例如,出现比Transformer、Mamba架构更好),这个时间点可能很快会到来。
扎克伯格相信在大模型、生成式AI领域,未来20年的竞争格局可能会实时变化(例如,现如今的领头羊是OpenAI,那时可能就是别人了)。
在整个完整的采访中,扎克伯格还谈到了Meta最新发布的颠覆性产品全息AR眼镜。这是Meta花费了 10 年研发,将所有计算设备小型化装进眼镜中,使其能在广阔视野中呈现全全息图。
这个眼镜可以让人们在未来进行类似真实在场的交流,比如我和你可能一个在物理位置,一个以全息图形式交流,还能互动、工作、玩游戏等,会重塑工作、科学、教育、娱乐等多个领域。这只是第一个原型版本还会继续改进,让它更便宜、质量更高、更小、更时尚,希望能做成像电脑一样大众能普遍接触到的产品。
还有类似抬头显示器的产品,视野较小,在与人工智能对话等方面有价值;而全全息增强现实眼镜会是最高端、较昂贵但有潜力普及的产品。混合现实头戴式设备也会继续存在,因为它能容纳更多计算能力。Meta的使命是让技术普及,像推出价格较低但高质量的 Quest 3S 等混合现实头戴式设备。
在 AI 方面,扎克伯格觉得有两个重要价值:在增强现实和混合现实这边,主要是带来在场感,就是和另一个人真正在场的那种深刻感觉,这是目前其他技术给不了的,人们体验虚拟或混合现实时的本能反应其实就是对这种在场感的反应。

开源能让每个人都可以修改模型并在其基础上构建东西,与闭源模型的集中式方法不同。在安全方面,有人认为封闭模型更安全,但历史上开源软件往往更安全,因为更多人可以审查,问题能更快被发现和解决,就像 Llama 模型不断升级一样,开源能让模型更智能、更安全,为更多人所用,开源可能会带来更繁荣和安全的未来。

开源多模态大模型Llama-3.2

Meta又开源了首个多模态大模型Llama-3.2,这是Llama-3系列的一次重大升级,一共有4个版本。

1B和3B参数专为边缘和移动设备设计,而较大的11B和90B参数模型为 Llama 生态系统带来了新的视觉能力。

1B 和 3B支持 12K 令牌的上下文长度,擅长总结、指令遵循和文本重写等任务,并且能在移动设备上本地运行。更重要的是,这些轻量级模型发布时便对高通和联发科的硬件进行了适配,并针对 Arm 处理器进行了优化,广泛的兼容性将加速其在各种移动和物联网设备中的应用。

Llama 3.2

11B和90B视觉模型是 Llama首次发布的多模态大模型,能理解和推理图像,实现文档分析、图像字幕和视觉问答等任务。Meta 报告其性能在图像识别和视觉理解基准测试中与领先的闭源模型具有竞争力。新的视觉模型可作为现有纯文本模型的直接替代品,方便开发者为现有基于 Llama 的应用添加图像理解功能。

除了新开源的模型,Meta 还推出了 Llama Stack Distribution 以简化开发者和企业围绕 Llama 构建应用的流程。其核心是 Llama CLI,这是一个命令行界面,简化了构建、配置和运行 Llama Stack 分布的过程。

Meta 提供了多种编程语言的客户端代码,包括 Python、Node.js、Kotlin和 Swift,以实现与不同应用和平台的集成。

Llama Stack 具有部署灵活性,为 Distribution Server 和 Agents API Provider 提供预制 Docker 容器以减少配置错误,并针对不同运营规模提供从单机单节点分布到与 AWS、Databricks、Fireworks 和 Together AI 合作的可扩展云部署等解决方案。在 iOS上通过 PyTorch ExecuTorch 提供设备端分布,方便开发直接在移动设备上运行的AI 应用。

由于安全、合规或性能考虑需要内部AI能力的公司可以利用Dell Technologies支持的本地分发。可通过将多个API提供商打包到一个单一端点,并与合作伙伴合作以适应Llama Stack API,Meta为这些多样化环境中的开发者创造了一致且简化的体验。

这种方法显著降低了构建Llama模型的复杂性,加速了AI在广泛的应用程序和用例中的创新。

开源地址:https://www.llama.com/?utm_source=twitter&utm_medium=organic_social&utm_content=video&utm_campaign=llama32


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI连丢3高管,光杆司令奥特曼紧急扶持华人上位!半年流失15员大将

OpenAI又一轮震荡来了,1天之内3位高管离职。

就在CTO Mira官宣离职不久后,Altman亲自宣布了更多高层人事变动。


研究主管Bob McGrew、研究副总裁Barret Zoph也将离开OpenAI。

“Mira、Bob和Barret是各自独立且友好地做出了这些决定。
但由于Mira决定的时机,使得我们现在一起宣布这些变化更加合理,这样我们可以共同努力,顺利交接给下一代领导团队。”

在OpenAI内部发布通知后,Altman马上把最新情况对外同步给所有人。

网友们感慨,这距离去年Altman“熹妃回宫”大戏也才不到1年,曾经支持他的人也走了一些。

量子位不完全统计,2024年OpenAI已经流失了十余位高管/核心技术人员。

与此同时,OpenAI也迎来新一代领导格局。

其中最值得关注的是Mark Chen上位,成为新的研究高级副总裁(SVP of Research),与首席科学家Jakub Pachocki一起领导研究工作。

对于当下的变化,Altman表示自己也不想假装镇定。毕竟Mira也是早上才通知了他离职的决定。

为啥突然提?理由也给了:不突然的话,消息肯定被泄露,还不如突然点。

Altman接受了这个理由。并表示他们几个人下午五点半还聚会了一下。明天OpenAI将召开全体会议,届时将回答所有疑问。

首席战略官Jason Kwon也发推表示:再也找不到比Mira更好的搭档了。

但另一边,有消息称OpenAI正在讨论给予Altman 7%的公司股权,并重组为盈利性企业。这意味着Altman将首次获得OpenAI的所有权

△“混乱是阶梯”,出自《权力的游戏》

OpenAI“第三次分裂”

目前最新离职的两位高层在推特上回应这一消息。二人表示是时候离开了,但都没有提及下一站去哪。

Bob McGrew自2017年1月加入OpenAI,2018年从技术人员晋升为研究副总裁,之后担任研究主管。

他负责领导OpenAI的研究工作,建立“世界上最强大的模型,然后让全世界通过ChatGPT和API使用它们”。

前不久,他还和o1团队一起接受采访,揭秘背后开发细节。

对于离职他表示:

“在OpenAI的这八年经历让我始终谦卑且充满敬畏。2017年1月我加入的这个小型非营利组织,现已成为世界上最重要的研究开发公司。我非常享受与一群聪明、敬业的同事一起工作——世界上没有其他地方能与之相比。我对我们研究团队这些年来的工作感到无比自豪,从早期在强化学习领域的成就,到开创性地研发大规模语言模型,再到构建第一个多模态生成模型,最后用ChatGPT改变世界。
现在是我该休息的时候了。没有什么比推出o1(OpenAI的一个项目)更能完美总结我在这里的工作了。
接下来,Mark Chen将作为高级副总裁领导研究团队,Jakub将继续担任首席科学家。在接下来的两个月里,我将继续支持Mark、Jakub和团队完成过渡工作。我对他们的领导能力充满信心,相信他们能将OpenAI的研究推进到AGI及更远的领域。我迫不及待地想看到这个团队接下来的表现。”

另一位离职高管是Barret Zoph。

他自2022年加入OpenAI,从零开始搭建并领导后训练团队。

之前OpenAI发布Her时上台演示视频通话,因为延迟被AI当成木头桌子的那个人就是他。

如今Her已全量开放给付费用户,也到了他离开的时候。

对于离职,Zoph表示这是基于个人职业发展需求下的决定。
“大家好,我决定离开OpenAI。
这个决定非常困难,因为我在OpenAI度过了一段难以置信的时光。我在ChatGPT发布之前加入,并与John Schulman和其他人一起从零开始建立了后训练团队。我非常感激有机会领导后训练团队,帮助构建和扩展ChatGPT到今天的规模。现在对我来说,似乎是时候在OpenAI之外探索新的机会了。这是一个基于我个人职业发展需求的决定。
我非常感激OpenAI给我的所有机会,以及Sam和Greg等领导层对我的支持。特别感谢Bob为我所做的一切,他是我在OpenAI职业生涯中一位出色的经理和同事。后训练团队有很多优秀的领导者,我相信他们会继续把团队管理好。
OpenAI正在并将继续做出令人难以置信的工作,我对公司的未来充满乐观,并会一直为大家加油。”

随着Barret的离开,OpenAI员工感慨,这是OpenAI的第三次分裂,后训练团队也分崩离析。

这里OpenAI的第一次分裂,指Amodei兄妹带领大批GPT-3研究成员出走,建立Anthropic,后来发布Claude模型,成为OpenAI最大的竞争对手之一。

而上个月,和Barret一起建立后训练团队的John Schulman,去向正是Anthropic。

新格局已形成

伴随着几位高层离职,新的格局也已形成。

Mark Chen接下来将担任高级研究副总裁。

他自2018年来加入OpenAI,此前职位是研究副总裁,为主管前沿研究,并且是美国IOI教练。

他核心参与了DALL・E、GPT-4、o1等模型开发。

此前4o的发布演示中就有他。

接下来他将和Jakub Pachocki共同领导OpenAI的研究工作。

Jakub Pachocki于2017年加入OpenAI,一开始领导Dota组,后负责推理、深度学习等团队,是ChatGPT、GPT-4等模型的核心贡献者之一。他整体负责了GPT-4项目,也是优化团队负责人。

今年5月,他接任Ilya晋升为首席科学家。

Joshua Achiam将成为新的对齐团队负责人。该团队将保障OpenAI的研究始终安全正确,以实现其终极使命。

他2017年来OpenAI实习,后续转正为研究科学家。一直致力于AI安全领域研究。

今年5月,随着Ilya和RLHF发明人之一Jan Leike相继离职,OpenAI超级对齐团队分崩离析。

Kevin Weil和Srinivas Narayanan将继续领导应用团队。

Kevin Weil今年6月才加入OpenAI,担任CPO(首席产品官)。

Srinivas于2023年加入,担任工程副总裁,领导OpenAI工程工作,包括ChatGPT、开发者平台以及相关基础设施支持工作。

Matthew Knight将担任首席信息安全官。

他于2020年加入OpenAI,领导安全、IT以及安全隐私方面研究及工程工作。

ChatGPT翻译如下:

“我刚刚在OpenAI发布了这则通知:
大家好,
过去6年半里,Mira对OpenAI的发展和成长起到了至关重要的作用。她是我们从一个默默无闻的研究实验室发展成一家重要公司的重要因素之一。
今天早上Mira告诉我她要离开时,我感到很难过,但当然支持她的决定。在过去的一年里,她一直在培养一批优秀的领导者,他们将继续推动我们的进步。
我还想告诉大家,Bob和Barret也决定离开OpenAI。Mira、Bob和Barret是各自独立且友好地做出了这些决定。但由于Mira决定的时机,使得我们现在一起宣布这些变化更加合理,这样我们可以共同努力,顺利交接给下一代领导团队。
我对他们的贡献表示极大的感激。
在OpenAI做领导者是全身心投入的。一方面,能够构建AGI并将我们的先进研究成果带给数亿人,是一种荣幸;另一方面,带领团队完成这些任务是非常艰辛的——他们为公司付出了超乎寻常的努力。
Mark将成为我们的新研究高级副总裁,并将与首席科学家Jakub一起领导研究组织。这是我们长期以来为Bob计划的继任方案;虽然这一变动比我们预期的要早,但我对Mark接任这一角色感到非常兴奋。Mark显然具有深厚的技术专长,过去几年里他还学会了如何成为一名出色的领导者和管理者。
Josh Achiam将担任新的使命对齐负责人,在整个公司范围内确保我们能够正确处理所有事项(包括文化),以实现我们的使命。Kevin和Srinivas将继续领导应用团队。
Matt Knight将担任我们的首席信息安全官,他已经在这个岗位上工作了很长时间。这一直是我们的计划。
Mark、Jakub、Kevin、Srinivas、Matt和Josh将向我汇报。过去一年左右的时间里,我主要关注我们组织的非技术部分;现在我期待着将大部分时间投入到公司的技术和产品部分。
今晚5:30,我们将在575聚会,Mira、Bob、Barret和Mark都会在场。这是为了表达我们的感激之情,并回顾我们共同取得的成果。明天我们会召开全体会议,可以在会上回答任何问题。日程邀请将很快发送。
领导层的变动是公司发展过程中自然的一部分,尤其是那些快速成长且要求高的公司。我不会假装这次变动如此突然是正常的,但我们不是一个普通的公司,我认为Mira向我解释的原因(永远没有合适的时机,任何不突然的决定都会泄露,她希望在OpenAI正处于上升期时行动)是合理的。我们可以在明天的全体会议上进一步讨论这件事。
感谢大家的辛勤工作和奉献。
Sam”

参考链接:
[1]https://x.com/sama/status/1839096160168063488
[2]https://x.com/bobmcgrewai/status/1839099787423134051?s=46&t=iTysI4vQLQqCNJjSmBODPw
[3]https://x.com/barret_zoph/status/1839095143397515452?s=46&t=iTysI4vQLQqCNJjSmBODPw



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

生成式AI与版权保护:问题、争议与思考

自2022年11月美国OpenAI公司推出ChatGPT以来,生成式人工智能技术迅速崛起,并广泛应用于版权创作领域。生成式人工智能在提升内容创作效率、赋能文化创意产业发展的同时,也引发了新的版权争议和理论探讨。


在生成式人工智能涉及的众多版权问题之中,“人工智能生成的内容能否构成作品,进而受到版权法保护”一直是各方关注的焦点。本文从生成式人工智能领域的国内外诉讼纠纷着眼,聚焦“人工智能生成内容可版权性”议题,并尝试提出具有可行性的规则应对建议,供后续进一步探讨。

一、问题提出:生成式人工智能作品属性纠纷凸显

近期,国内外生成式人工智能领域的司法实践发展迅速。2023年8月18日,美国哥伦比亚特区法院就“泰勒诉美国版权局AI绘画版权登记案”作出判决;8月24日,北京互联网法院在线公开审理了国内首例“AI文生图著作权案”。分析域内外案件涉及的诉讼争议,不难发现“何种程度的人类创作干预可以让人工智能生成内容获得作品保护”,已然成为当下人工智能领域亟待解决的核心法律问题。

(一)域外判决:完全由人工智能生成的内容不享有版权

在“泰勒诉美国版权局AI绘画版权登记案”中,原告泰勒(Stephen Thaler)研发了一款名为“创意机器”(Creativity Machine)的AI绘图软件,并用其自动生成了一幅绘画——“天堂最近的入口”(A Recent Entrance to Paradise)。在美国版权局以“该作品没有人类参与创作”为由拒绝授予其版权后,原告向美国哥伦比亚特区法院提起诉讼,要求更正版权局的上述决定。值得注意的是,…

(二)国内争议:需证明人类对人工智能生成内容的创作贡献

在国内“AI文生图著作权案”中,原告李某利用开源AI软件Stable Diffusion生成了一幅绘画,并发布在自己的小红书主页之中。被告刘某是一名创作爱好者,在百家号发布的诗歌中将涉案AI图像用作插图。原告就此向北京互联网法院提起诉讼,主张涉案AI图像构成美术作品(如不能支持,则至少构成我国《著作权法》兜底规定的“其他作品”),被告上述行为构成信息网络传播侵权等。从庭审现场来看,各方均高度关注“涉案AI图像是否存在原告的创作贡献,进而构成版权法保护的作品”。因为,对于上述问题的判定结论将直接影响原告起诉的权利基础和正当性。

(三)探讨基础:技术迭变赋予人工智能版权探讨新的时代意义

国内理论界和实务界关于人工智能生成内容可版权性的讨论由来已久。早在2019年,北京互联网法院和深圳南山区人民法院便分别审结了“北京菲林律师事务所诉北京百度网讯科技有限公司侵害署名权、保护作品完整权、信息网络传播权纠纷案”和“深圳市腾讯计算机系统有限公司诉上海盈讯科技有限公司侵害著作权及不正当竞争纠纷案”两个案件,并对“人工智能生成内容”是否构成作品作出了差异化的认定。但值得注意的是,不同的判决结果是由于两个案件涉及的人工智能模型(或者说机器模型)在内容生成机制方面存在着本质差异。但在法律层面,两个判决的落脚点存在高度一致性,即只有证明存在自然人的创作贡献,人工智能生成内容才会被认定为版权法上的作品。

生成式人工智能的发展应用,推动版权制度的关注重点从下游传播领域向上游创作领域转变。长久以来,版权法在主、客体制度层面的基本立场从未改变:无论是面对此前的“算法推荐”还是当下的“AI生成”,版权法都只对自然人的行为加以规制,“推荐算法机器”和“人工智能模型”都不会落入版权法的主体范畴;而“人工智能生成内容”能否纳入版权法保护的客体范围,关键在于判断其究竟是对人类创作构思的“映射呈现”,还是AI模型“实质取代”人类后对作品元素具体构思设计的结果。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Llama-4使用10万块GPU训练、更好开源,扎克伯格亲口确认!

文章来源:AIGC开放社区

图片来源:由GPTNB生成

全球最大社交平台Meta(Facebook、Instagram、WhatsApp等母公司)联合创始人兼CEO扎克伯格接受了,前Vox著名记者Cleo Abram的专访。

主要谈到了Meta最新发布的变革性产品全息AR眼镜,开源大模型、生成式AI的发展以及全球开发者非常关心的Llama-4。


扎克伯格亲口确认了Llama-4使用了超过10万个GPU进行训练。目前Meta公开的算力是60万块GPU,也就是说Llama-4已经成为Meta的主力拳头产品,使用更多的GPU训练有助于突破AI极限。

扎克伯格谈Llama-4

扎克伯格认为AI大模型的极限非常高,远没有达到尽头。例如,Llama 3使用了2万块GPU进行训练;Llama 4使用了超10万块GPU,Llama 5则会使用更多。这就是说在如此多的GPU训练下,模型的性能和商业潜力会进一步被人类挖掘。

它可能会在某个时候达到了一个极限,就像以前的系统一样存在一个渐近线,不会继续增长。但也有可能这个极限不会很快到来,我们可以继续构建更多的算力集群,生成更多的合成数据来训练模型,并且在相当长的一段时间内它们对人们变得越来越有用。

所以,这对于大模型赛道的玩家来说非常非常重大且高风险。因为我们需要对未来需要构建多少基础算力设施进行押注,这对于Meta这样的超大规模企业会涉及数千亿美元投资

同时随着这种大规模GPU训练的出现,模型的性能可能会发生实时性的变化,可能架构会再一次发生根本性变化(例如,出现比Transformer、Mamba架构更好),这个时间点可能很快会到来。

扎克伯格相信在大模型、生成式AI领域,未来20年的竞争格局可能会实时变化(例如,现如今的领头羊是OpenAI,那时可能就是别人了)。

在整个完整的采访中,扎克伯格还谈到了Meta最新发布的颠覆性产品全息AR眼镜。这是Meta花费了 10 年研发,将所有计算设备小型化装进眼镜中,使其能在广阔视野中呈现全全息图。

这个眼镜可以让人们在未来进行类似真实在场的交流,比如我和你可能一个在物理位置,一个以全息图形式交流,还能互动、工作、玩游戏等,会重塑工作、科学、教育、娱乐等多个领域。这只是第一个原型版本还会继续改进,让它更便宜、质量更高、更小、更时尚,希望能做成像电脑一样大众能普遍接触到的产品。

还有类似抬头显示器的产品,视野较小,在与人工智能对话等方面有价值;而全全息增强现实眼镜会是最高端、较昂贵但有潜力普及的产品。混合现实头戴式设备也会继续存在,因为它能容纳更多计算能力。Meta的使命是让技术普及,像推出价格较低但高质量的 Quest 3S 等混合现实头戴式设备。

在 AI 方面,扎克伯格觉得有两个重要价值:在增强现实和混合现实这边,主要是带来在场感,就是和另一个人真正在场的那种深刻感觉,这是目前其他技术给不了的,人们体验虚拟或混合现实时的本能反应其实就是对这种在场感的反应。

Meta专注设计社交应用 20 年,就是想建立能提供这种社交在场感的技术平台。但实现全面的在场感还面临一些挑战,例如,触觉方面,从手开始实现较为重要,现在用控制器有初步版本未来会更好,像打乒乓球演示中能感受球击中球拍,但像柔道那种需要真实力反馈的运动在虚拟现实中实现较难。

还有很多因素会影响在场感,比如视野、延迟、物理表现等,任何一个环节出错都可能破坏在场感,像人们对物理真实的接受度也有差异,例如,在化身方面,不同风格的化身与不同类型世界的融合有有趣的效果,这需要在技术上全面且出色地实现,是长期项目,也能帮助我们了解人类大脑对真实的认知。

另一个大方向是个性化 AI,Llama 和 Meta AI 等都在朝这个方向发展。模型会越来越智能,但关键是为用户个性化,这就需要它有背景,理解用户生活中发生的事,而眼镜是理想外形因素,因为它能看到用户所见、听到用户所听,获取信息和背景。

在 AI 的使用场景方面,存在一个类似光谱的情况。一方面,像实时自动翻译(如星际迷航中的通用翻译器)等技术能消除人与人之间的交流障碍,虽然有人担心这会让人减少学习语言,但实际人们仍会学习拉丁语和希腊语等。

另一方面,在教育等领域,努力和挣扎本身有其意义,例如,孩子和成人在情感表达上的挣扎,AI 可作为帮助他们表达情感的方式,但这也引发了关于在哪些方面应保留努力和挣扎以促进个人发展的思考,比如在编程和语言学习上,虽然未来有强大的AI工具,但教孩子编程有助于培养严谨思维,语言学习虽功能性可能降低但对思维和文化理解有帮助,人们需要根据未来变化选择要重点学习的内容。

AI 会加速社交媒体的变化,使其从以朋友互动为主转向更多与创作者或非熟人内容互动。AI 会为人们提供更多创作工具,朋友能制作更有趣的内容,创作者能利用更先进工具制作更吸引人的内容,还会有纯 AI 生成的个性化内容,以及 AI 创作者和创作者制作的 AI 版本自己与粉丝互动等新形式,这将是一个深度探索的领域,AI 会像互联网一样改变几乎每个领域和应用程序的每个功能,带来大量创新和令人兴奋的变化,但也引发了对变化速度和影响的担忧。

关于大模型开源,扎克伯格认为开源意味着人们可以构建很多不同的东西。一些公司希望打造一个通用的 AI 系统供人们使用,但我觉得未来会有很多不同的 AI 系统,就像有很多不同的应用程序一样,每个企业、创作者等都会有自己的 AI。开源能让每个人都可以修改模型并在其基础上构建东西,与闭源模型的集中式方法不同。在安全方面,有人认为封闭模型更安全,但历史上开源软件往往更安全,因为更多人可以审查,问题能更快被发现和解决,就像 Llama 模型不断升级一样,开源能让模型更智能、更安全,为更多人所用,开源可能会带来更繁荣和安全的未来。

开源多模态大模型Llama-3.2

Meta又开源了首个多模态大模型Llama-3.2,这是Llama-3系列的一次重大升级,一共有4个版本。

1B和3B参数专为边缘和移动设备设计,而较大的11B和90B参数模型为 Llama 生态系统带来了新的视觉能力。

1B 和 3B支持 12K 令牌的上下文长度,擅长总结、指令遵循和文本重写等任务,并且能在移动设备上本地运行。更重要的是,这些轻量级模型发布时便对高通和联发科的硬件进行了适配,并针对 Arm 处理器进行了优化,广泛的兼容性将加速其在各种移动和物联网设备中的应用。

图片来源

11B和90B视觉模型是 Llama首次发布的多模态大模型,能理解和推理图像,实现文档分析、图像字幕和视觉问答等任务。Meta 报告其性能在图像识别和视觉理解基准测试中与领先的闭源模型具有竞争力。新的视觉模型可作为现有纯文本模型的直接替代品,方便开发者为现有基于 Llama 的应用添加图像理解功能。

除了新开源的模型,Meta 还推出了 Llama Stack Distribution 以简化开发者和企业围绕 Llama 构建应用的流程。其核心是 Llama CLI,这是一个命令行界面,简化了构建、配置和运行 Llama Stack 分布的过程。

Meta 提供了多种编程语言的客户端代码,包括 Python、Node.js、Kotlin和 Swift,以实现与不同应用和平台的集成。

Llama Stack 具有部署灵活性,为 Distribution Server 和 Agents API Provider 提供预制 Docker 容器以减少配置错误,并针对不同运营规模提供从单机单节点分布到与 AWS、Databricks、Fireworks 和 Together AI 合作的可扩展云部署等解决方案。在 iOS上通过 PyTorch ExecuTorch 提供设备端分布,方便开发直接在移动设备上运行的AI 应用。

由于安全、合规或性能考虑需要内部AI能力的公司可以利用Dell Technologies支持的本地分发。可通过将多个API提供商打包到一个单一端点,并与合作伙伴合作以适应Llama Stack API,Meta为这些多样化环境中的开发者创造了一致且简化的体验。

这种方法显著降低了构建Llama模型的复杂性,加速了AI在广泛的应用程序和用例中的创新。

开源地址:https://www.llama.com/?utm_source=twitter&utm_medium=organic_social&utm_content=video&utm_campaign=llama32


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB