Granica入围2024年度人工智能奖

领先的AI数据准备平台入围国际云人工智能奖的决赛
Granica,一家领先的AI数据准备平台,已被入围2024年度人工智能奖,其中包括“年度AI解决方案”等三个类别。图片{ width=60% }


​新成立的云计算奖项主办机构The Cloud Awards早些时候发起了这个新奖项程序,The A.I. Awards旨在表彰和奖励在云人工智能技术和机器学习的使用或开发方面的卓越和创新。
该程序涵盖了广泛的类别。一些侧重于特定行业垂直领域,如零售/电子商务、交通和娱乐等,另一些则侧重于利用AI推动领域改进,例如自然语言处理(NLP)或网络安全。整体上,还通过“A.I.环境最先进”和“年度AI部署”等奖项表彰AI实践的卓越。该程序收到了来自全球各个大小组织的参赛作品,包括北美、欧洲、中东和亚太地区。
The Cloud Awards的首席执行官詹姆斯·威廉姆斯表示:“我们很高兴揭晓首届A.I. Awards的入围名单。该程序突出了全球云AI领域发生的令人惊叹的创新,Granica完全当之无愧能成为今年杰出入围者之一。
“在整个计划中,这些入围者表明,巧妙的由AI驱动的解决方案可以从任何地方、任何规模的组织中涌现,为您所能想到的几乎任何行业带来积极的变化。我们迫不及待地想看到评委会将选择谁作为获奖者,祝愿所有入围者在最后评估环节中好运。”
Granica的首席执行官兼联合创始人拉胡尔·波纳拉表示:“我们很荣幸能进入2024年度A.I. Awards的年度AI解决方案类别的入围名单。能够达到这一阶段证明了我们团队在利用AI为客户和合作伙伴带来显著成果方面所进行的辛勤工作。我们为能与其他入围者并肩站立感到自豪,并期待在接下来的几周中了解评委会对获奖者的决定。”
该程序将开始其最后一轮评审,从这些入围者中选出每个类别的获奖者。A.I. Awards的获奖者将于2024年10月8日星期二公布。
该程序将于2025年夏季重新开始接受新的提交,继续表彰云AI解决方案的卓越。​​
在AITechPark上探索最新的人工智能、物联网、网络安全、AITech新闻以及来自行业专家的深刻更新!



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

企业受到的移动钓鱼攻击激增:Zimperium研究

2024年zLabs全球移动威胁报告发现82%的钓鱼网站现在针对企业移动设备
主要发现:

  • 82%的钓鱼网站专门针对移动设备
  • 独特的恶意软件样本同比增长13%
  • 76%的钓鱼网站使用HTTPS,让受害者产生一种虚假安全感
  • 风险软件和木马占所观察到的恶意软件威胁的80%

全球移动安全领导者Zimperium今天宣布发布其2024年全球移动威胁报告,该报告突出了过去一年中的关键移动威胁趋势。图片{ width=60% }


zLabs研究人员发现“移动钓鱼”攻击显著增加–也称为针对移动设备的专门钓鱼–是一种利用各种策略特别设计来利用移动设备和用户漏洞的技术。报告显示,现在有82%的钓鱼网站针对移动设备。随着网络犯罪分子日益采用“移动优先”攻击策略,他们利用多种技术渗透企业系统,通过针对弱、不安全和未经管理的移动端点入侵,认识到移动设备是企业网络和敏感数据的主要入口。

移动钓鱼–企业面临的重大威胁
网络犯罪分子精心制定攻击,利用员工通常对其移动设备的信任。zLabs研究人员发现,76%针对企业的钓鱼网站使用HTTPS,这是一种安全的通信协议,使受害者相信其设备上的网站是合法的。由于屏幕较小且安全指示器不够明显(如隐藏的URL栏),员工不太可能注意到这些钓鱼尝试。

移动钓鱼网站的成功在于其闪电战策略,网络犯罪分子可以迅速启动欺骗性域名,然后在被发现之前就让它们消失,给企业首席信息安全官(CISOs)及其团队带来重大挑战。研究人员发现,大约四分之一的移动钓鱼网站在创建不到24小时后就开始运作,几乎立即启动恶意活动。

“不可否认,在我们的组织中,移动设备和应用程序已成为最重要的要保护的数字通道,”Zimperium首席执行官Shridhar Mittal表示。“在当今数字时代,71%的员工利用智能手机执行工作任务,企业必须通过采用多层安全策略,包括移动威胁防御和移动应用审核,有效保护其移动端点。我们的zLabs研究人员仔细分析了移动攻击的本质,揭示了企业内的攻击面需要战略和以移动为中心的应对。”

由侧加载应用带来的企业风险
除了移动钓鱼的增加外,zLabs研究人员揭示了侧加载应用的危险–安装非官方应用商店中的应用程序的做法。金融服务组织中68%的移动威胁归因于侧加载应用。事实上,zLabs研究人员发现,进行侧加载的移动用户比不进行侧加载的用户更有可能在其设备上运行恶意软件200%。风险软件和木马,伪装成合法应用程序的应用程序,是发现的最常见恶意软件系列。APAC地区在侧加载风险方面领先,43%的安卓设备侧加载应用。

平台漏洞激增
在平台漏洞方面,2023年发现了Android和iOS平台识别的普遍漏洞和曝光(CVEs)数量激增。zLabs研究团队检测到在Android设备上测试的1,421个CVE,比2022年增长了58%。这些漏洞中有16个在实际环境中被利用,意味着它们在现实世界中被利用,而不是在测试环境中。测试的iOS设备看到269个CVE,增长了10%,其中20个在实际环境中被利用。

这些数据突显了iOS和Android设备并非固有安全,两个平台均出现了显著的漏洞增加。尽管Android进行了频繁的更新–2023年进行了24次更新,iOS进行了35次更新–但企业发现难以跟进所有设备的更新,凸显了超越平台更新的主动移动安全策略的必要性。

“移动钓鱼攻击和移动恶意软件越来越难以被检测,往往企业没有注意到,”Zimperium产品管理高级副总裁Chris Cinnamo表示。“为了有效应对这种不断演变的移动威胁格局,企业安全团队必须优先考虑专门针对员工移动设备的攻击。在没有采取积极措施的情况下,这些攻击将继续渗入企业,利用敏感数据并破坏组织运作。”

其他主要发现:

  • 连接到不安全网络的企业设备数量增加了45%
  • 移动设备在一年内平均连接到冒险网络17次
  • 微软是最常被钓鱼的品牌,占被模仿的钓鱼网站的23%

这些发现都指向一个统一的事实:保护移动设备不是可选的–它是数字安全的基石。通过建立健壮的移动安全策略,企业可以填补其劳动力中的差距,加强其移动安全姿态,并降低遭受颠覆性的网络攻击风险。

方法论
为了全面评估本年度报告中突出的安全趋势对企业的影响,Zimperium分析了受Zimperium移动威胁防御、高级应用程序分析和zDefend保护的移动设备的匿名数据集。这一详细分析综合了过去一年的数据,涵盖了全球范围内iOS和Android系统上的各种设备。

要查看完整报告–深入探讨移动钓鱼的本质、员工围绕移动设备的行为、侧加载应用的风险等–请访问此处的链接。

要了解更多关于Zimperium如何保护您的业务免受当今逃避性移动钓鱼和恶意软件威胁的信息,请联系我们。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Crusoe与VAST Data携手在Crusoe Cloud上推出可扩展平台

**Crusoe宣布推出Shared Disks,这是一款由VAST Data平台驱动的新型云存储产品。图片{ width=60% }


这一产品已经面向所有Crusoe客户推出,为训练工作负载提供了可达数百GBps的聚合读写性能的PB级文件系统。**
这一合作大大增强了Crusoe气候一致云作为AI工作负载的可靠、可持续和具有成本效益的解决方案。

Crusoe Energy Systems LLC(“Crusoe”)今天宣布,它已与 VAST Data 合作,为 Crusoe Cloud 客户提供了一款名为 Shared Disks 的新型高性能存储产品,专为 AI 而设计,并在今天已上线。Crusoe 与 VAST 之间的这一合作将建立起一个可达每个 TiB 每节点 200 MBps 读取速度,每个集群的聚合读写带宽可达数百 GPps 的 PB 级文件系统。通过 VAST Data 平台/ VAST DataStore,Crusoe 的客户现在可以轻松访问专为大规模 AI 工作负载设计的 NFS 解决方案。对于像 AI 训练这样的多 GPU 工作负载,客户可以使用 Shared Disks 确保它们都可以高效地访问共享数据集。

“Crusoe选择 VAST Data 平台,因为它出色地满足了我们客户在扩大 AI 模型规模时所需的可靠文件存储能力,而不会降低性能,” Crusoe 的首席产品官 Patrick McGregor 表示。“由于客户数据始终存储在 VAST 平台上,客户将能够完全通过 Crusoe Cloud 来构建和创新。由于他们的技术在性能上表现出色,并且拥有出色的团队,因此 VAST 是 Crusoe 和我们长期数据管理目标的天然合作伙伴。我们很高兴能与 VAST 合作,以推进 Crusoe 的使命,将未来的计算与气候的未来保持一致。”

“由 VAST Data 平台驱动,Crusoe 的 Shared Disks 提供了现代 AI 云基础架构,使今天的企业能够应对扩展数据密集型 AI 工作负载的挑战,” VAST Data 解决方案副总裁 Chris Morgan 表示。“通过合作,我们正在提供基于 AI 的解决方案,为寻求转变数据景观并加速其 AI 部署以推动创新与发现的组织提供所需的速度、安全性和运营效率。”

Crusoe Shared Disks 将为 Crusoe Cloud 客户提供以下功能:

  • 磁盘操作:客户可以使用 Crusoe Cloud API、CLI、UI界面或使用 Crusoe 的 Terraform 提供程序创建、调整大小、挂载、卸载和删除共享磁盘。
  • 提升性能:Crusoe Shared Disks 可以提供每 TiB 存储规格的 200 MBps 的读取吞吐量和 40MBps 的写入吞吐量。
  • 安全的多租户环境:Crusoe Cloud 的 Shared Disks 仅针对组织中的单个项目提供,具有强大的审计功能,并且数据安全存储,为所有客户提供规模化的安全服务。
  • 精细的工作负载隔离:通过细粒度的服务质量策略,防止多租户 I/O 冲突,Crusoe Cloud Shared Disks 为客户提供了他们在单个集群中进行 AI 工作负载所需的性能和数据访问,而不受其他租户的影响。
  • 可靠性:Crusoe Cloud Shared Disks 提供与 Crusoe Cloud GPU VMs 提供的相同的业界领先 SLA 99.5%,数据受到硬件和组件故障的保护。

根据穆迪评级,数据中心的电力消耗预计在2023年至2028年间年均增长23%,而同期 AI 特定能源使用量预计每年增长43%。2022年,Crusoe 推出了 Crusoe Cloud,这是一款面向 AI 训练、推理和 HPC 工作负载的计算基础架构平台。Crusoe 的云平台使用100% 清洁、搁浅或可再生能源提供动力,通过将数据中心与清洁能源源点相结合,降低了计算的成本并减轻了环境影响。这使得 AI 创新者可以在 Crusoe 平台上使用气候一致的计算解决方案解决世界上最大的挑战。Crusoe 目前拥有并运营超过200兆瓦的数据中心组合,并计划快速扩张。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Sure Med Compliance宣布与Valet Health合作

Sure Med Compliance,一家领先的数字医疗保健公司,旨在改善患者、医疗服务提供者和医药公司的结果,使它们能够负责地治疗疼痛,宣布与Valet Health合作,共同推出独特的患者参与计划。图片{ width=60% }


Valet Health是一家成熟的基于ROI的数字平台,用于获得新患者并自动进行先进程序的现有患者参与。

“我们非常高兴地宣布这一战略性合作。这一合作将Sure Med激动人心的点对点、过程候选者问卷结果生成功能与Valet Health的AutoPilot解决方案提供的HIPAA合规营销自动化和短信功能相结合。通过Valet Health的数据归因技术与Sure Med的直接EHR和实践管理系统集成相结合,医疗机构可以实现更高的程序利用率,并减轻对非新型阿片类药物的依赖。”Sure Med Compliance的CEO John Bowman说道。

这代表了一种新颖的方式,自动向患者提供教育并在他们进行先进介入性程序的整个过程中与其互动。

Sure Med内的患者候选人问卷数据将无缝集成到Valet Health智能系统策划的移动和各种数字渠道上的自动患者沟通中。此外,分析还将包括数字计划的投资回报率和用于服务线评估的工具。

“了解塑造患者参与数字渠道的力量对于我们创新并增强我们在实施最佳数字策略方面的支持的专科实践至关重要。Valet Health对于这为医生和患者提供的解决方案以及我们与Sure Med一起实现的潜力感到非常兴奋。”Valet Health的CEO Dave Bowen表示。

对患者旅程进行映射、测量和优化的综合策略标志着医疗保健的重大进步。由于整合了前沿技术举措,这种方法可以清晰地显示出程序的投资回报率。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

ColoBarn选择IvedaAI加强美国地区数据中心的安全性

Iveda(纳斯达克股票代码:IVDA),全球领先的基于云的人工智能公司,今日宣布,科洛巴恩(ColoBarn),一家在亚利桑那州和佛罗里达州提供机柜租用服务的知名提供商,已选择Iveda先进的人工智能技术,以加强其数据中心的物理安全。图片{ width=60% }


这一战略整合进一步强化了科洛巴恩维护和提升其行业领先安全标准的承诺。通过部署IvedaAI™,科洛巴恩正在将多种人工智能分析应用于外部摄像头,以实现全面的安全管理,包括入侵检测、人脸识别、车牌识别等功能。IvedaAI提供实时警报,增强了科洛巴恩员工和最终用户的门禁控制。

全球数据中心租用市场有望实现显著增长,估计从2022年的572亿美元增长到2030年的1,318亿美元。随着对安全可靠机柜租用服务的需求持续增长,像IvedaAI这样的创新解决方案将在满足不断发展的安全需求方面至关重要。

科洛巴恩正在提升其做出对潜在安全威胁做出积极反应的能力,最终优化运营并确保关键数据基础设施的安全环境。Iveda和科洛巴恩之间的合作在机柜租用服务的最佳安全标准方面树立了新的基准,因为两家公司继续引领数字转型和技术创新的道路。

科洛巴恩的首席执行官马修·施瑞弗(Mathew Shryver)表示:“在科洛巴恩,数据存放之处,安全是我们的最高优先事项。通过整合Iveda的人工智能技术,我们正在采取积极步骤,不仅保护客户宝贵的数据,还要在机柜租用安全方面确立新标准。Iveda的专业知识和创新解决方案与我们提供卓越服务和安全性的使命完美契合。”

Iveda的首席执行官兼创始人大卫·李(David Ly)补充道:“Iveda始终信任科洛巴恩处理我们自己的数据,我个人要赞扬科洛巴恩信任IvedaAI,以增强其数据中心的安全性。通过选择我们的人工智能技术,科洛巴恩展示了其作为真正创新者和行业领先者的角色。我们很高兴与科洛巴恩合作,设定机柜租用服务安全性和安全标准。”

要通过IvedaAI提高您的安全性和运营,请联系我们sales@iveda.com

注意:Title、Date、Body三个部分的内容,放入到对应的位置。最后只需要输出为Markdown源文件格式内容。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

《泰坦尼克号》导演卡梅隆,加入生成式AI赛道

文章来源:AIGC开放社区

图片来源:由GPTNB生成

Stability AI的首席执行官Prem Akkaraju宣布,全球最著名导演之一詹姆斯·卡梅隆,加入董事会。

卡梅隆表示,将利用其在电影制作领域的几十年深厚经验,帮助Stability AI在图像、视频等领域更进一步。


同时相信生成式AI将是下一代影视的主要制作工具。

图片来源:由GPTNB生成

卡梅隆曾在2023年被问及ChatGPT等生成式AI在电影制作中能否起到帮助作用。他当时表示对使用AI协助编写剧本不感兴趣,认为AI不太可能感动观众,写出的东西没有灵魂。

但他也承认,如果20年后一部由AI生成的剧本赢得了奥斯卡奖,好莱坞应该会对AI产生浓厚的兴趣。仅仅经过了一年的技术迭代,生成式AI就发生了翻天覆地的变化,同时改变了卡梅隆对这个技术的看法。

但卡梅隆还表达了他对AI的真正担忧是其武器化。在1984年拍摄《终结者》电影时他就非常关注AI的问题:“我在1984年就警告过你们,但你们没有听。我认为AI的武器化是最大的危险。我认为我们将进入AI军备竞赛,如果我们不建造它,其他人肯定会建造,然后它就会不断迭代升级。”

图片来源:由GPTNB生成

卡梅隆的职业生涯一直在探索新兴技术,并且每一次都为电影行业带来了技术革命。30年前,他站在CGI技术的前沿引领该技术的发展。现在,他看到了生成式AI和CGI图像创造的结合,认为这将是艺术家们讲述故事的全新方式。

目前,Stability AI的董事会成员一共有四位,分别是CEO Prem,Greycroft的联合创始人兼管理合伙人Dana Settle,Coatue Management的首席运营官兼普通合伙人Colin Bryant以及新加入的卡梅隆导演。

詹姆斯·卡梅隆是全球最著名的电影导演、编剧和制片人,1984年,卡梅隆凭借自编自导的科幻恐怖片《终结者》一炮而红。这部电影以其独特的故事和突破性的特效赢得了观众和评论家的一致好评,为其奠定了在好莱坞的地位。

1991年,卡梅隆执导并编剧的《终结者2:审判日》再次取得巨大成功,该片不仅在票房上大获成功,还因其开创性的CGI特效和动作场面而备受赞誉。

1997年,卡梅隆执导的爱情灾难片《泰坦尼克号》成为当时全球票房最高的电影。这部电影以1912年泰坦尼克号沉没事件为背景,讲述了一段感人至深的爱情故事。该影片在1998年的奥斯卡颁奖典礼上横扫11项大奖,包括最佳影片和最佳导演。

2009年,卡梅隆又执导并编剧的科幻电影《阿凡达》,再一次掀起了电影变革,将3D电影普及到全球各地。影片采用了最先进的3D技术和CGI效果,创造了一个前所未有的视觉奇观。

同时《阿凡达》再次刷新了全球票房纪录,并获得了九项奥斯卡奖提名,最终赢得了最佳艺术指导、最佳摄影和最佳视觉效果三项大奖。

Stability AI是目前最知名的开源大模型平台之一,其开源的文生图、文生视频等模型的下载量累计超过1亿次,尤其是Stable Diffusion系列模型是目前使用最多的文生图产品。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI连丢3高管,光杆司令奥特曼紧急扶持华人上位!半年流失15员大将

OpenAI又一轮震荡来了,1天之内3位高管离职。

就在CTO Mira官宣离职不久后,Altman亲自宣布了更多高层人事变动。


研究主管Bob McGrew、研究副总裁Barret Zoph也将离开OpenAI。

Mira、Bob和Barret是各自独立且友好地做出了这些决定。
但由于Mira决定的时机,使得我们现在一起宣布这些变化更加合理,这样我们可以共同努力,顺利交接给下一代领导团队。

在OpenAI内部发布通知后,Altman马上把最新情况对外同步给所有人。

网友们感慨,这距离去年Altman“熹妃回宫”大戏也才不到1年,曾经支持他的人也走了一些。

量子位不完全统计,2024年OpenAI已经流失了十余位高管/核心技术人员。

与此同时,OpenAI也迎来新一代领导格局。

其中最值得关注的是Mark Chen上位,成为新的研究高级副总裁(SVP of Research),与首席科学家Jakub Pachocki一起领导研究工作。

对于当下的变化,Altman表示自己也不想假装镇定。毕竟Mira也是早上才通知了他离职的决定。

为啥突然提?理由也给了:不突然的话,消息肯定被泄露,还不如突然点。

Altman接受了这个理由。并表示他们几个人下午五点半还聚会了一下。明天OpenAI将召开全体会议,届时将回答所有疑问。

首席战略官Jason Kwon也发推表示:再也找不到比Mira更好的搭档了。

但另一边,有消息称OpenAI正在讨论给予Altman 7%的公司股权,并重组为盈利性企业。这意味着Altman将首次获得OpenAI的所有权。

△“混乱是阶梯”,出自《权力的游戏》

OpenAI“第三次分裂”

目前最新离职的两位高层在推特上回应这一消息。二人表示是时候离开了,但都没有提及下一站去哪。

Bob McGrew自2017年1月加入OpenAI,2018年从技术人员晋升为研究副总裁,之后担任研究主管。

他负责领导OpenAI的研究工作,建立“世界上最强大的模型,然后让全世界通过ChatGPT和API使用它们”。

前不久,他还和o1团队一起接受采访,揭秘背后开发细节。

对于离职他表示:

在OpenAI的这八年经历让我始终谦卑且充满敬畏。2017年1月我加入的这个小型非营利组织,现已成为世界上最重要的研究开发公司。
我非常享受与一群聪明、敬业的同事一起工作——世界上没有其他地方能与之相比。我对我们研究团队这些年来的工作感到无比自豪,从早期在强化学习领域的成就,到开创性地研发大规模语言模型,再到构建第一个多模态生成模型,最后用ChatGPT改变世界。
现在是我该休息的时候了。没有什么比推出o1(OpenAI的一个项目)更能完美总结我在这里的工作了。
接下来,Mark Chen将作为高级副总裁领导研究团队,Jakub将继续担任首席科学家。在接下来的两个月里,我将继续支持Mark、Jakub和团队完成过渡工作。我对他们的领导能力充满信心,相信他们能将OpenAI的研究推进到AGI及更远的领域。我迫不及待地想看到这个团队接下来的表现。

另一位离职高管是Barret Zoph。

他自2022年加入OpenAI,从零开始搭建并领导后训练团队。

之前OpenAI发布Her时上台演示视频通话,因为延迟被AI当成木头桌子的那个人就是他。

如今Her已全量开放给付费用户,也到了他离开的时候。

对于离职,Zoph表示这是基于个人职业发展需求下的决定。
大家好,我决定离开OpenAI。
这个决定非常困难,因为我在OpenAI度过了一段难以置信的时光。我在ChatGPT发布之前加入,并与John Schulman和其他人一起从零开始建立了后训练团队。我非常感激有机会领导后训练团队,帮助构建和扩展ChatGPT到今天的规模。现在对我来说,似乎是时候在OpenAI之外探索新的机会了。这是一个基于我个人职业发展需求的决定。
我非常感激OpenAI给我的所有机会,以及Sam和Greg等领导层对我的支持。特别感谢Bob为我所做的一切,他是我在OpenAI职业生涯中一位出色的经理和同事。后训练团队有很多优秀的领导者,我相信他们会继续把团队管理好。
OpenAI正在并将继续做出令人难以置信的工作,我对公司的未来充满乐观,并会一直为大家加油。

随着Barret的离开,OpenAI员工感慨,这是OpenAI的第三次分裂,后训练团队也分崩离析。

这里OpenAI的第一次分裂,指Amodei兄妹带领大批GPT-3研究成员出走,建立Anthropic,后来发布Claude模型,成为OpenAI最大的竞争对手之一。

而上个月,和Barret一起建立后训练团队的John Schulman,去向正是Anthropic。

新格局已形成

伴随着几位高层离职,新的格局也已形成。

Mark Chen接下来将担任高级研究副总裁。

他自2018年来加入OpenAI,此前职位是研究副总裁,为主管前沿研究,并且是美国IOI教练。

他核心参与了DALL・E、GPT-4、o1等模型开发。

此前4o的发布演示中就有他。

接下来他将和Jakub Pachocki共同领导OpenAI的研究工作。

Jakub Pachocki于2017年加入OpenAI,一开始领导Dota组,后负责推理、深度学习等团队,是ChatGPT、GPT-4等模型的核心贡献者之一。他整体负责了GPT-4项目,也是优化团队负责人。

今年5月,他接任Ilya晋升为首席科学家。

Joshua Achiam将成为新的对齐团队负责人。该团队将保障OpenAI的研究始终安全正确,以实现其终极使命。

他2017年来OpenAI实习,后续转正为研究科学家。一直致力于AI安全领域研究。

今年5月,随着Ilya和RLHF发明人之一Jan Leike相继离职,OpenAI超级对齐团队分崩离析。

Kevin Weil和Srinivas Narayanan将继续领导应用团队。

Kevin Weil今年6月才加入OpenAI,担任CPO(首席产品官)。

Srinivas于2023年加入,担任工程副总裁,领导OpenAI工程工作,包括ChatGPT、开发者平台以及相关基础设施支持工作。

Matthew Knight将担任首席信息安全官。

他于2020年加入OpenAI,领导安全、IT以及安全隐私方面研究及工程工作。

最后,附上Altman原文:

ChatGPT翻译如下。

我刚刚在OpenAI发布了这则通知:
大家好,
过去6年半里,Mira对OpenAI的发展和成长起到了至关重要的作用。她是我们从一个默默无闻的研究实验室发展成一家重要公司的重要因素之一。
今天早上Mira告诉我她要离开时,我感到很难过,但当然支持她的决定。在过去的一年里,她一直在培育一批优秀的领导者,他们将继续推动我们的进步。
我还想告诉大家,Bob和Barret也决定离开OpenAI。Mira、Bob和Barret是各自独立且友好地做出了这些决定。但由于Mira决定的时机,使得我们现在一起宣布这些变化更加合理,这样我们可以共同努力,顺利交接给下一代领导团队。
我对他们的贡献表示极大的感激。
在OpenAI做领导者是全身心投入的。一方面,能够构建AGI并将我们的先进研究成果带给数亿人,是一种荣幸;另一方面,带领团队完成这些任务是非常艰辛的——他们为公司付出了超乎寻常的努力。
Mark将成为我们的新研究高级副总裁,并将与首席科学家Jakub一起领导研究组织。这是我们长期以来为Bob规划的继任方案;虽然这一变动比我们预期的要早,但我对Mark接任这一角色感到非常兴奋。Mark显然具有深厚的技术专长,过去几年里他还学会了如何成为一名出色的领导者和管理者。
Josh Achiam将担任新的使命对齐负责人,在整个公司范围内确保我们能够正确处理所有事项(包括文化),以实现我们的使命。Kevin和Srinivas将继续领导应用团队。
Matt Knight将担任我们的首席信息安全官,他已经在这个岗位上工作了很长时间。这一直是我们的计划。
Mark、Jakub、Kevin、Srinivas、Matt和Josh将向我汇报。过去一年左右的时间里,我主要关注我们组织的非技术部分;现在我期待着将大部分时间投入到公司的技术和产品部分。
今晚5:30,我们将在575聚会,Mira、Bob、Barret和Mark都会在场。这是为了表达我们的感激之情,并回顾我们共同取得的成果。明天我们会召开全体会议,可以在会上回答任何问题。日程邀请将很快发送。
领导层的变动是公司发展过程中自然的一部分,尤其是那些快速成长且要求高的公司。我不会假装这次变动如此突然是正常的,但我们不是一个普通的公司,我认为Mira向我解释的原因(永远没有合适的时机,任何不突然的决定都会泄露,她希望在OpenAI正处于上升期时行动)是合理的。我们可以在明天的全体会议上进一步讨论这件事。
感谢大家的辛勤工作和奉献。
Sam

参考链接:
[1]https://x.com/sama/status/1839096160168063488
[2]https://x.com/bobmcgrewai/status/1839099787423134051?s=46&t=iTysI4vQLQqCNJjSmBODPw
[3]https://x.com/barret_zoph/status/1839095143397515452?s=46&t=iTysI4vQLQqCNJjSmBODPw

页面图片仅作参考。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

生成式AI与版权保护:问题、争议与思考

文章来源:出版发行研究

图片来源:由GPTNB生成

自2022年11月美国OpenAI公司推出ChatGPT以来,生成式人工智能技术迅速崛起,并广泛应用于版权创作领域。生成式人工智能在提升内容创作效率、赋能文化创意产业发展的同时,也引发了新的版权争议和理论探讨。


在生成式人工智能涉及的众多版权问题之中,“人工智能生成的内容能否构成作品,进而受到版权法保护”一直是各方关注的焦点。本文从生成式人工智能领域的国内外诉讼纠纷着眼,聚焦“人工智能生成内容可版权性”议题,并尝试提出具有可行性的规则应对建议,供后续进一步探讨。

本文链接:https://www.aixinzhijie.com/article/6845498
转载请注明文章出处

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Llama-4使用10万块GPU训练、更好开源,扎克伯格亲口确认!

全球最大社交平台Meta(Facebook、Instagram、WhatsApp等母公司)联合创始人兼CEO扎克伯格接受了,前Vox著名记者Cleo Abram的专访。

主要谈到了Meta最新发布的变革性产品全息AR眼镜,开源大模型、生成式AI的发展以及全球开发者非常关心的Llama-4。


扎克伯格亲口确认了Llama-4使用了超过10万个GPU进行训练。目前Meta公开的算力是60万块GPU,也就是说Llama-4已经成为Meta的主力拳头产品,使用更多的GPU训练有助于突破AI极限。

扎克伯格认为AI大模型的极限非常高,远没有达到尽头。例如,Llama 3使用了2万块GPU进行训练;Llama 4使用了超10万块GPU,Llama 5则会使用更多。这就是说在如此多的GPU训练下,模型的性能和商业潜力会进一步被人类挖掘。

Meta又开源了首个多模态大模型Llama-3.2,这是Llama-3系列的一次重大升级,一共有4个版本。

1B和3B参数专为边缘和移动设备设计,而较大的11B和90B参数模型为 Llama 生态系统带来了新的视觉能力。

1B 和 3B支持 12K 令牌的上下文长度,擅长总结、指令遵循和文本重写等任务,并且能在移动设备上本地运行。更重要的是,这些轻量级模型发布时便对高通和联发科的硬件进行了适配,并针对 Arm 处理器进行了优化,广泛的兼容性将加速其在各种移动和物联网设备中的应用。

Meta 提供了多种编程语言的客户端代码,包括 Python、Node.js、Kotlin和 Swift,以实现与不同应用和平台的集成。

Llama Stack 具有部署灵活性,为 Distribution Server 和 Agents API Provider 提供预制 Docker 容器以减少配置错误,并针对不同运营规模提供从单机单节点分布到与 AWS、Databricks、Fireworks 和 Together AI 合作的可扩展云部署等解决方案。在 iOS上通过 PyTorch ExecuTorch 提供设备端分布,方便开发直接在移动设备上运行的AI 应用。

由于安全、合规或性能考虑需要内部AI能力的公司可以利用Dell Technologies支持的本地分发。可通过将多个API提供商打包到一个单一端点,并与合作伙伴合作以适应Llama Stack API,Meta为这些多样化环境中的开发者创造了一致且简化的体验。

这种方法显著降低了构建Llama模型的复杂性,加速了AI在广泛的应用程序和用例中的创新。

开源地址:https://www.llama.com/?utm_source=twitter&utm_medium=organic_social&utm_content=video&utm_campaign=llama32

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Llama-4使用10万块GPU训练、更好开源,扎克伯格亲口确认!

全球最大社交平台Meta(Facebook、Instagram、WhatsApp等母公司)联合创始人兼CEO扎克伯格接受了,前Vox著名记者Cleo Abram的专访。
主要谈到了Meta最新发布的变革性产品全息AR眼镜,开源大模型、生成式AI的发展以及全球开发者非常关心的Llama-4。


扎克伯格亲口确认了Llama-4使用了超过10万个GPU进行训练。目前Meta公开的算力是60万块GPU,也就是说Llama-4已经成为Meta的主力拳头产品,使用更多的GPU训练有助于突破AI极限。

扎克伯格谈Llama-4
扎克伯格认为AI大模型的极限非常高,远没有达到尽头。例如,Llama 3使用了2万块GPU进行训练;Llama 4使用了超10万块GPU,Llama 5则会使用更多。这就是说在如此多的GPU训练下,模型的性能和商业潜力会进一步被人类挖掘。
它可能会在某个时候达到了一个极限,就像以前的系统一样存在一个渐近线,不会继续增长。但也有可能这个极限不会很快到来,我们可以继续构建更多的算力集群,生成更多的合成数据来训练模型,并且在相当长的一段时间内它们对人们变得越来越有用。
所以,这对于大模型赛道的玩家来说非常非常重大且高风险。因为我们需要对未来需要构建多少基础算力设施进行押注,这对于Meta这样的超大规模企业会涉及数千亿美元投资。
同时随着这种大规模GPU训练的出现,模型的性能可能会发生实时性的变化,可能架构会再一次发生根本性变化(例如,出现比Transformer、Mamba架构更好),这个时间点可能很快会到来。
扎克伯格相信在大模型、生成式AI领域,未来20年的竞争格局可能会实时变化(例如,现如今的领头羊是OpenAI,那时可能就是别人了)。

在整个完整的采访中,扎克伯格还谈到了Meta最新发布的颠覆性产品全息AR眼镜。这是Meta花费了 10 年研发,将所有计算设备小型化装进眼镜中,使其能在广阔视野中呈现全全息图。
这个眼镜可以让人们在未来进行类似真实在场的交流,比如我和你可能一个在物理位置,一个以全息图形式交流,还能互动、工作、玩游戏等,会重塑工作、科学、教育、娱乐等多个领域。这只是第一个原型版本还会继续改进,让它更便宜、质量更高、更小、更时尚,希望能做成像电脑一样大众能普遍接触到的产品。
还有类似抬头显示器的产品,视野较小,在与人工智能对话等方面有价值;而全全息增强现实眼镜会是最高端、较昂贵但有潜力普及的产品。混合现实头戴式设备也会继续存在,因为它能容纳更多计算能力。Meta的使命是让技术普及,像推出价格较低但高质量的 Quest 3S 等混合现实头戴式设备。

在 AI 方面,扎克伯格觉得有两个重要价值:在增强现实和混合现实这边,主要是带来在场感,就是和另一个人真正在场的那种深刻感觉,这是目前其他技术给不了的,人们体验虚拟或混合现实时的本能反应其实就是对这种在场感的反应。
Meta专注设计社交应用 20 年,就是想建立能提供这种社交在场感的技术平台。但实现全面的在场感还面临一些挑战,例如,触觉方面,从手开始实现较为重要,现在用控制器有初步版本未来会更好,像打乒乓球演示中能感受球击中球拍,但像柔道那种需要真实力反馈的运动在虚拟现实中实现较难。
还有很多因素会影响在场感,比如视野、延迟、物理表现等,任何一个环节出错都可能破坏在场感,像人们对物理真实的接受度也有差异,例如,在化身方面,不同风格的化身与不同类型世界的融合有有趣的效果,这需要在技术上全面且出色地实现,是长期项目,也能帮助我们了解人类大脑对真实的认知。
另一个大方向是个性化 AI,Llama 和 Meta AI 等都在朝这个方向发展。模型会越来越智能,但关键是为用户个性化,这就需要它有背景,理解用户生活中发生的事,而眼镜是理想外形因素,因为它能看到用户所见、听到用户所听,获取信息和背景。
在 AI 的使用场景方面,存在一个类似光谱的情况。一方面,像实时自动翻译(如星际迷航中的通用翻译器)等技术能消除人与人之间的交流障碍,虽然有人担心这会让人减少学习语言,但实际人们仍会学习拉丁语和希腊语等。
另一方面,在教育等领域,努力和挣扎本身有其意义,例如,孩子和成人在情感表达上的挣扎,AI 可作为帮助他们表达情感的方式,但这也引发了关于在哪些方面应保留努力和挣扎以促进个人发展的思考,比如在编程和语言学习上,虽然未来有强大的AI工具,但教孩子编程有助于培养严谨思维,语言学习虽功能性可能降低但对思维和文化理解有帮助,人们需要根据未来变化选择要重点学习的内容。
AI 会加速社交媒体的变化,使其从以朋友互动为主转向更多与创作者或非熟人内容互动。AI 会为人们提供更多创作工具,朋友能制作更有趣的内容,创作者能利用更先进工具制作更吸引人的内容,还会有纯 AI 生成的个性化内容,以及 AI 创作者和创作者制作的 AI 版本自己与粉丝互动等新形式,这将是一个深度探索的领域,AI 会像互联网一样改变几乎每个领域和应用程序的每个功能,带来大量创新和令人兴奋的变化,但也引发了对变化速度和影响的担忧。

关于大模型开源,扎克伯格认为开源意味着人们可以构建很多不同的东西。一些公司希望打造一个通用的 AI 系统供人们使用,但我觉得未来会有很多不同的 AI 系统,就像有很多不同的应用程序一样,每个企业、创作者等都会有自己的 AI。
开源能让每个人都可以修改模型并在其基础上构建东西,与闭源模型的集中式方法不同。在安全方面,有人认为封闭模型更安全,但历史上开源软件往往更安全,因为更多人可以审查,问题能更快被发现和解决,就像 Llama 模型不断升级一样,开源能让模型更智能、更安全,为更多人所用,开源可能会带来更繁荣和安全的未来。

开源多模态大模型Llama-3.2
Meta又开源了首个多模态大模型Llama-3.2,这是Llama-3系列的一次重大升级,一共有4个版本。
1B和3B参数专为边缘和移动设备设计,而较大的11B和90B参数模型为 Llama 生态系统带来了新的视觉能力。
1B 和 3B支持 12K 令牌的上下文长度,擅长总结、指令遵循和文本重写等任务,并且能在移动设备上本地运行。更重要的是,这些轻量级模型发布时便对高通和联发科的硬件进行了适配,并针对 Arm 处理器进行了优化,广泛的兼容性将加速其在各种移动和物联网设备中的应用。
11B和90B视觉模型是 Llama首次发布的多模态大模型,能理解和推理图像,实现文档分析、图像字幕和视觉问答等任务。Meta 报告其性能在图像识别和视觉理解基准测试中与领先的闭源模型具有竞争力。新的视觉模型可作为现有纯文本模型的直接替代品,方便开发者为现有基于 Llama 的应用添加图像理解功能。
除了新开源的模型,Meta 还推出了 Llama Stack Distribution 以简化开发者和企业围绕 Llama 构建应用的流程。其核心是 Llama CLI,这是一个命令行界面,简化了构建、配置和运行 Llama Stack 分布的过程。
Meta 提供了多种编程语言的客户端代码,包括 Python、Node.js、Kotlin和 Swift,以实现与不同应用和平台的集成。
Llama Stack 具有部署灵活性,为 Distribution Server 和 Agents API Provider 提供预制 Docker 容器以减少配置错误,并针对不同运营规模提供从单机单节点分布到与 AWS、Databricks、Fireworks 和 Together AI 合作的可扩展云部署等解决方案。在 iOS上通过 PyTorch ExecuTorch 提供设备端分布,方便开发直接在移动设备上运行的AI 应用。
由于安全、合规或性能考虑需要内部AI能力的公司可以利用Dell Technologies支持的本地分发。可通过将多个API提供商打包到一个单一端点,并与合作伙伴合作以适应Llama Stack API,Meta为这些多样化环境中的开发者创造了一致且简化的体验。
这种方法显著降低了构建Llama模型的复杂性,加速了AI在广泛的应用程序和用例中的创新。

开源地址:https://www.llama.com/?utm_source=twitter&utm_medium=organic_social&utm_content=video&utm_campaign=llama32



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB