SambaNova Systems & Solidus AI Tech将为Web 3.0带来高速人工智能

SambaNova Systems,拥有最快的模型和最先进芯片的生成式人工智能解决方案公司,宣布与Solidus AI Tech合作,将在Web 3.0领域改变人工智能能力。图片{ width=60% }


此次合作将为Solidus AI Tech的市场和位于欧洲的HPC数据中心提供SambaNova Cloud无与伦比的人工智能推理和微调速度。
该数据中心将是为Web 3.0和Web 2.0企业提供全球最快人工智能推理服务的关键支柱。AI Marketplace预计将于9月上线,将提供高性能、可扩展的环境,用于访问先进的人工智能模型和解决方案。SambaNova Cloud将为市场提供无缝的人工智能运作,包括模型的微调和实时推理,为企业和开发人员创造一个具有颠覆性影响的平台。
Solidus AI Tech的共同创始人兼首席执行官Paul Farhi表示:“通过Solidus AI Tech和SambaNova Systems的强强联合,人工智能领域即将迎来一次重大飞跃。对于人工智能开发人员、企业和Web 3.0爱好者来说,Solidus AI Tech AI Marketplace代表着人工智能可访问性和性能的下一个进化阶段。”
SambaNova Systems的首席增长官Su Le表示:“人工智能和Web3的融合正在颠覆数字化领域,我们很高兴能够站在这一变革的前沿。与Solidus AI Tech合作使我们能够扩大我们的创新社区,并解锁分散智能的新可能性。”
这一整合将在各行业,包括医疗保健、金融、物流和娱乐等领域,实现更快速、更高效的人工智能解决方案。通过SambaNova Cloud,Solidus AI Tech的Marketplace将使企业能够通过人工智能释放真正的增长潜力。
在发布之前,Solidus AI Tech将对AI Marketplace进行早期注册。首个5,000名注册者将获得独家福利。详情将于2024年9月18日在新加坡的TOKEN2049活动上宣布。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Astronomer扩大在EMEA地区的全球影响力

随着Apache Airflow的贡献者超过3,000人,Astronomer加大投资力度,推动商业关键数据管道和人工智能项目在该地区的发展。图片{ width=60% }


Astronomer是Astro平台的公司,Astro是由Apache Airflow®提供支持的领先数据编排和可观察平台。今天宣布,Astronomer正在扩大其在EMEA地区的存在,计划很快建立一个永久性的区域办公室。这一战略性扩张是由该地区成熟的Airflow市场、对Astro日益增长的需求以及公司对现有EMEA客户(如Booking.com和Pleo)的承诺驱动。
EMEA地区的Astronomer客户将受益于增加的本地化支持,同时Apache Airflow社区将看到Astronomer在该地区的活动增加。该公司已在整个EMEA地区设有关键的Apache Airflow贡献者和工程师,以帮助客户最大限度地发挥其Airflow投资的价值,并协助即将启动的数据项目。Astronomer刚刚宣布了Astro Observe的私人预览,这使得任何使用Airflow的团队现在都可以访问可以操作的数据供应链视图,并将Astronomer延伸至数据编排以外的数据操作平台。此外,Astronomer最近推出了Astro上的dbt,这标志着首次将平台扩展至Airflow以外,并为客户提供了一个完全托管的部署dbt和Airflow的方法。
“Astronomer的首席执行官Andy Byron表示:‘数据是分析和人工智能的主要构建模块,并推动现代企业的竞争优势。我们在Astronomer所做的一切都确保我们的客户能够利用他们的数据成为执行业务策略的决定性因素。对EMEA的进一步承诺意味着我们在该地区的现有和未来客户将看到世界一流的支持,无论他们的数据策略是什么。’”
Airflow是行业中表达管道和编排数据流的代码的事实标准。Airbnb于2014年创建了Airflow作为一个开源项目,2016年将其纳入Apache软件孵化器计划,并在2019年宣布其为Apache顶级项目。现在,Airflow被广泛认可为行业领先和最先进的工作流管理和编排解决方案。
“Booking.com以前依赖开源Airflow进行机器学习和分析工作流,但很快发现我们需要Astro才能提供的其他企业级功能,”Booking.com数据机器学习平台总监Huy Dao说,“在数据基础设施管理方面,Astronomer一直是帮助的主要合作伙伴,特别是因为我们将Airflow用于许多GenAI倡议,比如我们的AI旅行规划器。数据系统的可伸缩性以及执行工作流所有权的能力是关键挑战,Astronomer在这两个需求上都有所作为。”
Airflow已经超过了3,000名贡献者,这一数字比其他流行的Apache开源软件如Apache Spark®和Apache Kafka®的总和更高。EMEA地区每月Airflow下载量超过360万次,这一数字随着时间的推移不断增长。这与2024年《Apache Airflow现状报告》中所指出的指数级增长一致,该报告发现去年Airflow的年度下载量同比增长了67%。
“Astronomer在EMEA加大投资之际,我发现在与客户初期讨论中出现了两个共同主题,” Astronomer的EMEA区域副总裁Phil Duggan说,“首先,客户希望制定一个战略,使其业务能够更快地发展,提高其数据产品的可靠性和信任度,同时加快开发速度并控制成本。其次,组织希望利用其数据来在不断发展的生成式人工智能景观和事件驱动用例中获得竞争优势。我们很高兴通过Astro帮助更多的EMEA公司应对这些共同挑战,Astro是唯一一个可以完整编排管道和数据产品的平台。”
“EMEA一直是Airflow创新和广泛采用的热点,因此我们很高兴扩大Astronomer在该地区的存在,以更好地服务我们的客户,” Astronomer高级工程总监、Apache Airflow PMC成员和核心贡献者Kaxil Naik表示,“Astro的企业级功能使公司能够将Airflow置于其数据操作的核心,确保可靠地交付任务关键的数据管道和产品,同时还应对欧洲的复杂监管框架,包括符合类似《网络韧性法案》等新兴法规。”
要从Astronomer获得免费的Airflow健康检查,请点击此处访问以下资源。
更多资源:

  • 注册参加10月3日在伦敦举行的Airflow论坛
  • 本周在伦敦大数据展的Astronomer展位X446
  • 接收免费的Airflow健康检查
  • 下载Astronomer关于数据产品时代全栈编排的白皮书
  • 尝试Astro,现在提供14天免费试用。


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

阿里史上最大规模开源发布,超GPT-4o 、Llama-3.1!

今天凌晨,阿里巴巴官宣了史上最大规模的开源发布,推出了基础模型Qwen2.5、专用于编码Qwen2.5-Coder和数学的Qwen2.5-Math。

这三大类模型一共有10多个版本,包括0.5B、1.5B、3B、7B、14B、32B和72B,适用于个人、企业以及移动端、PC等不同人群不同业务场景的模型。


如果不想进行繁琐的部署,阿里还开放了旗舰模型Qwen-Plus 和 Qwen-Turbo的API,帮助你快速开发或集成生成式AI功能。

图片来源:由GPTNB生成

开源地址:https://huggingface.co/collections/Qwen/qwen25-66e81a666513e518adb90d9e

Github:https://github.com/QwenLM/Qwen2.5?tab=readme-ov-file

在线demo:https://huggingface.co/spaces/Qwen/Qwen2.5

API地址:https://help.aliyun.com/zh/model-studio/developer-reference/what-is-qwen-llm

下面「AIGC开放社区」详细为大家介绍这些模型的性能特点以及测试结果。

Qwen2.5系列性能测试

本次阿里开源的最大版本指令微调模型Qwen2.5-72B在MMLU-Pro

MMLU-redux、GPQA、MATH、GSM8K、HumanEval、MBPP等全球知名基准测试平台的测试结果显示。

虽然Qwen2.5只有720亿参数,但在多个基准测试中击败了Meta拥有4050亿参数的最新开源Llama-3.1指令微调模型;全面超过了Mistral最新开源的Large-V2指令微调模型,成为目前最强大参数的开源模型之一.

图片1

即便是没有进行指令微调的基础模型,其性能同样超过Llama-3-405B.

图片2

阿里开放API的旗舰模型Qwen-Plus,其性能可以媲美闭源模型GPT4-o 和Claude-3.5-Sonnet.

图片3

此外,Qwen2.5系列首次引入了140 亿和320亿两种新参数模型,Qwen2.5-14B 和 Qwen2.5-32B.

指令微调模型的性能则超过了谷歌的Gemma2-27B、微软的Phi-3.5-MoE-Instruct,与闭源模型GPT-4o mini相比,只有三项测试略低其他基准测试全部超过.

图片4

自阿里发布CodeQwen1.5 以来,吸引了大量用户通过该模型完成各种编程任务,包括调试、回答编程相关的问题以及提供代码建议.

本次发布的Qwen2.5-Coder-7B指令微调版本,在众多测试基准中,击败了那些知名且有较大参数的模型.

图片5

前不久阿里首次发布了数学模型Qwen2-Math,本次发布的Qwen2.5-Math 在更大规模的高质量数学数据上进行了预训练,包括由 Qwen2-Math 生成的合成数据。同时增加了对中文的支持,并通过CoT、PoT和 TIR的能力来加强其推理能力.

其中,Qwen2.5-Math-72B的整体性能超越了Qwen2-Math-72B指令微调和著名闭源模型GPT4-o.

图片6

其实从上面这些测试数据不难看出,即便是参数很小的模型,在质量数据和架构的帮助下,同样可以击败高参数模型,这在能耗和环境部署方面拥有相当大的优势。而阿里本次发布的Qwen2.5系列将小参数模型的性能发挥到了极致.

Qwen2.5系列简单介绍

Qwen2.5系列支持中文、英文、法文、西班牙文、葡萄牙文、德文、意大利文、俄文、日文等超过29种主流语言。与 Qwen2类似,Qwen2.5语言模型支持高达 128K tokens,并能生成最多 8K tokens的内容.

与Qwen-2相比,Qwen2.5系列的预训练数据大幅度增长达到了惊人的18万亿tokens,超过了Meta最新开源Llama-3.1的15万亿,成为目前训练数据最多的开源模型.

知识能力显著增强,Qwen2.5在 MMLU 基准测试中,与 Qwen2-7/72B 相比从70.3提高到74.2,从84.2提高到86.1. Qwen2.5 在 GPQA/MMLU-Pro/MMLU-redux/ARC-c 基准测试上也有显着改进.

图片7

Qwen2.5能够生成更符合人类偏好的响应,与Qwen2-72B-Instruct相比,Qwen2.5-72B-Instruct的Arena-Hard分数从48.1显着提高到81.2 ,MT-Bench分数从9.12提高到9.35.

数学能力获得增强,在融合了Qwen2-math的技术后,Qwen2.5的数学能力也得到了快速提升。在MATH基准上,Qwen2.5-7B/72B-Instruct的得分从Qwen2-7B/72B-Instruct的52.9/69.0提高到75.5/83.1.

此外,Qwen2.5在指令跟踪、生成长文本(从1k增加到超过8K标记)、理解结构化数据(例如表格)以及生成结构化输出(尤其是JSON)方面实现了显着改进。同时对系统提示的多样性更具弹性,增强了聊天机器人的角色扮演实施和条件设置.


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

图灵奖得主Bengio、姚期智等警告:“灾难性结果”随时可能发生,需将AI安全视为全球公共产品

如今,AI大模型引发的潜在风险,已成为日益严峻的焦点问题,正受到来自全球各界的关注。日前,三位图灵奖得主 Yoshua Bengio、Geoffrey Hinton、姚期智,与来自世界各地的几十位科学家共同签署了一封公开信——“AI 安全国际对话威尼斯共识”,呼吁为推动人工智能的发展制定更好的保障措施。


他们在公开信中警告道,“随着人工智能的快速发展,这些‘灾难性的结果’随时可能发生”。

其他核心观点如下:

  • 由于人工智能带来的风险具有全球性,我们必须将人工智能安全视为全球公共产品,并为实现这些风险的全球治理而努力。
  • 各国需要在现有的努力上迈出更大步伐。作为第一步,各国应设立有能力在其境内监测和应对人工智能事故与灾难性风险的部门。
  • 前沿人工智能开发者必须向本国监管部门证明,其所开发或部署的系统不会逾越红线,例如在 AI 安全国际对话北京共识中所界定的红线。
  • 就人工智能安全研究和治理采取协调一致的全球行动,对于防止不受控制的人工智能前沿发展给人类带来不可接受的风险至关重要。

完整中文版“共识”内容请查看原文章。来源:原文链接

图片1

图片2

图片3

图片4

图片5

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

为何开发者们纷纷弃用谷歌Gemini

本文来源:AI新智能
原文链接:https://mp.weixin.qq.com/s/x2KC93PZm_1-LmoyoLbyxA

图片来源:由GPTNB生成

根据与开发者和帮助企业使用人工智能的多位谷歌员工的采访,谷歌的对话式AI“Gemini”相比竞争对手的技术而言,对应用开发者和企业来说过于复杂,难以使用。

Topology初创公司创始人艾登·麦克劳克林便是其中之一。


他的公司专注于开发提升现有AI模型推理能力的软件。麦克劳克林表示,首次使用OpenAI的应用程序接口只花了30秒,而使用谷歌的Gemini却耗费了4个小时,因为谷歌要求他设置一个云账户并进行大量配置。此外,谷歌系统中的一些漏洞有时还迫使他不得不回退。

他表示:“如果谷歌的模型远远优于OpenAI和Anthropic的产品,我愿意跳过所有这些障碍。”但他补充道:“最重要的是模型的性能有多好,然而除了少数特殊情况,谷歌的模型似乎只能排在第三。”

开发者在使用Gemini时遇到的困难对谷歌的云业务也有影响,谷歌希望通过Gemini吸引更多客户使用其服务器租赁服务。部分谷歌员工认为,这些问题还可能影响Gemini本身的开发。

OpenAI通过吸引大量付费用户购买其AI模型或使用ChatGPT,获得了大量关于其AI性能的隐性和显性反馈,从而进行改进。如果谷歌的Gemini无法达到同样的使用量,该公司可能在制定改进计划时面临更多不确定性。

两名曾参与Gemini开发的员工表示,这可能还会影响谷歌为其消费者产品和广告产品开发Gemini模型的进程,特别是在搜索引擎和语音助手中提供对话式回答的功能。

Abacus AI公司首席执行官宾杜·雷迪表示:“让开发者使用Gemini解决复杂的现实世界问题……是为下一代Gemini提供至关重要的反馈。使用越多,改进的效果越好。”她还指出,尽管Gemini今年取得了巨大进步,但在支持企业AI应用方面,其可靠性仍不如竞争对手的模型。

谷歌发言人表示,开发者反馈对于改进Gemini模型非常重要,但这并非唯一的数据来源。部分AI研究人员认为,通过让AI向各个领域的专家学习,也可以带来显著的进步。

无论是小型开发者还是大公司,都在使用像OpenAI的GPT-4这样的大型语言模型开发各种应用,涵盖从自动化客服、数据分析到欺诈检测和生成计算机代码的广泛领域。OpenAI和微软每月通过向开发者销售大型语言模型大约创造1亿美元的收入,客户包括量化交易公司Jane Street、摩根士丹利等银行以及金融科技公司Stripe等。

谷歌列举了几家使用Gemini的客户,包括梅赛德斯-奔驰、高盛集团和优步。这些公司表示,AI用于从客户服务到代码辅助等各个领域,但具体的采购规模尚未得知。(谷歌此前设定了今年在北美通过AI云服务创造10亿美元收入的目标,但其销售的AI服务不止限于LLM。)

Alphabet公司首席执行官桑达尔·皮查伊在7月的第二季度财报电话会议上表示,自年初以来,已有超过200万名开发者使用了Gemini,但并不清楚其中是否包括仅尝试过一次或两次的开发者。

相较于OpenAI的模型,Gemini在开发者中的不受欢迎似乎在谷歌内部和外界已是公开的秘密。

1、对比分析

例如,企业软件初创公司Retool在6月对超过750名科技工作者进行的调查显示,只有2.6%的受访者表示他们最常使用谷歌的Gemini来构建AI应用程序,而使用OpenAI的比例高达76%。虽然Gemini略微领先于Anthropic的Claude(后者的使用率为2.3%),但Retool公司指出,Claude的使用率自2023年11月报告以来已增长了四倍多。(Gemini直到一个月后才对开发者开放。)

Similarweb的数据显示,从6月到8月,OpenAI的开发者页面获得了8280万次访问,而谷歌在同期仅有840万次浏览量。

一些小规模的非正式调查也提供了类似的证据。上月底,Finetune初创公司创始人朱利安·萨克斯在旧金山的共享办公空间内询问了50位AI初创公司开发者,他们主要使用的对话式AI模型是什么。几乎所有人都表示他们大多使用Anthropic或OpenAI的模型,而没有人主要使用Gemini。对此,萨克斯并不感到惊讶。

他表示:“我觉得在编程方面,Gemini无法与其他模型相比。”

谷歌花了近一年时间,经过一次重大重组,才推出了可以与OpenAI的GPT-4竞争的模型,而后者早在2023年初就已发布。谷歌在2023年12月开始向开发者提供Gemini模型,虽然在一些流行的对比评估中,其表现接近OpenAI的模型,但OpenAI的先发优势使其在开发者中树立了知名度。

一些谷歌员工认为,今年另一家年轻的AI公司Anthropic也凭借开发者之间的口碑营销快速崛起,许多开发者推荐Claude作为OpenAI模型的替代品,尤其是在编程辅助方面。

2、“Gemini令人困惑”

Gemini似乎未能引起太多关注。开发者表示,Gemini模型在分析长篇文档或代码库时非常有用,因为它们能够一次处理比其他模型更多的信息。然而,开发者也指出,谷歌使得使用这些模型比竞争对手更加复杂,原因在于其提供的选项种类繁多、某些选项需要的步骤较多,以及其开发者系统与OpenAI相比存在的其他差异。

有时,谷歌为使用Gemini提供的不同选项甚至会在搜索结果中相互竞争。据一名知情人士透露,今年春天的一段时间里,谷歌推广给大企业使用Gemini的服务Vertex AI Studio,曾在谷歌AI Studio的广告中作为赞助结果出现,而后者是一个让开发者更容易使用Gemini的简化工具。

图片

“人们在试图弄清楚这些选项时常常会感到困惑,”OpenSea的前首席技术官亚历克斯·阿塔拉说,他在为自己创业公司OpenRouter使用Gemini时遇到了类似的困难,该公司为使用大型语言模型的开发者提供软件服务。

尽管谷歌在去年12月推出了AI Studio服务,旨在让开发者更容易使用Gemini,但开发者在Gemini上发送查询的方式与GPT和Claude不同,而后两者使用的是相似的格式。这一差异让开发者不太愿意转向Gemini,麦克劳克林说。

Gemini在社交媒体,尤其是X(原Twitter)上经常受到批评。本月早些时候,安全初创公司…

3、“巩固的市场份额”

谷歌正试图改变外界对Gemini的负面看法,包括在X上回应对Gemini的批评。此外,谷歌还在举办开发者活动以推广Gemini,并推出了其他激励措施,例如举办开发者竞赛,要求参赛者开发出最佳的Gemini驱动应用程序,第一名将获得定制的电动版DeLorean跑车,车牌号为“G3M1N1”。(谷歌最近将最终结果推迟到今年晚些时候公布。)

据一位参与开发者产品工作的内部人士透露,…

4、“VIP待遇”

与此同时,谷歌正在开发Gemini的下一版本2.0。由于AI竞赛可能会持续较长时间,这给了谷歌机会去寻找突破,追赶或超越OpenAI的技术。

实际上,Gemini已经赢得了一些忠实用户,尤其因为它能够处理比竞争对手更多的信息。Starcycle的创始人杰克琳·修表示,她的公司使用Gemini 1.5 Pro,这是谷歌为开发者提供的最先进的大型语言模型),用于从文档中提取数据。汤森路透也类似地使用Gemini开发了一款法律援助工具,比较冗长的法律文件并查找不一致之处。

对于一些大公司来说,使用谷歌AI的复杂性并不是决定性问题。Wayfair零售平台的首席技术官菲奥娜·谭表示,公司获得了谷歌员工的“白手套”服务,他们正在帮助Wayfair开展一个项目,依靠Gemini将旧数据库转换为更易用的格式。

然而,其他开发者则没有给Gemini机会,因为他们不需要改变已经在使用的解决方案。Martyn Strydom正在开发一款名为Dots的应用程序,该应用根据健身追踪器的数据提供健康建议。他表示,公司使用Claude作为代码助手来开发应用,并使用OpenAI的旧版GPT模型来回应客户。他认为公司没有时间不断测试不同的语言模型。

“现在,基本上所有人都在使用OpenAI、Claude或者Cursor,”他提到Cursor是一个由OpenAI和Anthropic模型驱动的AI代码助手。“如果世界上顶尖的工程师都在使用这些工具,我们怎么能说‘让我们去试试别的东西’呢?”(The Information)

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

00后北大女生,打造AI生成4D动画平台,一度登上Huggingface热门榜

00后胡雅婷,大学毕业便选择了创业。胡雅婷外形靓丽,衣着时尚,完全刷新了我们对创业者形象的想象。


毕业于北京大学计算机系的胡雅婷,曾就职于谷歌、阿里、字节跳动,担任算法工程师,她还曾参加过信息学奥林匹克竞赛,获得全国金牌及最佳女选手奖项。在大厂实习期间,她看到互联网流量已经到顶,但3D是一次内容升维,因此在大学毕业便决定创业。

胡雅婷创办的Aiuni,是一个AI生成4D动画的IP平台,今年6月,AiuniAI的3D生成模型Unique3D在GitHub、Huggingface等平台开源,迅速在Huggingface登上了热门模型排行榜,并被提名为“最佳图片生成3D模型”,获得了诸多开发者的点赞。

Unique3D能够从单视图图像生成高保真度和多样化纹理的三维网格,在4090显卡上大约需要30秒。不少网友在社交媒体上分享了他们的生成结果,并且盛赞该模型在保真度、一致性、效率上已经达到了相当高的水平。短短几个月内,Unique3D已经达到百万级的生成量。

今年夏天,胡雅婷加入了创业邦星际营25期——星际营新锐AI之星加速计划。

在加速之后,她将于本月19-20日登上2024DEMO CHINA的舞台,以进阶姿态面向各领域知名投资人、行业专家、产业伙伴展示她所打造的产品与商业应用的思考。

瞄准3D市场
作为一种真实世界在互联网世界进行映射的关键手段,3D技术已经深入到各个领域,从游戏开发、电影制作到产品设计、电商渲染、建筑规划,3D技术的应用场景几乎覆盖了整个互联网产业。

根据应用场景的不同,3D建模的成本也各不相同,越精细的模型,其制作流程就越繁琐,生产周期长,成本高昂,每个3D模型的创建成本至少需要数千元甚至数万元。

当前,动漫影视、游戏等娱乐行业是3D建模最主要的应用领域。在游戏行业,随着3D引擎的不断发展,3D游戏逐渐成为市场主流,对3D建模的需求极高;在动画影视产业,利用3D技术,制作宏大的场景仅需要绿幕技术加重要演员即可完成,减少了剧方的人员成本。

根据头豹发布的数据,2021年,中国3D建模市场空间达到了103.4亿元,预计到2026年,市场规模将达到195.7亿元。而2021年全球3D动画市场的规模估计在1640亿美元左右,市场预计将以11.5%的复合年增长率(CAGR)增长,到2026年达到3100亿美元左右。

Aiuni团队瞄准的就是这片市场。

除了胡雅婷之外,公司技术合伙人吴凯路,是胡雅婷参加信息学奥林匹克竞赛认识的,毕业于清华姚班,在清华大学交叉信息研究院从事3D生成和NeRF方向的研究,本科期间就发表了多篇论文,创新性地提出了FSD(text-to-3d流分数蒸馏)和MemSR(高效训练超分辨率模型)。曾参加信息学奥林匹克竞赛国家集训队,也是在参赛时认识的。公司运营合伙人任靳珊,是曾经的文科状元,毕业于北大光华管理学院,拥有芝加哥大学艺术理论硕士学位。

Aiuni已经成功获得天使+轮在内的三轮融资。

打造垂类模型 形成技术优势
在做产品的过程中,胡雅婷发现,由于几乎所有的动画和游戏都是围绕角色展开的,因此,所有类型的3D资产中,最有价值的就是角色。而且,很多用户做经典角色二创,或者有想实现的原创角色,原创需求也比较大,胡雅婷认为,这一部分比较适合用AIGC来生成。

“这些用户希望能便捷、便宜地生成3D角色,但3D建模的成本较高,大多数情况下只能应用于动画、影视等B端工作室当中。”

当利用AI将3D建模的门槛降低到极致后,之前无法创作3D内容的用户,便具备了创作能力,可以独立制作新3D作品。

“目前我们看到的大部分视频内容都是实拍的,未来基于3D模型的动画和特效内容会被制作成短视频,视频量和创作性将会大大增加。”胡雅婷说。

相对其他图像,角色的生成难度要更高。胡雅婷说:“由于3D模型是比较专业化的场景,并且Aiuni接下来将…



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

00后北大女生,打造AI生成4D动画平台,一度登上Huggingface热门榜

00后胡雅婷,大学毕业便选择了创业。胡雅婷外形靓丽,衣着时尚,完全刷新了我们对创业者形象的想象。


毕业于北京大学计算机系的胡雅婷,曾就职于谷歌、阿里、字节跳动,担任算法工程师,她还曾参加过信息学奥林匹克竞赛,获得全国金牌及最佳女选手奖项。在大厂实习期间,她看到互联网流量已经到顶,但3D是一次内容升维,因此在大学毕业便决定创业。

胡雅婷创办的Aiuni,是一个AI生成4D动画的IP平台,今年6月,AiuniAI的3D生成模型Unique3D在GitHub、Huggingface等平台开源,迅速在Huggingface登上了热门模型排行榜,并被提名为“最佳图片生成3D模型”,获得了诸多开发者的点赞。

Unique3D能够从单视图图像生成高保真度和多样化纹理的三维网格,在4090显卡上大约需要30秒。不少网友在社交媒体上分享了他们的生成结果,并且盛赞该模型在保真度、一致性、效率上已经达到了相当高的水平。短短几个月内,Unique3D已经达到百万级的生成量。

今年夏天,胡雅婷加入了创业邦星际营25期——星际营新锐AI之星加速计划。

在加速之后,她将于本月19-20日登上2024DEMO CHINA的舞台,以进阶姿态面向各领域知名投资人、行业专家、产业伙伴展示她所打造的产品与商业应用的思考。

(文章内容较长,请继续阅读全文,文章链接:原文链接)

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI押注的「1X」训出专用世界模型,首证机器人Scaling Law

机器人能认出镜子中的自己吗?目前来看,依然做不到。

去年 3 月,OpenAI 领投了一家具身智能公司「1X」。


这是一家成立于 2014 年的挪威人形机器人公司,致力于研发双足机器人 NEO 和商用轮式人形机器人 EVE。

本月初,1X 正式推出了专为家庭使用而设计的双足人形机器人 NEO Beta,让人们看到了大模型加持下活灵活现、超拟人机器人的不断进步。

如今,1X 迎来了自己的世界模型。具体地, 基于视频生成(Sora)和自动驾驶世界模型(端到端自动驾驶,E2EAD)领域的进展,1X 训练出了一个世界模型,作为自家机器人的虚拟模拟器。

图片

1X 人工智能副总裁 Eric Jang 表示,过去几个月,1X 一直在开发通用机器人的学习模拟器,如今终于问世了。

图片

1X 工程师 Daniel Ho 表示这是机器人世界模型的初步进展,模型可以理解接触到的物理世界并生成高保真视频,使机器人可以在自己的神经空间中执行规划、评估和模拟操作。并且,很多生成的视频片段很难与真实视频区分开来。

图片

1X 创始人兼 CEO Bernt Bornich 表示,这是人形机器人数据显著增强扩展定律的首个证据,「没有勺子」。

图片

各路网友也对这个机器人世界模型给予了很高评价。

图片

世界模型加持下的 1X 人形机器人还让一些人直呼《西部世界》重现。

从 1X 官方给出的 Demo 可以看到,从相同的起始图像序列开始,1X 的世界模型可以从不同的机器人(EVE)动作建议中想象出多种未来。

图片

这个世界模型还能预测非平凡物体(如刚体)的相互作用、掉落物体的影响、部分可观测性、可变形物体(窗帘、衣物)和铰接物体(门、抽屉、窗帘、椅子)。

图片

1X 正在采用一种全新的方法来评估通用机器人,即直接从原始传感器数据中学习模拟器,并使用模拟器来评估新策略。通过直接从真实数据中学习模拟器,你可以在不手动创建资产的情况下了解真实世界的复杂性。

在过去的一年里,1X 收集的 1X 旗舰产品 EVE 机器人的数据高达数千小时,这些数据包括在家中和办公室中执行各种移动操作任务以及与人互动的任务。研究人员将这些视频和动作数据结合起来, 训练了一个世界模型,该模型可以根据观察和动作预测未来的视频。

图片

图片

图片

图片

机器人的「ChatGPT 时刻」,同样需要扩展定律

世界模型解决了构建通用机器人时一个非常实际、但经常被忽视的挑战,即评估。如果你训练的机器人可以执行 1000 项任务,与先前模型相比,我们也很难确定新模型用在机器人上,在这 1000 项任务上表现优越。由于周围环境如光照细微的变化,即使模型权重相同,机器人也可能在几天内经历性能的快速下降。

图片

如果环境随着时间的推移不断变化,那么此前在该环境中达到的实验性能很难复现,因为旧环境不存在了。如果你在不断变化的环境(如家庭或办公室)中评估多任务系统,那么这个问题将会变得更加糟糕。这一状况使得在现实世界中进行机器人科学研究变得异常困难。

经过深入研究我们不禁会问,当数据、计算和模型规模增加时,机器人的能力将如何扩展?在大模型领域,扩展定律普遍得到大家的认同,如果机器人技术要迎来「ChatGPT 时刻」,必须首先建立它的扩展定律。

其他评估方法

基于物理的模拟(Bullet、Mujoco、Isaac Sim、Drake)是快速测试机器人策略的合理方法。这些方法可重置且可重现,这样一来,研究人员能够仔细比较不同控制算法带来的的差异。

然而,这些模拟器大多是为刚体动力学设计的,需要大量手工资产创作。

如何让机器人打开咖啡滤纸的纸盒、用刀切水果、拧开冷冻果酱罐或与人类等其他智能体互动还是一个值得思考的问题。众所周知,家庭环境中遇到的日常物体或者饲养的宠物很难模拟,因此机器人使用的模拟环境往往在视觉上很单调,缺乏现实世界用例的多样性。对现实或模拟环境中有限数量任务的小规模评估无法泛化到对现实世界中的大规模评估。

世界模型

1X 正在采用一种全新的方法来评估通用机器人,即直接从原始传感器数据中学习模拟器,并使用模拟器来评估新策略。通过直接从真实数据中学习模拟器,你可以在…

来源:原文链接

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

中国率先行动: AI 生成内容均需添加显性标识

近日,国家互联网信息办公室发布《人工智能生成合成内容标识办法(征求意见稿)》(下称《意见稿》),还配套发布了国家标准《网络安全技术 人工智能生成合成内容标识方法》。

北京师范大学法学院副教授、中国互联网协会研究中心副主任吴沈括表示,这**是全球范围内,第一部关于人工智能生成合成内容的标识国家标准。


**

《意见稿》在《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等基础上,进一步细化了AI合成内容的标识办法,包括“显式标识”和“隐式标识”。

早在2022年,中央网信办等就发布了《互联网信息服务深度合成管理规定》(以下简称《规定》),明确指出,深度合成服务提供者应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。

根据《意见稿》第四条,服务提供者提供的生成合成服务属于《规定》第十七条第一款情形的,应当按照下列要求,对生成合成内容添加显式标识。

显式标识是指,在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可被用户“明显感知到”的标识。

《规定》第十七条第一款提到的具体情形包括:智能对话、智能写作等模拟自然人进行文本的生成或者编辑服务;合成人声、仿声等语音生成或者显著改变个人身份特征的编辑服务;人脸生成、人脸替换、人脸操控、姿态操控等人物图像、视频生成或者显著改变个人身份特征的编辑服务等。

这几乎囊括了所有目前AI能够生产的内容。

在《意见稿》第五条中还提到,服务提供者应当按照《规定》第十六条的规定,在生成合成内容的文件元数据中添加“隐式标识”。

隐式标识是指,采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。

例如,生成合成内容属性信息、服务提供者名称或编码、内容编号等制作要素信息,并鼓励服务提供者在生成合成内容中添加“数字水印”等形式的“隐式标识”。

此前,国内就提出了许多对于AI的管理规范。

例如,《生成式人工智能服务管理暂行办法》、《国家人工智能产业综合标准化体系建设指南(2024版)》、《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》、《全球人工智能治理倡议》、《人工智能全球治理上海宣言》等等。

2023年7月,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布的《生成式人工智能服务管理暂行办法》。

该办法为促进生成式人工智能的健康发展和规范应用而制定的一系列规定。

其中强调了禁止生成违法违规内容,要求在算法设计、数据选择、模型生成和优化等过程中采取有效措施防止歧视,尊重知识产权和商业道德,保护个人合法权益,并提升服务透明度和内容准确性。

2023年10月,网信办还发布了《全球人工智能治理倡议》,围绕人工智能发展、安全、治理三方面系统阐述了人工智能治理中国方案。

这 11项倡议包括:坚持“以人为本”、尊重他国主权、坚持“智能向善”、坚持平等互利、推动建立风险等级测试评估体系、坚持公平性和非歧视性原则、坚持伦理先行、增强发展中国家的代表性和发言权等。

在国际上,AI的治理方向,主要集中在平衡发展与风险、确保安全与公平性,以及推动构建人类命运共同体等。

多个国家也都提出了AI治理法案和措施,例如:

2024年3月,欧盟发布了《人工智能法案》,其被认为是全球首部综合性人工智能治理立法。

该法案对人工智能系统进行了分类,并根据风险等级制定了相应的监管要求,设定了普适、全面的人工智能监管方法,包括数据管理、透明度、可解释性、人类监督等方面。

欧盟2024年新设了人工智能办公室,推动实施《人工智能法案》。此外,欧盟《人工智能责任指令》在2024年也将出现更多的进展。

英国也率先成立英国人工智能安全研究所,旨在促进全球对先进人工智能的了解。

2023年1月,美国商务部国家标准与技术研究院发布《人工智能风险管理框架》,旨在对人工智能系统全生命周期实行有效的风险管理。

2023年10月,美国第一次在政治对话中真正纳入人工智能的议程,并发布总统行政令《安全、可靠和值得信赖的人工智能开发和使用》,明确了美国政府治理人工智能的政策法律框架。

最受瞩目的一点是,该行政令动用《国防生产法》的紧急权力,强制要求人工智能企业进行安全测试并与政府分享测试结果。

2024年5月,美国参议院人工智能工作组发布《推动美国在AI领域的创新:参议院AI政策路线图》,标志着美国通过“全面立法”治理人工智能的战略努力。

2024年5月,在人工智能首尔峰会上,美国、英国、加拿大、日本、韩国等10个国家以及欧盟共同签署《首尔声明》,呼吁加强国际人工智能治理合作以及治理框架之间的互操作性,倡导以风险为基础的政策和治理框架,支持启动首个国际人工智能安全研究所网络,促使国家间形成对人工智能安全的共同理解,并在研究、标准和测试方面进行协调。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

字节AI,“软硬”兼施

Source: 光子星球
Original Link: https://mp.weixin.


qq.com/s/WhLUa0ur5rq_-u_x0WKrZw

Image
AI investment fever continues, with a shift from “soft” to “hard” catching the attention of capital. After a ripple of overseas startups, a wave of AI smart glasses investment frenzy swept China in mid-August this year. Combining large models with hardware, Byte began exploring AI hardware by developing its own AI hardware and cooperating with external hardware companies.

In essence, it’s a fusion of software and hardware. Byte’s entry into AI hardware seems similar to many startups, treating hardware as a “gateway” to access AI capabilities and services for users, integrating Chat bot products through APIs to enable users to interact with AI assistants without taking out their phones.

2024 is touted as the year of AI applications, yet product differentiation remains elusive. While the Super App seems out of reach, wearable hardware, still nascent domestically, may be Byte’s key to standing out amidst the competition.

Byte’s AI hardware and Bot Platform team leader Kayden has previous startup experience in basic software and hardware, which hints at Byte’s larger ambitions in AI hardware.

The reincarnation of software and hardware seems crucial in the AI landscape. AI applications face challenges in user conversion, with independent large model applications having limited user engagement compared to platform-level applications.

With the maturity of the capital market, equity acquisitions become key for internet companies to consolidate their core business or enter new emerging avenues. Byte’s acquisition of the open-air headphone brand Oladance represents its foray into the hardware space.

AI’s entry into human-machine interaction and software-hardware collaboration lies in better information input, making hardware not just a service access channel but also a means to collect various aspects of user information in daily life.

Byte is strategically positioned in the AI and hardware landscape but must navigate the industry’s watchful eyes to avoid the pitfalls of previous AI hardware ventures.

The article highlights past strategic investments by Byte, emphasizing caution in its approach towards AI hardware. Despite its history of strategic hesitance, Byte seems well-positioned in the evolving AI landscape.

Overall, Byte’s focus on hardware appears to be the missing puzzle piece in its full product strategy, solidifying its presence in the AI industry in China.



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB