AI正在彻底改变打工人的工作方式,以下3种策略可以应用于日常工作

尽管是企业领导,当前也很难明确人工智能(AI)的发展方向。

虽然领导者的任务是在企业中确定明确的AI用例和监管框架,但大多数老板仍在为AI的使用而绞尽脑汁。


假如你是企业老板,该如何面对突如其来的AI技术对员工的冲击

从一个企业家的角度出发,我们必须在坚定地立足于当下的同时展望未来——并认清AI技术对我们的商业模式、员工体验和用户的实际意义。

这是一项艰巨的任务,需要我们去适应和学习。坦诚面对我们的学习需求,是我们前进的最佳途径。

生成式AI在各行各业的快速引入,不仅在领导者之间,也在员工之间造成了巨大的技能差距,给我们所有人都带来了更大的压力,要求我们迅速提升知识基础,与时俱进。

然而,这种演变并不是自然而然的:62%的员工表示,他们缺乏有效、安全地使用AI的技能,全球只有十分之一的员工认为自己掌握了所需的AI技能

作为领导者,弥合这一知识鸿沟是我们的当务之急。我们可以做很多事情来指导我们的组织应对各种变化,包括我们现在面临的人工智能。

但是,在AI时代,可持续的技能提升应该是什么样的呢?

下面是将人工智能技术应用于日常的三种策略:

01.为技能提升目标提供充足的资源

新一代AI技能提升既不是一次性的努力,也不是一蹴而就的事情。技术的复杂性和持续演进需要专门的教育途径、持续的学习机会和资金支持。

因此,作为领导者,我们需要为员工提供资源,让他们能够参与学习机会(如技能培训),参加LinkedIn等组织提供的第三方课程,或为需要的技能提升提供学费报销。我们还必须确保所有员工都能获得这些资源,无论员工的日常工作性质如何。

在此基础上,我们可以将记录和分享学习成果的机制制度化,包括建立和普及沟通渠道,激励员工分享反馈、共同学习和发现遗留难题。鼓励围绕学习开展交流和对话,并亲自参与这些讨论,往往能在整个组织中实现更大的创新

在一个公司,建议将学习和分享融合在一起,例如,每月就相关主题开展学习活动,并鼓励所有人同时参与。

具体来说,可以设定一个主题——比如AI,员工可以选择与个人职责相关的课程,学习新的AI技能,同时还可以加入“学习休息室”,与同事分享想法和挑战。

02.以身作则,带头学习

投入时间了解新兴的生成式AI解决方案及其对企业的影响。这样可以赢得员工的认同,并说明领导者对人工智能如何以实际方式改善运营的愿景。

领导者需要在花费大量时间提高自身技能的同时,也要寻找机会指导他人,让AI的使用成为工作中互动的日常。

此外,考虑举办以解决方案为重点的黑客松或其他有意思的挑战,以培养创造力、跨职能问题解决能力和协作能力。

在可能的情况下,直接通过实际项目的在职实践来激励行动。员工往往身兼数职,因此,无论提升技能多么重要,都很难抽出时间。

在现有的工作量中注入新的学习计划,可以同时满足这两种需求,尤其是对于日程安排繁重的员工而言。

还要与员工进行沟通,比如定期征求团队的反馈意见,以确保满足他们不断变化的职业发展需求,与公司领导的坦诚对话具有重要意义,这可能是更多标准会议(如员工与经理的定期一对一会议)难以实现的。

03.通过正确的数据和技术投资支持技能提升

为了确保员工能够提升AI技能,为他们提供必要的技术、数据和基础设施是至关重要的。与领导者合作,数据管理和技术堆栈进行必要的改进,以支持AI目标的实现。

例如,在快速可靠的连接支持下,人工智能解决方案在数据丰富的环境中表现出色。不要因为数据问题、容量不足或安全问题而影响员工提升技能或推动创新的热情,尤其对于严重依赖数据和计算的行业,如医疗保健、金融、制造、网络基础设施和教育,应迅速采取行动。

随着时间的推移,持续迭代并努力确保AI技术基础设施始终能够胜任任务。新一代人工智能正在不断发展,要跟上这些变化的步伐,就需要采取多方面的方法来提高技能,让AI和数据与员工合作,而不是彼此成为对手

生成式AI解决方案的影响可能会超越云计算,对我们的组织运营和发展产生更广泛、更持久的影响。

然而,只有当我们掌握了相关技术,并准备好让人工智能成为所有员工日常工作的一部分时,这一未来才会实现。

当前,有效、可持续地使用AI解决方案对一个组织来说是不可避免的,因此,在重视集体、持续学习的公司文化氛围中,通过灵活的AI培训计划来促进公司的成长也尤为关键

AI技能提升可能会让人感觉与一般的工作日常相去甚远,但这是领导者必须开始重视的一个点,因为人工智能有可能彻底改变我们目前的工作方式。

原文来源于:
https://venturebeat.com/ai/in-the-age-of-gen-ai-upskilling-learn-and-let-learn/
中文内容由元宇宙之心(MetaverseHub)团队编译,如需转载请联系我们。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

买不到GPU,马斯克自曝AI巨兽Dojo!自研超算挑战英伟达,约等于8千块H100

【导读】多年来,马斯克一直在公开谈论Dojo——这台超算将成为特斯拉人工智能雄心的基石。他最近表示,随着特斯拉准备在10月推出Robotaxi,AI团队将「加倍投入」Dojo。


为了训出最强Grok 3,xAI耗时19天,打造了由10万块H100组成的世界最大超算集群。

而在训练FSD、擎天柱机器人方面,马斯克同样不惜重金,投入了大量的计算资源。

超算Dojo,是特斯拉AI的基石,专为训练FSD神经网络而打造。

就在今天,他在德州超级工厂(Cortex)参观了特斯拉的超级计算机集群。

马斯克称,「这将是一个拥有约10万个H100/H200 GPU,并配备大规模存储的系统,用于全自动驾驶(FSD)和Optimus机器人的视频训练」。

不仅如此,除了英伟达GPU,这个超算集群中还配备了特斯拉HW4、AI5、Dojo系统。

它们将由一个高达500兆瓦的大型系统提供电力和冷却。

2021年特斯拉AI Day上,马斯克首次对外宣布Dojo。

如今三年过去了,Dojo建得怎样了?

【8000块H100等价算力,加倍下注】

半个月前,网友称2024年年底,特斯拉拥有AI训练算力,等价于9万块H100的性能。

马斯克对此做了一些补充:

我们在AI训练系统中不仅使用英伟达的GPU,还使用自己的AI计算机——Tesla HW4 AI(更名为AI4),比例大约为1:2。
这意味着相当于有大约9万个H100,加上大约4万个AI4计算机。

他还提到,到今年年底,Dojo 1将拥有大约8000个相当于H100算力。这个规模不算庞大,但也不算小。

Dojo D1超算集群

其实在去年6月,马斯克曾透露Dojo已经在线并运行了几个月的有用任务。

这已经暗示着,Dojo已经投入到一些任务的训练中。

最近,在特斯拉财报会议上,马斯克表示特斯拉准备在10月推出自动驾驶出租车,AI团队将「加倍投入」Dojo。

预计Dojo的总计算能力,将在2024年10月达到100 exaflops。

假设一个D1芯片可以实现362 teraflops,要达到100 exaflops,特斯拉将需要超过27.6万个D1芯片,或者超过32万英伟达A100 GPU。

【500亿晶体管,D1已投产】

2021年特斯拉AI Day上,D1芯片初次亮相,拥有500亿晶体管,只有巴掌大小。

它具备了强大和高效的性能,能够快速处理各种复杂的任务。

今年5月,D1芯片开始投产,采用台积电7nm工艺节点。

Autopilot前硬件高级总监Ganesh Venkataramanan曾表示,「D1可以同时进行计算和数据传输,采用定制ISA指令集架构,并针对机器学习工作负载进行了充分优化」。

这是一台纯粹的机器学习的芯片。

尽管如此,D1仍没有英伟达A100强大,后者同样…

【完整内容请阅读原文,链接如下】:

原文链接

※ 转载请注明文章出处 ※

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

成立两年估值超180亿!全新人形机器人Figure 02登场,研发18个月算力提升200%

就在刚刚,一款基于英伟达、OpenAI、亚马逊创始人贝佐斯支持的全新人形机器人来了!

TiMedia AGI报道称,美东时间8月6日,估值高达26亿美元(约合人民币185.84亿元)的人形机器人公司Figure AI宣布推出全新一代Figure 02人形机器人产品,硬件和软件都进行了从零开始的重新设计,拥有灵活自如的手部和对话视觉能力,内置定制的 AI 模型可与人类直接对话,手部具有16个自由度和相当于人类力量,计算和推理能力是上一代Figure 01的3倍,即提升了200%。

同时,Figure 02内置了2.25千瓦时的电池,使运行时间增加了50%,而内置的视觉语言模型(VLM)使机器人摄像头能够进行快速的常识性视觉推理。


该公司透露,Figure 02已经在南卡罗来纳州斯帕坦堡的宝马生产线上进行了测试。

Figure AI创始人兼CEO Brett Adcock表示,Figure 02概念设计评审在2023年2月,历时18个月研发而成。他强调,“这是地球上最先进的人工智能硬件产品。”

Figure AI成立于2022年,公司致力于打造一款自主通用人形机器人,旨在与人类进行交互并执行多种任务,可以自动执行一系列动作,包括行走、搬运、操作物体等,应用场景包括仓库管理、物流配送、医疗保健等领域。

公司创始人兼CEO Brett Adcock在科技和创投领域已有20年的经验,曾是 Archer(27 亿美元 IPO)和 Vettery(1 亿美元退出)的创始人。而目前,Brett Adcock的关注重点是Figure AI,目标是以 30 年的眼光来创建这家公司,其希望将时间和资源投入到最大限度地发挥对人类的效用影响上。目前,Figure AI员工人数高达120人左右。

融资层面,Figure AI已经完成总计7.3亿美金的融资。

其中,2023年4月19日,Figure获得Aliya Capital Partners等10家投资者的7000万美元A轮融资;2023年7月17日,Figure获得Big Sky Partners和Intel Capital的900万美元融资;2024年2月23日,Figure获得贝索斯,以及微软、英伟达、OpenAI等大型科技公司联投的约6.75亿美元融资。

据介绍,Figure AI公布的全新Figure 02视频主要展示了其技术能力和在宝马生产线上进行测试的场景,展示其在现实世界工业环境中的潜力。

功能层面,Figure 02在语音对语音方面,通过麦克风、扬声器和定制的AI模型,可以与人类进行对话;摄像头则由6个板载 RGB 摄像头驱动的AI视觉系统;采用第四代手部,具有16个自由度和相当于人类的力量;视觉语言模型(VLM)使机器人摄像头能够进行快速的常识性视觉推理;电池层面,Figure 02 配备了 2.25 千瓦时的电池,使运行时间增加50%;CPU/GPU的计算和 AI 推理能力是上一代的3倍。

应用层面,全球劳动力短缺现象正在上演。仅在美国,就有超过1000万个空缺工作,其中700万个职位空缺是仓库、运输和零售业等重要职位,而且人口老龄化也使得公司越来越难以扩大员工队伍。为了打破这样的社会瓶颈,让劳动力持续增长,公司就需要更高的生产力,这意味着需要更多的自动化来做支撑。同时,许多高难度和具有危险性的工作并不适合人类,亟需开拓新的产业以帮助人类解决这些难题。

Brett Adcock曾表示,Figure AI是能够引入执行商业活动的人形机器人,“希望我们是第一批向市场推出真正有用并可用的人形机器人产品组合当中之一。”

实际上,当前人形机器人成为热门赛道,科技公司正以惊人的速度向AI领域投入资金。Crunchbase最新数据显示,仅2024年上半年,全球就有超过355亿美元流向AI初创公司。其中,在募集的六轮超过10亿美元的风险投资中,其中五轮是由 AI 公司募集,其他AI初创公司也募集到单轮超1亿美元的资金。

太平洋证券表示,人形机器人代表了未来的发展趋势,并且具有巨大的潜在市场和技术外溢效应。当前工业自动化市场面临挑战,下游创新不足、产能过剩,以及外部因素,导致需求疲软。这导致了一个存量博弈市场,许多企业在竞争中争相降低价格,却难以盈利。在这种局势下,人形机器人的产业化有可能是继智能手机和新能源之后的一波更大的机会,吸引了特斯拉等企业大量资源和人力的投入。未来的市场空间将更为广阔,越来越多的资本和人力资源将投入到人形机器人领域,随着大型模型和人形机器人的不断进步,未来十年将会看到更多产业化案例的落地。

华泰证券发布研报称,2024年以来,人形机器人与AI的结合更为紧密,AI 端发展加速人形机器人产品迭代,加快人形机器人产业化进程。随着大模型训练提速与产品升级迭代,人形机器人的应用场景有望加速具象化,促进人形机器人的规模化运用落地,产业链企业将充分受益。一方面,建议继续关注与特斯拉等头部机器人企业合作紧密、有望率先拿到定点的供应商企业。另一方面,在机器人零部件中,传感器、丝杠的单机价值量较高,且存在较高技术壁垒,目前布局企业较少,看好配套下游研发测试进度较快、下游需求放量时具备规模化生产能力的相关头部企业,建议持续跟踪。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

曾毅:从科学和社会的视角对当代人工智能的反思

文章来源:见地沙龙

曾 毅 人工智能科学家,中国科学院自动化研究所研究员

本文为曾毅先生在2023见地年会的发言,原主题为《从科学和社会的视角对当代人工智能的反思》。

我讲几个关键词。


第一个关键词是“自大”。

现在对于人工智能对世界的描述是用什么来描述的?是用X来描述的,就是参数。现在的人工智能研究,参数是百亿的、千亿的、万亿的,但有统计学家说,统计学就是用200个参数来描述人工智能学家用几百亿的参数才能做的事情。

这给我们很大的反思:当人工智能研究有万亿的参数来描述一个世界的时候,这个万亿的参数实际上就是万亿的X,代表万亿种变化,也代表着万亿的不确定性。既然它有万亿个不确定性,也有万亿个可能性。这个时候,它实际上带给我们的是万亿个未知,而这种未知是无限的想象还是无限的风险,我觉得是非常危险的地方。所以,人工智能研究者,实际上将这种不确定性、风险描述成了机遇,这是非常危险的。

第二个关键词是“说谎”。

人工智能是如何开始的?在一个屋子里,有一个机器,有一个人,当你无法区分你的对话对象是人还是机器的时候,说明这个机器达到了人类水平的智能,这是图灵提出的图灵测试。所以人工智能起源于“欺骗”,它通过欺骗达到衡量智能的水平。但图灵从来没有说过,当人工智能达到足以欺骗人类的时候,你应当用这种服务去欺骗人类。但这却是现在的人工智能天天在做的事情,就是用看似智能的事情来欺骗人类。

后来我稍微把任务拆解了一下,我问它“禾”和“口”组成什么汉字,它说得头头是道;但是我让它写一个毛笔字,由“禾”和“口”组成的一个汉字的时候,它写出来还是那个东西。

因为有大量的数据的训练语料,所以它学到了。它通过概率统计,能够推断出来“禾”和“口”组成了什么,但是这并不代表在写一个毛笔字的时候,它能够从语言当中学到这样的知识或者这种关系。我说这个字不是“和”,让它重新写,它写出来另外一个作品。

另一个例子,我说“写一个毛笔字”是几个字,它说“‘写一个毛笔字’是4个字;抱歉抱歉,我之前回答有误,‘写一个毛笔字’实际上是5个字”。我以为它明白了,我让它再说,“重新计算,‘写一个毛笔字’实际上是6个字”,我说再数,它说“我再次核对,确实是5个字”。我说再数,它说“重新计算后,实际上是5个字”,好像真的明白了,我说不对,再数,“重新计算以后,实际上是6个字”,我说还不对,“我再次核查,确实是6个字”。

人工智能现在达到了看似智能的信息处理水平,在数据量足够大的时候,它的输出在某些时候惊艳了你,但是惊艳你的部分恰恰是基于大量数据的统计,而那一部分统计可能是你不熟悉的,特别是超出你的领域的时候,它给出的反馈可能是你并不熟悉的,或者是你并不在行的部分。

另一个例子,比如从简单的文本映射到对复杂空间的表达的时候,大规模的数据输入和预期输出之间建立了一个拟合的关系,这个拟合的数学模型本身可能和智能没有任何关系,但是它满足了从输入到输出之间的映射,不管输入的是几个文字到一个复杂的空间关系,还是一幅图这样非常复杂的表达,甚至是三维的表达或有时间的表达,到非常简单的概念之间的映射。…

人工智能具有自我感知,在这个基础之上区分自我和他人,取得认知和情感的共情,演化出道德直觉,并进行复杂的道德决策,这是开发对人类相对安全的人工智能应该走的一条道路。现在就把人类的规范灌输给它,应该这样做,不应该那样做,这是完全无效的。因为你可以跟它说做A,别人就可以跟它说做B,这都不是基于理解的。对于人工智能来讲,这只是一个分类问题。除非人工智能道德体跟我们人类一样,认为自己的道德直觉对自己来说是很必要的,因为它是随着演化产生的,这时候,道德直觉就像在地球上很难违反物理定律一样存在,它和道德的产生和应用可能对我们期待的人工智能才是有效的,才是自私的人类所期待的。所以,我希望构造的人工智能,可能是从自私的人类的角度构建的,这样的人工智能,总比最大化它的利益、最大化它的资源那种看似智能信息处理工具,对人类来说相对更安全。

交流

黄裕生:曾毅老师,我有一个问题,现在处理做人工智能专业的人以外,包括一些做哲学的人,一直在担心一个问题,就是人工智能最后会超越我们人类自身甚至会取代我们人类,把我们当作低等物种给消灭了。其实,我一直是对此是持怀疑态度的,那么今天听你说完,好像也印证了我的这个想法,你甚至认为,现在所谓的人工智能是一种欺骗,是吧?那按目前人工智能的路径,有没有可能真正实现人工智能?

曾毅:人工智能是不是有可能替代人类或灭绝人类,按现在人工智能的道路发展,它有可能,但方式有两种:一个是,在它不理解人类社会的时候,它以人类不可预…


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

买不到GPU,马斯克自曝AI巨兽Dojo!自研超算挑战英伟达,约等于8千块H100

文章来源:新智元

【导读】多年来,马斯克一直在公开谈论Dojo——这台超算将成为特斯拉人工智能雄心的基石。他最近表示,随着特斯拉准备在10月推出Robotaxi,AI团队将「加倍投入」Dojo。


为了训出最强Grok 3,xAI耗时19天,打造了由10万块H100组成的世界最大超算集群。

而在训练FSD、擎天柱机器人方面,马斯克同样不惜重金,投入了大量的计算资源。

超算Dojo,是特斯拉AI的基石,专为训练FSD神经网络而打造。

就在今天,他在德州超级工厂(Cortex)参观了特斯拉的超级计算机集群。

马斯克称,「这将是一个拥有约10万个H100/H200 GPU,并配备大规模存储的系统,用于全自动驾驶(FSD)和Optimus机器人的视频训练」。

不仅如此,除了英伟达GPU,这个超算集群中还配备了特斯拉HW4、AI5、Dojo系统。

它们将由一个高达500兆瓦的大型系统提供电力和冷却。

2021年特斯拉AI Day上,马斯克首次对外宣布Dojo。

如今三年过去了,Dojo建得怎样了?

8000块H100等价算力,加倍下注

半个月前,网友称2024年年底,特斯拉拥有AI训练算力,等价于9万块H100的性能。

马斯克对此做了一些补充:

我们在AI训练系统中不仅使用英伟达的GPU,还使用自己的AI计算机——Tesla HW4 AI(更名为AI4),比例大约为1:2。
这意味着相当于有大约9万个H100,加上大约4万个AI4计算机。

他还提到,到今年年底,Dojo 1将拥有大约8000个相当于H100算力。这个规模不算庞大,但也不算小。

Dojo D1超算集群

其实在去年6月,马斯克曾透露Dojo已经在线并运行了几个月的有用任务。

这已经暗示着,Dojo已经投入到一些任务的训练中。

最近,在特斯拉财报会议上,马斯克表示特斯拉准备在10月推出自动驾驶出租车,AI团队将「加倍投入」Dojo。

预计Dojo的总计算能力,将在2024年10月达到100 exaflops。

假设一个D1芯片可以实现362 teraflops,要达到100 exaflops,特斯拉将需要超过27.6万个D1芯片,或者超过32万英伟达A100 GPU。

500亿晶体管,D1已投产

2021年特斯拉AI Day上,D1芯片初次亮相,拥有500亿晶体管,只有巴…
```

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI正在彻底改变打工人的工作方式,以下3种策略可以应用于日常工作

尽管是企业领导,当前也很难明确人工智能(AI)的发展方向。

虽然领导者的任务是在企业中确定明确的AI用例和监管框架,但大多数老板仍在为AI的使用而绞尽脑汁。


假如你是企业老板,该如何面对突如其来的AI技术对员工的冲击

从一个企业家的角度出发,我们必须在坚定地立足于当下的同时展望未来——并认清AI技术对我们的商业模式、员工体验和用户的实际意义。

这是一项艰巨的任务,需要我们去适应和学习。坦诚面对我们的学习需求,是我们前进的最佳途径。

生成式AI在各行各业的快速引入,不仅在领导者之间,也在员工之间造成了巨大的技能差距,给我们所有人都带来了更大的压力,要求我们迅速提升知识基础,与时俱进。

然而,这种演变并不是自然而然的:62%的员工表示,他们缺乏有效、安全地使用AI的技能,全球只有十分之一的员工认为自己掌握了所需的AI技能

作为领导者,弥合这一知识鸿沟是我们的当务之急。我们可以做很多事情来指导我们的组织应对各种变化,包括我们现在面临的人工智能。

但是,在AI时代,可持续的技能提升应该是什么样的呢?

下面是将人工智能技术应用于日常的三种策略:

01.为技能提升目标提供充足的资源

新一代AI技能提升既不是一次性的努力,也不是一蹴而就的事情。技术的复杂性和持续演进需要专门的教育途径、持续的学习机会和资金支持。

因此,作为领导者,我们需要为员工提供资源,让他们能够参与学习机会(如技能培训),参加LinkedIn等组织提供的第三方课程,或为需要的技能提升提供学费报销。我们还必须确保所有员工都能获得这些资源,无论员工的日常工作性质如何。

在此基础上,我们可以将记录和分享学习成果的机制制度化,包括建立和普及沟通渠道,激励员工分享反馈、共同学习和发现遗留难题。鼓励围绕学习开展交流和对话,并亲自参与这些讨论,往往能在整个组织中实现更大的创新

在一个公司,建议将学习和分享融合在一起,例如,每月就相关主题开展学习活动,并鼓励所有人同时参与。

具体来说,可以设定一个主题——比如AI,员工可以选择与个人职责相关的课程,学习新的AI技能,同时还可以加入“学习休息室”,与同事分享想法和挑战。

02.以身作则,带头学习

投入时间了解新兴的生成式AI解决方案及其对企业的影响。这样可以赢得员工的认同,并说明领导者对人工智能如何以实际方式改善运营的愿景。

领导者需要在花费大量时间提高自身技能的同时,也要寻找机会指导他人,让AI的使用成为工作中互动的日常。

此外,考虑举办以解决方案为重点的黑客松或其他有意思的挑战,以培养创造力、跨职能问题解决能力和协作能力。

在可能的情况下,直接通过实际项目的在职实践来激励行动。员工往往身兼数职,因此,无论提升技能多么重要,都很难抽出时间。

在现有的工作量中注入新的学习计划,可以同时满足这两种需求,尤其是对于日程安排繁重的员工而言。

还要与员工进行沟通,比如定期征求团队的反馈意见,以确保满足他们不断变化的职业发展需求,与公司领导的坦诚对话具有重要意义,这可能是更多标准会议(如员工与经理的定期一对一会议)难以实现的。

03.通过正确的数据和技术投资支持技能提升

为了确保员工能够提升AI技能,为他们提供必要的技术、数据和基础设施是至关重要的。与领导者合作,数据管理和技术堆栈进行必要的改进,以支持AI目标的实现。

例如,在快速可靠的连接支持下,人工智能解决方案在数据丰富的环境中表现出色。不要因为数据问题、容量不足或安全问题而影响员工提升技能或推动创新的热情,尤其对于严重依赖数据和计算的行业,如医疗保健、金融、制造、网络基础设施和教育,应迅速采取行动。

随着时间的推移,持续迭代并努力确保AI技术基础设施始终能够胜任任务。新一代人工智能正在不断发展,要跟上这些变化的步伐,就需要采取多方面的方法来提高技能,让AI和数据与员工合作,而不是彼此成为对手

生成式AI解决方案的影响可能会超越云计算,对我们的组织运营和发展产生更广泛、更持久的影响。

然而,只有当我们掌握了相关技术,并准备好让人工智能成为所有员工日常工作的一部分时,这一未来才会实现。

当前,有效、可持续地使用AI解决方案对一个组织来说是不可避免的,因此,在重视集体、持续学习的公司文化氛围中,通过灵活的AI培训计划来促进公司的成长也尤为关键

AI技能提升可能会让人感觉与一般的工作日常相去甚远,但这是领导者必须开始重视的一个点,因为人工智能有可能彻底改变我们目前的工作方式。

原文来源于:
https://venturebeat.com/ai/in-the-age-of-gen-ai-upskilling-learn-and-let-learn/
中文内容由元宇宙之心(MetaverseHub)团队编译,如需转载请联系我们。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

日内暴涨93%,光纤公司Lumen成AI新宠?

光纤公司Lumen近日透露,光纤网络在 AI 背景下变得愈加重要和稀缺,公司已获得50亿美元大单。

Lumen Technologies,这家一度被市场低估的光纤网络公司,近期因AI业务的爆发而备受瞩目。


随着AI模型训练对海量数据的需求不断增长,高速、稳定的光纤网络变得愈发重要。

近日,Lumen宣布公司凭借其强大的网络基础设施,获得了来自各大企业的50亿美元新业务订单。

这一消息发布后公司股价经历了剧烈波动。在同期标普500指数仅上涨了1.04%的情况下,Lumen大涨93.05%,引起了投资者的广泛关注。

01 AI为何如此依赖光纤网络?
AI模型的训练和推理通常会产生大量的数据,这些数据通常分布在全球各地的服务器上,需要高速、稳定的网络进行传输。光纤网络以其超高的带宽和低延迟,成为连接这些服务器的最佳选择。 此外,AI应用还催生了边缘计算的需求,即在靠近数据源的地方进行计算,以减少数据传输的延迟。光纤网络为边缘计算提供了可靠的底层基础设施。

02 股价上涨原因
这次股价大幅上涨的原因除了新业务订单外,还包括交易层面的“做空挤压”。
美银指出,先前,公司由于被预期没有成长前景,成为了一个高做空的股票,做空比例为14%,仅次于SATS(18%)。此次股票突然急剧上涨,迫使空头买入该公司的股票来对冲亏损。这种“做空挤压”,又导致Lumen股价进一步暴涨。

03 未来发展
谈及未来,Lumen透露,由于人工智能需求的蓬勃发展,光纤网络在 AI 数据处理过程中变得愈加重要和稀缺。公司正在与客户积极谈判,除了目前的50亿美元新业务订单外,未来还有望获得另外70亿美元的人工智能销售机会。
此外,7月份,Lumen还与微软(MSFT)达成了一个交易协议,微软将利用LUMN的传输服务来连接数据中心,而Lumen则将购买微软的云工具以帮助自动化业务并节省成本。
同时,为了支持AI数据中心的建设,Lumen还与光纤制造商Corning(GLW)达成了协议,预留未来两年10%的全球光纤组件产能。这一措施将帮助Lumen在未来两年内建设新的网络以满足AI需求。
尽管如此,美银指出,Lumen目前面临着较大的资本支出压力,且现金流呈下降趋势,在进行投资决策时,应充分考虑这些风险因素。


源链接:https://www.aixinzhijie.com/article/6846380

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

终端侧生成式AI下一步将如何演进?

生成式AI时代已经到来。生成式AI创新正在持续快速发展,并逐步融入人们的日常生活,为用户提供增强的体验、提高生产力和带来全新的娱乐形式。


那么,接下来会发生什么呢?本文将探讨即将到来的生成式AI趋势、正在赋能边缘侧生成式AI的技术进步和通向具身机器人之路。我们还将阐述高通技术公司的端到端系统理念如何处在赋能下一轮终端侧创新方面的行业最前沿。

生成式AI能力正在持续多维度提升

即将到来的趋势和终端侧AI的重要性

Transformer因其可扩展性,已成为主要的生成式AI架构。随着技术的不断演进,Transformer正在从传统的文本和语言处理扩展到更多模态,带来了全新能力。我们正在多个领域看到这一趋势,比如在汽车行业,通过多摄像头和激光雷达(LiDAR)的协同实现鸟瞰视角;在无线通信领域,利用Transformer结合全球定位系统(GPS)、摄像头和毫米波(mmWave)信号,以优化毫米波波束管理。

另一个主要趋势是生成式AI的能力在这两方面持续增强:

  • 模态和用例
  • 能力和KPI

在模态和用例方面,我们看到了语音UI、多模态大模型(LMM)、智能体、视频/3D的提升。在能力和KPI方面,我们看到了更长上下文窗口、个性化和更高分辨率的提升。

为了充分实现生成式AI的全部潜能,将这些趋势能力引入边缘侧终端对于实现时延改善、交互泛化和隐私增强至关重要。例如,赋能具身机器人与环境和人类实时交互,这就需要利用终端侧处理确保即时性和可扩展性。

我们正在通过多种技术优化模型,赋能高效终端侧AI

面向生成式AI的边缘平台技术进步

我们如何将更多生成式AI能力引入边缘终端呢?通过多维度技术研究,高通将全面推进面向生成式AI的边缘平台发展。

我们致力于通过知识蒸馏、量化、投机采样高效的图像和视频架构,以及异构计算等技术优化生成式AI模型,使其能够在硬件上高效运行。这些技术相辅相成,因此对从多角度解决模型优化和效率挑战至关重要。

以大语言模型(LLM)的量化为例。大语言模型通常以16比特浮点进行训练。我们希望在保持准确度的同时压缩大语言模型,以提高性能。例如,将16比特浮点(FP16)模型压缩为4位整数(INT4)模型,能够将模型缩小4倍,同时降低内存带宽占用、存储、时延和功耗。

量化感知训练结合知识蒸馏有助于实现准确的4位大语言模型,但如果需要甚至更低的bits-per-value指标,向量量化可帮助解决该问题。向量量化在保持期望准确度的同时,进一步压缩模…

另一个例子是高效视频架构。高通正在开发让面向终端侧AI的视频生成方法更高效的技术。例如,我们对视频到视频生成式AI技术FAIRY进行了优化。在FAIRY第一阶段,从锚定帧提取状态。在第二阶段,跨剩余帧编辑视频。优化示例包括:跨帧优化、高效instructPix2Pix和图像/文本引导调节。

通向具身机器人之路

高通已经将生成式AI的相关工作扩展到大语言模型及其相关用例研究,尤其是面向多模态大模型(LMM)集成视觉和推理。去年,我们在2023年国际计算机视觉与模式识别会议(CVPR 2023)上进行了支持基于实时视觉大语言模型的健身教练技术演示,我们在近期还探索了多模态大模型针对更复杂的视觉问题进行推理的能力。在此过程中,我们在存在运动和遮挡的情况下推断物体位置方面取得了行业领先技术成果。

然而,与情景式智能体进行开放式、异步交互是一项亟待解决的挑战。目前,大多数面向多模态大模型的解决方案只具备以下基本能力:

  • 仅限于离线文档或图像的基于回合的交互。
  • 仅限于在视觉问答式(VQA)对话中进行现实的快速抓拍。

我们在情景式多模态大模型方面取得了一些进展,这些模型能够实时处理直播视频流,并与用户进行动态交互。其中一项关键创新是针对情景式视觉理解的端到端训练,这将开辟通向具身机器人之路。

未来将有更多终端侧生成式AI技术进步

高通的端到端系统理念处于推动边缘侧生成式AI下一轮创新的行业最前沿。我们持续进行研究,并将新技术和优化快速引入商用产品。我们期待看到AI生态系统如何利用这些新能力,让AI无处不在,并提供更佳体验。

(骁龙、高通、以及其他Snapdragon与Qualcomm旗下的产品是高通技术公司和/或其子公司的产品。高通的专利技术是由美国高通公司授权。)



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

终端侧生成式AI下一步将如何演进?

生成式AI时代已经到来。生成式AI创新正在持续快速发展,并逐步融入人们的日常生活,为用户提供增强的体验、提高生产力和带来全新的娱乐形式。


那么,接下来会发生什么呢?本文将探讨即将到来的生成式AI趋势、正在赋能边缘侧生成式AI的技术进步和通向具身机器人之路。我们还将阐述高通技术公司的端到端系统理念如何处在赋能下一轮终端侧创新方面的行业最前沿。

生成式AI能力正在持续多维度提升

即将到来的趋势和终端侧AI的重要性

Transformer因其可扩展性,已成为主要的生成式AI架构。随着技术的不断演进,Transformer正在从传统的文本和语言处理扩展到更多模态,带来了全新能力。我们正在多个领域看到这一趋势,比如在汽车行业,通过多摄像头和激光雷达(LiDAR)的协同实现鸟瞰视角;在无线通信领域,利用Transformer结合全球定位系统(GPS)、摄像头和毫米波(mmWave)信号,以优化毫米波波束管理。

另一个主要趋势是生成式AI的能力在这两方面持续增强:

  • 模态和用例
  • 能力和KPI

在模态和用例方面,我们看到了语音UI、多模态大模型(LMM)、智能体、视频/3D的提升。在能力和KPI方面,我们看到了更长上下文窗口、个性化和更高分辨率的提升。

为了充分实现生成式AI的全部潜能,将这些趋势能力引入边缘侧终端对于实现时延改善、交互泛化和隐私增强至关重要。例如,赋能具身机器人与环境和人类实时交互,这就需要利用终端侧处理确保即时性和可扩展性。

我们正在通过多种技术优化模型,赋能高效终端侧AI

面向生成式AI的边缘平台技术进步

我们如何将更多生成式AI能力引入边缘终端呢?通过多维度技术研究,高通将全面推进面向生成式AI的边缘平台发展。

我们致力于通过知识蒸馏、量化、投机采样高效的图像和视频架构,以及异构计算等技术优化生成式AI模型,使其能够在硬件上高效运行。这些技术相辅相成,因此对从多角度解决模型优化和效率挑战至关重要。

以大语言模型(LLM)的量化为例。大语言模型通常以16比特浮点进行训练。我们希望在保持准确度的同时压缩大语言模型,以提高性能。例如,将16比特浮点(FP16)模型压缩为4位整数(INT4)模型,能够将模型缩小4倍,同时降低内存带宽占用、存储、时延和功耗。

量化感知训练结合知识蒸馏有助于实现准确的4位大语言模型,但如果需要甚至更低的bits-per-value指标,向量量化(VQ)可帮助解决该问题。向量量化在保持期望准确度的同时,进一步压缩模型大小。我们的向量量化方法能以INT4线性量化的相似精确性,实现3.125 bits-per-value,实现甚至更大的模型能够在边缘终端的DRAM限制内运行。

另一个例子是高效视频架构。高通正在开发让面向终端侧AI的视频生成方法更高效的技术。例如,我们对视频到视频生成式AI技术FAIRY进行了优化。在FAIRY第一阶段,从锚定帧提取状态。在第二阶段,跨剩余帧编辑视频。优化示例包括:跨帧优化、高效instructPix2Pix和图像/文本引导调节。

通向具身机器人之路

高通已经将生成式AI的相关工作扩展到大语言模型及其相关用例研究,尤其是面向多模态大模型(LMM)集成视觉和推理。去年,我们在2023年国际计算机视觉与模式识别会议(CVPR 2023)上进行了支持基于实时视觉大语言模型的健身教练技术演示,我们在近期还探索了多模态大模型针对更复杂的视觉问题进行推理的能力。在此过程中,我们在存在运动和遮挡的情况下推断物体位置方面取得了行业领先技术成果。

然而,与情景式智能体进行开放式、异步交互是一项亟待解决的挑战。目前,大多数面向多模态大模型的解决方案只具备以下基本能力:

  • 仅限于离线文档或图像的基于回合的交互。
  • 仅限于在视觉问答式(VQA)对话中进行现实的快速抓拍。

我们在情景式多模态大模型方面取得了一些进展,这些模型能够实时处理直播视频流,并与用户进行动态交互。其中一项关键创新是针对情景式视觉理解的端到端训练,这将开辟通向具身机器人之路。

未来将有更多终端侧生成式AI技术进步

高通的端到端系统理念处于推动边缘侧生成式AI下一轮创新的行业最前沿。我们持续进行研究,并将新技术和优化快速引入商用产品。我们期待看到AI生态系统如何利用这些新能力,让AI无处不在,并提供更佳体验。

(骁龙、高通、以及其他Snapdragon与Qualcomm旗下的产品是高通技术公司和/或其子公司的产品。高通的专利技术是由美国高通公司授权。)



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

通义千问开源Qwen2-Math,成为最先进的数学专项模型

8月9日消息,阿里通义团队开源新一代数学模型Qwen2-Math,包含1.5B、7B、72B三个参数的基础模型和指令微调模型。Qwen2-Math基于通义千问开源大语言模型Qwen2研发,旗舰模型 Qwen2-Math-72B-Instruct在权威测评集MATH上的得分超越GPT-4o、Claude-3.5-Sonnet、Gemini-1.5-Pro、Llama-3.1-405B等,以84%的准确率处理了代数、几何、计数与概率、数论等多种数学问题,成为最先进的数学专项模型。


Qwen2-Math解题示例

注:在MATH基准测评中,通义千问数学模型的旗舰款Qwen2-Math-72B-Instruct取得了84%的准确率,超过GPT-4o、Claude-3.5-Sonnet、Gemini-1.5-Pro 和 Llama-3.1-405B等开闭源模型。

Qwen2-Math 基础模型使用 Qwen2大语言模型进行初始化,并在精心设计的数学专用语料库上进行预训练,训练数据包含大规模高质量的数学网络文本、书籍、代码、考试题目,以及由 Qwen2 模型合成的数学预训练数据。所有预训练和微调数据集都进行了去污染处理。

随后,研发团队训练了指令微调版本模型:首先,基于Qwen2-Math-72B 训练一个数学专用的奖励模型;接着,将密集的奖励信号与指示模型是否正确回答问题的二元信号结合,用作学习标签,再通过拒绝采样构建监督微调(SFT)数据;最后在SFT模型基础上使用 GRPO 方法优化模型。

据悉,Qwen2-Math系列模型目前主要支持英文,通义团队很快就将推出中英双语版本,多语言版本也在开发中。

通义团队在多个中英文数学基准测评集对指令微调模型作了性能评估,除了 GSM8K 和 MATH等常见的测评基准,还引入了更具挑战性的考试竞赛类测试,如奥林匹克级别的基准测评OlympiadBench、大学数学级别的基准测评CollegeMath、高考(GaoKao)、美国数学邀请赛(AIME)2024 赛题、美国数学竞赛( AMC)2023赛题,中文测评则有CMATH测评集、2024年中国高考和中考数学题。最终,Qwen2-Math-72B-Instruct表现优异,在十大测评中都获得了远超其他开源数学模型的成绩。

img

注:研发团队在greedy和RM@8 的条件下对模型作了测评,表中为每款Qwen2-Math-72B-Instruct模型列出了三个得分结果,分别是第1次回答得分(无下标数字)、8次回答中出现最多次数的答案的得分,8次回答中reward model所选答案的得分。

“大模型能不能做数学题”,不仅是社交平台的热门话题,也是业界非常关注的研究课题。处理高级数学问题,需要模型具备复杂多步逻辑推理能力。通义团队在技术博客中表示,希望通过开源“为科学界解决高级数学问题做出贡献”,未来将持续增强模型数学能力。

附:Qwen2-Math解题示例

Qwen2-Math解题示例



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB