科技景观:想知道AI将如何影响政府与政治?机器人有答案

什么样的影响将AI带给就业?这是关于技术最重要的问题之一,甚至在这项技术从科幻变为现实的过程中也难以确定。


在这个问题上,有一个轻微乐观的说法是新技术只是创造了新的工作岗位;而在另一端,人们担心企业将用AI工具取代整个工作人员。有时,争论并非关于最终状态,而更多是关于过渡速度:在几年内完成的动荡对于中间受影响的人来说是毁灭性的,而在花费两个十年的情况下可能是可以忍受的。即使是过去的类比也并不像我们希望的那么清晰。内燃机最终终结了工作马的时代,但蒸汽机则产生了截然相反的效果,在英国大大增加了受雇运输货物的包裹动物的数量。为什么?因为铁路导致国家范围内的货物运输繁荣,但不能完成从仓库到门口的交付。马需要做蒸汽机无法做的事情。直到它们也不再需要了。

蒸汽动力和内燃机是通用技术的例子,它们改变了整个社会结构。即使从书写开始计数,也并没有太多这样的例子,或者甚至从火的诞生开始计数也是如此。我相信,“生成预训练变换器”这个术语具有相同的缩写是一个完全的巧合,所以GPT似乎是一个GPT。

人不是马,AI工具也不是人类。人不是马[需要引证]。看起来AI技术可能永远不会能够做到人类完全能做到的一切,因为人类所能做的一部分就是作为人类存在,这看似有些牵强,但却是一个重要的论断。马仍然参与赛马比赛,因为如果你把马换成了汽车,那就不是马术比赛了[需要引证];人们仍然会提供那些因为某种原因人们希望由人提供的服务。随着文化围绕着AI的崛起发生变化,人们觉得有些这样的服务可能会让我们感到惊讶。例如,医疗保健中的AI是被低估的,因为对很多人来说,“人情味”是一件不好的事情:你担心的那个医生是否在评判你的饮酒,或者那个你对其撒谎是因为你希望他们喜欢你的心理医生。

因此,很多人喜欢思考的不是工作岗位,而是“任务”。拿一个工作,用任务来定义它,然后问AI是否能够完成这些任务。通过这种方式,您可以确定一些任务在完全被AI吞噬的风险之中,一些任务是绝对安全的,而一个大部分则会“受到”AI的影响,无论结果如何。值得注意的是很明显的一点:这种方法论机械化地使得大量工作岗位受到“影响”,而只有少数工作岗位会被“销毁”。 (即使受到AI影响最大的工作可能也存在一些AI难以完成的任务)。这可能是OpenAI先驱的一种方法。在2023年的一篇论文中,与该实验室有关的研究人员估计:

「80%的工人属于被至少10%任务暴露于LLM的行业,而19%的工人所从事的行业中超过一半任务被标注为暴露。」

该报告认为,包括数学家、法律秘书和……记者在内,有15至86个职业“完全暴露”。

经过一年后,由于批评者对该方法论提出了异议,报告再次成为新闻焦点,这主要得益于托尼·布莱尔研究所(TBI)发布的一份论文。这个强大的智库甚至在两周前的工党压倒性胜利之前就已经强大而有影响力;现在,它被视为斯塔默思想的缔造者之一。它认为公共部门正处于AI颠覆的时机。从该研究所的论文《AI对公共部门劳动力的潜在影响》(pdf)中:

「通过基于AI的软件,例如机器学习模型和大型语言模型,以及从AI启用的传感器到先进机器人的硬件的组合,公共部门工作者执行的超过40%的任务可以在一定程度上自动化。政府将需要投资于AI技术,升级其数据系统,培训其工作人员使用新工具,并覆盖与工作组早期退出相关的任何冗余成本。根据一个雄心勃勃的推出计划,我们估计这些成本相当于本届议会任期平均每年40亿英镑。」

在过去的几周里,TechScape一直在关注新政府对AI的态度。明天,预计国王演讲中将会有一个AI法案。TBI的论文为我们提供了一个锚定点:在转型投资是否会接近每年40亿英镑?虽然很多事情可以免费完成,但有更多的事情可以用大量资金完成。根据该研究所的估计,支出将有超过9:1的回报;但是在没有问题的情况下,20亿英镑的账单很难在议会中通过。

界定AI狂热者

经过周末,这份报告引起了第二波兴趣,批评者对研究方法提出了异议。根据404 Media发布:跳过通讯推广订阅在TechScape免费订阅Alex Hern的每周深入探讨技术如何塑造我们生活的通讯输入您的电子邮箱地址注册隐私声明:通讯中可能包含有关慈善机构、在线广告以及由外部政党资助的内容的信息。更多信息请查看我们的隐私政策。我们使用Google reCaptcha来保护我们的网站,适用Google隐私政策和服务条款。通讯推广后

这个预测的问题在于,基于专家采访的预测将会太困难。基本上,AI工具提出AI可以取代人类从事工作的发现,并从根本上改变政府如何运作的发现在很大程度上是由AI本身实现的。

伦敦大学学院副教授Michael Veale告诉我:“这种方法并没有验证语言模型在实质上是否能够自动化。自动化是一个复杂的现象 - 在政府领域,它涉及多个行政层次、共享标准、法律变迁以及极低的失败成本。这些任务并不是孤立存在的,而是成为更广泛的一系列实践和例行工作的一部分。”

将工作岗位细分为任务已经在美国劳工部创造了一个庞大的数据库。但是,描述哪些任务受到AI影响是一项繁重的工作。在OpenAI的类似论文中,“作者们亲自标记了大量任务和DWAs,并征集了有经验的人类注释者来审查GPT-3、GPT-3.5和GPT-4的输出作为OpenAI对齐工作的一部分”,但他们也委托当时新推出的GPT-4来完成同样的任务,并发现机器人和人类之间有60到80%的一致性。

TBI的论文跳过了专家,只是让AI来回答问题。在引起广泛关注后,该论文悄悄更新了一个长达八页的附录以捍卫这种选择:

「显然,这些方法之间存在权衡。没有哪种是完美的。对人类判断的依赖可能会限制分析到更广泛的任务分类并减少对时间节约的具体描述。另一方面,追求更详细的分类通常会更多地依赖AI来支持评估。」

但取消人类标注员并非OpenAI论文和TBI后续研究之间的唯一区别。职员们还使用了一个更为详细的提示,鼓励AI系统详细考虑给定任务所涉及的认知和身体劳动的性质,在问AI是否能够完成一个任务之前,并提出后续问题,以确保只有那些实际上可自动化的任务得到计算。这是“提示工程”的行动,通过鼓励AI系统采取逐步推理方法来改进其答案。这也是所谓的“过度悬挂”的一个例子:研究人员在两种情况下都使用了相同的GPT-4模型,但通过与之更好地合作,TBI团队能够从中得到更好的成果。随着尘埃落定,这份新附录可能是整个论文中最重要的部分。顶层发现可能是真实的,基本上是真实的,因为GPT-4非常擅长产生可能基本上是真实的文本。毫无疑问,如果有人有时间浏览它在标记上数以千计任务的许多页面,那么可能会存在一些误差、陈词滥调和幻觉。但在研究的规模上,它们并不重要。发现也不重要。“一些但不是所有的公共部门任务可能会受到AI的自动化影响”是一个相当容易的说法。将数字放在上面有助于为投资辩护,但您将是一个傻子如果赌“40%”比50%或30%更准确。相反,这篇论文是通过实践进行教学。您想知道AI将如何影响政府与政治?好了,在这里就有了。一份在很大程度上节省成本的论文被提交给了一个观众,这个观众的方法当中论文的创作方式本身对其结果表示怀疑。再重复八千个任务,您就会逐渐更接近于理解AI对工作的影响 - 并且会看到这将会是一个绝不干净的过渡。

探索更多关于这些主题的信息
技术
科技景观通讯
人工智能(AI)
就业
计算
工作与职业
公务员
托尼·布莱尔
特色

转载此内容。请注意:Title、Date、Body 三个部分的内容,放入到对应的位置;Title部分内容需翻译为中文。最后以Makedown格式标准输出。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

科技景观:想知道AI将如何影响政府与政治?机器人有答案

https://www.gptnb.com/2024/07/17/2024-07-16-auto1-gQyGkV/

作者

ByteAILab

发布于

2024-07-17

更新于

2025-03-21

许可协议