本文《释放创造力:探索人工智能在设计和开发中的力量》作者Anushka Singh提出了一个重要的问题,即如何利用人工智能(AI)来激发创造力,并将其应用到设计和开发领域中。本
本文《释放创造力:探索人工智能在设计和开发中的力量》作者Anushka Singh提出了一个重要的问题,即如何利用人工智能(AI)来激发创造力,并将其应用到设计和开发领域中。本
最近,OpenAI发布了一份GPT-2模型的泄露文件,这引起了全球人工智能研究领域的震动。这
这篇文章介绍了一项利用人工智能技术进行跨文化情感研究的项目,该项目旨在分析音乐歌词中的情感表达方式,并探索不同文化背景下人们对情感的理解和表达。
首先,作者提到了传统的情感研究方法存在的问题。传统方法主要依赖于人类主观判断和经验,而忽略了跨文化差异和数据量的限制。此外,这些方法也无法处理大量的音乐歌词数据,因此需要一种更为自动化、准确且可扩展的方法来解决这些问题。
为了解决这些挑战,作者提出了一种基于人工智能技术的情感分析模型。该模型利用了深度学习和自然语言处理(NLP)技术,将音乐歌词转换成情感标签,并进行跨文化比较研究。
具体来说,该项目使用了一个名为“EmoTract”的情感分析工具,它可以自动识别和分类出不同类型的情感,如喜悦、悲伤、愤怒等。通过对大量的音乐歌词数据集进行训练,EmoTract模型能够准确地判断每个单词或短语所表达的情感,并将其转换为情感标签。
在研究中,作者使用了来自不同文化背景下的音乐歌词数据集,如英语、西班牙语和汉语等。通过对这些数据进行分析和比较,他们发现了一些有趣的跨文化差异:
本文是一篇关于如何在2024年学习人工智能(AI)的路线图。作
这篇文章介绍了四种高级的RAG(Relative Absolute Gradient)算法,它们是用于训练神经网络的一种优化方法。这
本文是一份关于学习人工智能(AI)的路线图,旨在帮助读者了解未来五年的AI发展趋势,并提供一些建议和指导,以便他们能够更好地掌握这一领域的知识。
使用OpenAI、Vercel和Gandalf构建应用程序,揭示您的Netflix观看历史中的有趣事实
本文介绍了如何使用OpenAI的GPT模型和Vercel平台来构建一个应用程序,该应用程序可以从用户的Netflix观看历史中提取有趣的事实。
本文是一份关于在2024年学习人工智能(AI)的路线图的指南。本
这篇文章介绍了一个名为“Advanced RAG 11 Query Classification and Refinement”的项目,该项目旨在改进搜索引擎的查询分类和精简功能,以提高用户体验。
人权律师苏西·阿莱格雷: “如果人工智能如此复杂以至于无法解释,就有一些领域不应使用”
苏西·阿莱格雷是一位国际人权律师和作家,原籍马恩岛,近年来专注于技术对人权的影响。
作为一名法律专家,她曾就反恐怖主义和反腐问题为国际特赦组织、联合国等组织提供咨询。她的第一本书《自由思考》,于2022年出版并入围克里斯托弗·布兰德奖,探讨了思想自由的法律历史。在她的新书《人权、机器人错误》中,她转向关注人工智能在战争、性和创造力等领域如何威胁我们的权利,以及我们可以采取什么行动来反击。
你是如何被促使撰写这本书的?
有两个触发因素。一个是ChatGPT的迅猛发展,以及有关每个人现在都可以成为小说家,并且不再需要人类创作者的说法,因为人工智能将能够为我们完成所有工作。这让人感到非常沮丧。第二个是有关比利时男子在与AI聊天机器人进行六周密集关系后自杀的故事。他的遗孀认为,如果没有这段关系,扭曲了他世界观的关系,他可能还会陪伴她和孩子们。这促使我思考-这绝对涉及到生存权、家庭生活权、思想自由权和免受操纵权。我们如何思考人工智能以及它如何对我们的人权产生严重影响?
你不太认为人工智能末日的威胁是现实。
我认为这是一种转移注意力。我们需要担心的是如何在人工智能的发展、销售和使用中设定限制。最终,在技术背后都是人,设计阶段,尤其是营销中都有人,还有我们如何决定其使用方式。
我们听到的关于人工智能的一切都表明它正以令人难以置信的速度发展,模型操作的复杂程度甚至连它们的创造者都无法掌握。监管者如何希望跟上发展?
我认为这有很多虚假花招。就像《绿野仙踪》中托托拉开窗帘,我们可以看到发生在背后的事情。因此,我们不需要认为一切都是不可避免和无所不知的。我们仍然可以做出选择和提出问题。此外,如果某些事物过于复杂以至无法解释,那么就有一些领域不应使用它。
现有的法律体系和人权宪章是否能够处理人工智能的挑战,还是我们需要创建一个新框架?
我认为我们并不需要一个新框架,但我们真正需要的是获得司法审查。可能需要开发某些法律途径。但一个真正的挑战是,你如何反击?你如何强制执行监管?这就是我们在一些大科技公司方面看到的情况:他们的活动被发现违法,他们被处以巨额罚款,但他们仍然继续下去。
关于性机器人和聊天机器人,您还有一个非常有趣的章节。主要的担忧是什么?
我之前从未考虑过这整个领域,当我意识到广泛使用人工智能机器人代替人类伴侣时,我感到非常震惊。让我担忧的原因是这是私营部门技术,正在替代人际关系,这在社会控制层面非常危险。这不是道德问题,而是关于这对人类社会和我们合作和联系能力意味着什么的问题。
人工智能对于无法负担法律代表费用的人来说不是好消息吗?
这取决于情况。如果你说的是仅涉及了解规则的基本纠纷,技术可以改善访问。但在面对更复杂的问题时,生成式人工智能实际上并不知道法律是什么,它可能会给你大量无用的信息-当一种东西以机器的权威声音发布时,人们很难对其产生怀疑。
当您询问ChatGPT:“谁是苏西·阿莱格雷”时发生了什么?
它说苏西·阿莱格雷不存在,或者至少不在互联网上。鉴于我的第一本书已于一年前出版,我有点失望。我问它,谁写了《自由思考》,它给出的第一个人是一位男生物学家。我问了一遍又一遍,它给出了20个不同的名字,全部是男性,除了一个。似乎对于ChatGPT来说,一个女性写书论思想是绝对不可思议的。
您对聊天机器人公司使用“公平使用”辩护进行护航来吸收文字和图像以供养AI的做法有什么看法?
我不是美国版权律师,所以我对此没有专业知识,但看看在不同司法管辖区内案例进展将会非常有趣。美国在言论自由等问题上与世界几乎所有其他地方有非常不同的做法,以支持科技行业的发展。无论“公平使用”辩护的合法性如何,这都对人类创造力、新闻业和信息领域的未来提出了巨大问题。而其背后的基本问题是创作者收入的大幅减少-总体走势是剥夺创作者的经济激励。
如果您在书中提出的所有监管措施都得以通过,那是否存在扼杀创新的危险?
这有点是诡辩,即监管扼杀创新的想法。监管实际上是使创新朝着某个方向发展并关闭将会非常有害的方向。事实上,我认为存在相反的风险,即如果允许人工智能在破坏我们思考自己、争取回收我们的注意力的方式中占据主导地位,我们将失去创新的能力。
您指出,人工智能并不只是浮在我们头顶上的一团良善云彩。它基于物质提取和对工人的剥削,主要发生在全球南方,而且运行起来是极其污染的。但很多东西都被隐藏起来。我们如何着手解决这些影响?
这是一个巨大的问题。一种处理方法是从ESG(环境、社会和治理)的角度审视人工智能采用问题。我们现在使用的所有设备,包括我们正在通话的手机,都是由通常从冲突地区采集的矿石制成的,包括儿童劳动。意识到这一点有助于帮助社会需求和消费习惯发生转变。你可以使用生成式人工智能制作一个滑稽的表情包,但你消耗了多少水和能源?难道你不可以拿起一支铅笔,这可能更加令人满足吗?
您有时候希望人工智能可以被重新搁置吗?
这并不是一个全是非的问题,要么禁止人工智能,要么将其置于生活的方方面面。问题在于选择我们想要将人工智能用于何处。持批判态度并提出问题并不意味着你反对人工智能:这只是表示你反对人工智能的炒作。
《人权、机器人错误》一书由苏西·阿莱格雷编著,由大西洋出版社出版(12.99英镑)。支持《卫报》和《观察家》订购您的副本,请访问guardianbookshop.com。可能需要支付交付费用。探索更多关于这些主题的内容:人工智能(AI)、《观察家》、ChatGPT、采访。分享。本内容可重复使用。
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。