人工智能教父缩短了未来三十年内技术消灭人类的概率
这位被誉为“人工智能教父”的英加计算机科学家缩短了未来三十年内人工智能消灭人类的概率,并警告称,技术变化的速度比预期的要“快得多”。
教授杰奥弗里·辛顿(Geoffrey Hinton)今年因其在人工智能领域的贡献获得了诺贝尔物理学奖,他表示,人工智能导致人类灭绝的概率在10%到20%之间。此前,辛顿曾表示,这一技术引发灾难性后果的概率为10%。在接受BBC Radio 4的《今日》节目采访时,当被问及他是否改变了对潜在AI大灾变的看法时,他回应说:“不太算,10到20%。”
辛顿的估计引发了节目的嘉宾编辑、前财政大臣萨吉德·贾维德(Sajid Javid)的评论:“你正在上升。”辛顿则回答道:“如果有的话。你看,我们从未遇到过比我们更聪明的事物。”他补充说:“有多少例子显示,更智能的东西可以被较少智能的东西控制呢?几乎没有例外。只有母亲和婴儿的例子。进化花了很多心思让婴儿控制母亲,但这大概是我所知道的唯一例子。”
出生于伦敦的辛顿,现为多伦多大学名誉教授,他表示,人类在高度强大的人工智能系统面前就像幼儿。“我喜欢把它想象成:想象你自己和一个三岁孩子。我们将像三岁孩子一样,”他说。
人工智能可以被粗略定义为执行通常需要人类智慧的任务的计算机系统。去年,辛顿因担忧不受约束的人工智能发展可能带来的风险而辞去谷歌的职位,以便能够更自由地发声,他指出,”坏人”可能利用这项技术伤害他人。人工智能安全倡导者的一个关键关注点是,创造出超越人类智能的人工通用智能(AGI)系统,可能导致该技术对人类构成生存威胁,因为它们可能逃避人类的控制。
回顾他开始研究这项技术时认为人工智能的发展会达到什么水平,辛顿表示:“我当时并没有想过会发展到现在这个地步。我的想法是,我们总会在某个时间点达到这一水平。”
他补充说:“因为我们现在的情况是,大多数领域的专家认为,可能在未来20年内,我们将开发出比人类更聪明的人工智能。这是一个非常可怕的想法。”辛顿表示,发展的速度“非常非常快,比我预期的快得多”,并呼吁对该技术进行政府监管。“我担心的是,隐形的手是无法保证我们的安全的。因此,仅仅依靠大型公司的利润动机是不足以确保他们安全发展这项技术。”他说:“唯一能迫使那些大公司进行更多安全研究的,是政府的监管。”
辛顿是三位曾因其贡献获得ACM AM图灵奖——计算机科学界相当于诺贝尔奖的荣誉——的“人工智能教父”之一。然而,三位之一的谷歌首席人工智能科学家扬·勒库恩(Yann LeCun)则淡化了生存威胁的说法,他表示,人工智能“实际上可以拯救人类免于灭绝”。
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。
人工智能教父缩短了未来三十年内技术消灭人类的概率
install_url
to use ShareThis. Please set it in _config.yml
.