2025-06-17 06:00:26来源:发米下载 作者:zhoucl
被誉为“人工智能教父”的杰弗里·辛顿在一次新采访中发出了迄今为止最严厉的警告,警告称人工智能不仅对就业构成威胁,而且随着世界加速走向自动化,人工智能还会对整个人类的生存构成威胁。超级智能機器。
谈论《CEO日记》播客,Hinton 描绘了一幅黯淡的未来景象,他认为人工智能最终可能会认定人类本身已经过时了。
“如果它想除掉我们,我们根本没办法阻止,”辛顿说。“我们不习惯思考比我们更聪明的事物。如果你想知道当你不是顶尖智力时生活是什么样的,去问一只鸡吧。”
辛顿表示,威胁将采取两种不同的形式:一种是源于人类的滥用,例如网络攻击、错误信息的传播和自主武器的制造;另一种是源于完全自主和不受控制的人工智能系统。
“他们现在可以制造致命的自主武器了,我认为所有主要的国防部门都在忙着制造它们,”他说。“即使它们不比人类聪明,它们仍然是非常危险、可怕的东西。”
2023 年 5 月,神经网络先驱 Hinton左边他曾在谷歌和多伦多大学从事人工智能研究十多年,因此他可以自由谈论这项技术的危险性。
欣顿的警告是在人工智能军事应用激增的背景下发出的。近期的发展突显了技术与国防行动的快速融合,美国在资金和合作伙伴关系方面处于领先地位。
11 月,为了增强军队的人工智能和自主武器,美国国防部请求1430亿美元在其提交给国会的2025年预算提案中,有18亿美元专门用于人工智能研发。同年早些时候,软件开发商Palantir获得了1.75亿美元与美国陆军签订合同,开发人工智能瞄准系统。今年3月,五角大楼与Scale AI合作,推出了一款名为“雷霆熔炉.
Hinton 将当前时刻比作核武器,只不过人工智能更难控制,而且在更多领域有用。
“原子弹只有一个用途,它的工作原理非常明显,”他说,“而人工智能可以做很多很多事情。”
辛顿解释说,企业利润动机和国际竞争的结合是人工智能发展不会放缓的原因。
“利润动机就是告诉他们:只要能让他们点击就给他们看,而真正让他们点击的,是越来越极端的东西,这进一步证实了他们已有的偏见,”他说。“所以,你的偏见一直在不断得到证实。”
人工智能会如何灭绝人类?辛顿表示,超级智能AI可以设计出新的生物威胁来消灭人类。
“最显而易见的方法是制造一种极其危险的病毒——传染性极强、致命性极高、传播速度极慢——这样每个人都会在不知不觉中感染它,”他说。“如果超级智能想要消灭我们,它很可能会选择某种不会对它造成影响的生物。”
尽管前景黯淡,但辛顿并非完全没有希望。
“我们根本不知道能否阻止它们占领地球,阻止它们伤害我们。我认为我们目前还不清楚能否做到,所以我觉得这或许毫无希望,”辛顿说。“但我也认为我们或许能够做到,而且如果因为我们懒得尝试而导致人类灭绝,那也未免太疯狂了。”