“人工智能教父”警告超级智能机器可能通过生物战争消灭人类

CN
Decrypt
关注
8小时前

杰弗里·辛顿,广为人知的“人工智能教父”,在一次新的采访中发出了他迄今为止最严厉的警告,警告称人工智能不仅对就业构成威胁,还对整个人类构成生存风险,因为世界正朝着超智能机器的方向快速发展。

在“首席执行官日记”播客中,辛顿描绘了一个严峻的未来愿景,暗示人工智能最终可能会认为人类本身是多余的。

“如果它想要消灭我们,就没有办法阻止它,”辛顿说。“我们不习惯思考比我们更聪明的事物。如果你想知道当你不是顶尖智能时生活是什么样的,问问鸡就知道了。”

辛顿表示,这种威胁将以两种不同的形式出现:一种是源于人类的误用,例如网络攻击、虚假信息传播和自主武器的制造;另一种是来自完全自主且无法控制的人工智能系统。

“他们现在可以制造致命的自主武器,我认为所有大型国防部门都在忙着制造它们,”他说。“即使它们不比人聪明,它们仍然是非常可怕、令人恐惧的东西。”

在2023年5月,辛顿,这位神经网络的先驱,离开了谷歌和多伦多大学,结束了他在人工智能领域超过十年的工作,以便能够自由地谈论这项技术的危险。

辛顿的警告正值人工智能军事应用激增之际。最近的发展突显了技术在国防行动中的快速整合,美国在资金和合作伙伴关系的增加中处于领先地位。

在11月,为了增强军队的人工智能和自主武器能力,美国国防部在其2025年预算提案中请求了$1430亿美元用于研究和开发,其中专门分配了18亿美元用于人工智能。今年早些时候,软件开发商Palantir获得了一份$1.75亿美元的合同,与美国陆军合作开发人工智能驱动的目标系统。在3月,五角大楼与Scale AI合作推出了一款名为Thunderforge的人工智能代理战场模拟器。

辛顿将当前时刻比作核武器的出现,除了人工智能更难以控制,并且在更多领域中有用。

“原子弹只适用于一件事,而且它的工作原理非常明显,”他说。“而人工智能适用于许多许多事情。”

辛顿解释说,企业利润动机和国际竞争的结合是人工智能发展不会减缓的原因。

“利润动机在说:展示任何能让他们点击的东西,而让他们点击的东西是越来越极端的,确认他们现有的偏见,”他说。“所以你一直在确认自己的偏见。”

人工智能将如何消灭人类?辛顿表示,超智能人工智能可能会设计新的生物威胁来消灭人类。

“显而易见的方法是创造一种恶劣的病毒——非常具有传染性、致命且传播缓慢——这样每个人在意识到之前都会感染,”他说。“如果超智能想要消灭我们,它可能会选择一些不会影响它的生物性东西。”

尽管前景黯淡,辛顿并不完全没有希望。

“我们根本不知道我们是否能让它们不想接管,不想伤害我们。我认为这并不明确,所以我认为这可能是无望的,”辛顿说。“但我也认为我们可能能够做到,如果人类灭绝而我们不愿意尝试,那就有点疯狂。”

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

ad
追热点必备!注册HTX领1500U
广告
分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接