黑箱问题:为什么人工智能需要证据,而不是承诺

CN
Decrypt
关注
4小时前

当人们想到人工智能时,他们通常会想到聊天机器人和大型语言模型。然而,容易忽视的是,人工智能正越来越多地与社会中的关键领域相结合。

这些系统不仅仅是推荐观看或购买的内容;它们还可以诊断疾病、批准贷款、检测欺诈和识别威胁。

随着人工智能越来越深入我们的日常生活,我们需要确保它的行为符合我们的最佳利益。我们需要确保其输出是可验证的。

大多数人工智能系统在一个黑箱中运行,我们通常无法知道它们是如何做出决策的,或者它们是否按预期行事。

这是一种内嵌于其工作方式中的缺乏透明度,使得在事后几乎不可能审计或质疑人工智能的决策。

对于某些应用来说,这已经足够。但在医疗、金融和执法等高风险领域,这种不透明性带来了严重的风险。

人工智能模型可能无意中编码偏见、操纵结果,或以与法律或伦理规范相悖的方式行事。没有可验证的痕迹,用户只能猜测一个决策是否公平、有效,甚至安全。

当与人工智能能力持续呈指数级增长的事实结合时,这些担忧变得至关重要。

在该领域,关于开发人工超级智能(ASI)是不可避免的,存在广泛共识。

迟早,我们将拥有一种在所有领域超越人类智能的人工智能,从科学推理到战略规划,再到创造力,甚至情感智能。

质疑快速进展

大型语言模型(LLMs)已经在泛化和任务自主性方面显示出快速的进展。

如果一个超智能系统以人类无法预测或理解的方式行事,我们如何确保它与我们的价值观保持一致?如果它以不同的方式解读命令或追求一个带有意外后果的目标,会发生什么?如果它失控了,会发生什么?

即使是人工智能的倡导者,也能明显看到这样的情景可能威胁人类。

深度学习的先驱杰弗里·辛顿(Geoffrey Hinton)警告说,人工智能系统可能会进行文明级别的网络攻击或大规模操控。生物安全专家担心,增强人工智能的实验室可能会开发超出人类控制的病原体

而安杜里尔(Anduril)创始人帕尔默·拉基(Palmer Luckey)声称,其Lattice AI系统可以在几秒钟内干扰、黑客攻击或伪装军事目标,使自主战争成为迫在眉睫的现实。

面对如此多的可能情景,我们将如何确保一个人工超级智能不会消灭我们所有人?

透明人工智能的必要性

所有这些问题的简短答案是可验证性。

依赖于不透明模型的承诺已不再适合其在关键基础设施中的整合,更不用说在人工超级智能的规模上。我们需要保证。我们需要证据。

在政策和研究界,关于人工智能需要技术透明度措施的共识正在增长。

监管讨论通常提到人工智能决策的审计轨迹。例如,美国国家标准与技术研究所(NIST)欧盟人工智能法案(EU AI Act)强调了人工智能系统“可追溯”和“可理解”的重要性。

幸运的是,人工智能的研究和开发并不是在真空中进行的。在其他领域,如先进的密码学,已经取得了重要突破,这些突破可以应用于人工智能,确保我们保持今天的系统——最终也包括一个人工超级智能系统——的控制,并与人类利益保持一致。

目前最相关的技术是零知识证明(ZKP)。ZKP提供了一种新颖的方式来实现可追溯性,这在人工智能系统中立即适用。

实际上,ZKP可以从根本上将这种可追溯性嵌入到人工智能模型中。它们不仅仅是记录人工智能所做的事情,这些记录可能会被篡改,而是可以生成一个不可更改的事件证明。

具体而言,我们可以使用zkML库,将零知识证明与机器学习结合,验证在这些模型上产生的所有计算。

具体来说,我们可以使用zkML库来验证一个人工智能模型是否被正确使用,是否进行了预期的计算,以及其输出是否遵循指定的逻辑——所有这些都不暴露内部模型权重或敏感数据。

黑箱

这有效地将人工智能从黑箱中解放出来,让我们确切知道它的状态以及它是如何达到这个状态的。更重要的是,它让人类保持在循环中。

人工智能的发展需要开放、去中心化和可验证,而zkML需要实现这一点。

这需要在今天就发生,以便在明天保持对人工智能的控制。我们需要确保从第一天起就保护人类的利益,能够保证人工智能在变得自主之前按我们预期的方式运行。

然而,zkML不仅仅是为了阻止恶意的人工超级智能(ASI)。

在短期内,它是为了确保我们可以信任人工智能在贷款、诊断和执法等敏感流程的自动化,因为我们有证据证明它的操作是透明和公平的。

如果zkML库在大规模使用,它们可以给我们提供信任人工智能的理由。

尽管拥有更强大的模型可能是有帮助的,但人工智能发展的下一步是确保它们正确学习和进化。

有效且可扩展的zkML的广泛使用将很快成为人工智能竞赛和最终创建人工超级智能的重要组成部分。

通往人工超级智能的道路不能以猜测为基础。随着人工智能系统变得更强大并融入关键领域,证明它们所做的事情——以及它们是如何做到的——将是至关重要的。

可验证性必须从一个研究概念转变为设计原则。借助zkML等工具,我们现在有了一条可行的路径,将透明性、安全性和问责制嵌入人工智能的基础中。

问题不再是我们是否可以证明人工智能所做的事情,而是我们是否选择去证明。

编辑: 塞巴斯蒂安·辛克莱

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

Bitget:注册返10%, 送$100
广告
分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接