赶上最新的AI论文

法律硕士们知道吗?

法律硕士们知道吗?

大型语言模型

三个要点
✔️ 一篇讨论 LLM 是否有意识问题的论文
✔️ 逐一解释了说它们有意识或无意识的证据
✔️ 目前还不能说它们有意识,但不能否认这种可能性会越来越大

Could a Large Language Model be Conscious?
written by David J. Chalmers
(Submitted on 4 Mar 2023 (v1), last revised 29 Apr 2023 (this version, v2))
Comments: Published on arxiv.

Subjects: Artificial Intelligence (cs.AI); Computation and Language (cs.CL); Machine Learning (cs.LG)

code: 

本文所使用的图片要么来自论文、介绍性幻灯片,要么是参考这些图片制作的。

*本文是作者大卫-查莫斯(David J. Chalmers)在 2022 年 NeurIPS 大会上发表的特邀演讲的摘要。演讲内容请点击此处。

导言

2022 年 6 月,谷歌工程师布莱克-勒莫因(Blake Lemoine)声称,谷歌的人工智能 LaMDA 具有意识;谷歌不接受这一说法,并声称没有证据表明 LaMDA 已发展出意识,导致他被解雇。

但是,我们到底有什么证据来证明人工智能没有意识呢?这件事促使本文作者查尔默斯思考,可以用什么样的证据来证明人工智能是否有意识。

什么是意识?

意识是一种主观体验。当一个生命有意识时,它就会有视觉、感觉和思维等主观体验。蝙蝠通过超声波感知世界。我们人类不知道这些体验是什么,但我们仍然可以说蝙蝠有主观体验,它们是有意识的。另一方面,像塑料瓶这样的东西可以说没有主观体验。

意识也是许多要素的集合体。这些元素包括与感知相关的感官体验、与感受相关的情感体验、与思考和推理相关的认知体验、与行动相关的代理体验以及意识到自己的自我意识。这些都是意识的要素。

意识也与一个人是否具有人类水平的智力无关。许多人都认为,非人类动物也有意识。

意识问题的难点在于,没有一个可操作的定义可以提供一个标准来证明一个人是有意识的。对于人类,语言描述可以作为意识的标准;对于动物,行为可以作为标准。然而,在处理人工智能时,这就很困难了。我们通常使用基准来评估人工智能的性能,但我们应该用什么基准来衡量意识呢?

为什么意识首先是重要的?作者指出,虽然不能保证意识会导致获得特定的新能力,但它可能会导致获得独特的功能,如推理、注意力和自我意识。

意识也具有道德和伦理方面的重要性。这也关系到我们人类如何对待有意识的生命。这也引出了我们是否应该创造有意识的人工智能的问题。

在这一节中,我们从各个方面介绍了什么是意识,以及让人工智能具有意识意味着什么。他说,本文描述的路线图描述了创造有意识人工智能的条件,应该与是否应该这样做的问题分开。

我们有什么证据可以证明大型语言模型(LLM)具有意识?

让我们考虑一下 X,如果一个系统具有 X(如图所示),那么这就可以作为表明它具有意识的依据。我们已经确定了以下四个候选方案。

X = 自报

LaMDA 的表现似乎能够自我报告。(布莱克-勒莫瓦纳认为 LaMDA 是有意识的,其依据主要就在于这一项)。

然而,正如许多人指出的那样,LaMDA 很容易表现出相反的行为,就好像它是一把手一样。这将使自我报告项目成为证明 LaMDA 意识到当前情况的薄弱基础。

另一个问题是,LaMDA 使用大量有关意识的文本信息进行学习。

X = 似乎有意识

低等生物的行为仿佛具有意识这一事实可能是 X 的候选之一。然而,众所周知,人们会把没有意识的东西误认为是有意识的,因此这个 X 的基础并不牢固。

X = 对话能力

目前的法学硕士在会话中表现出连贯的思考和推理能力,并拥有高级会话技能。图灵将这种会话能力定位为思维的一种特征。预计这种能力将在未来继续发展。

X = 一般智力

会话可能是更深层次、更普遍的智能的标志。目前的 LLM 开始显示出领域通用能力。编码、诗歌、玩游戏、回答问题和许多其他能力正在实现。一些人认为,这种对信息的领域性使用是意识的核心证据。

这些就是上文提到的一些项目,但作者说,目前还没有足够有力的证据来证明法律硕士是有意识的。

有什么证据表明大型语言模型(LLM)没有意识?

反过来说,什么样的证据可以被认为表明系统没有意识呢?如果一个系统缺乏 X,如图所示,那么让我们考虑一下 X,它可以提供证据来证明它没有意识。我们已经确定了以下六个候选项。

X = 生物学

如果把这一点作为人工智能没有意识的证据,那么争论就会迎刃而解,但作者却在讨论中忽略了这一点。

X = 感知与体现

许多人认为,目前的人工乐虎国际手机版下载没有知觉处理,因此无法体验感觉,也没有身体,因此无法行动;史蒂文-哈纳德(Stevan Harnad)和其他研究人员在 20 世纪 90 年代认为,人工乐虎国际手机版下载要获得意义、理解和意识,就必须接地(将意义与现实世界的经验联系起来),人工智能才能获得意义、理解和意识。甚至在最近,许多研究人员还认为,感知基础是龙8国际pt娱乐官网对事物有稳健理解的必要条件。

另一方面,本文作者认为,感觉和身体并不一定是意识和理解的必要条件。即使没有感觉和身体的生命也能拥有意识(即使是有限的意识)。

最近,LLM 也被扩展到能够处理非语言信息,如视觉信息(Deepmind 的 Flamingo)以及现实和虚拟世界中的动作(Google 的 SayCan),因此未来的 LLM 将能够克服 Sense and Embiment(感知和体现)问题。体现。

X = 世界模式和自我模式

许多人认为,LLM 只是对文本进行统计处理,而不是从我们所拥有的世界模型中处理意义和理解。

与此相反,作者指出,重要的是要将训练和运行时处理分开:虽然 LLM 经过优化,可以最大限度地减少单词预测错误,但这并不意味着 LLM 不能处理单词预测以外的任何事情。要尽量减少单词预测误差,还需要其他各种处理过程,其中可能包括世界建模过程。正如生物进化中的自然选择一样,为了最大限度地适应环境,人们通过进化获得了各种功能,如视觉、飞行和获取世界模型。

关于自我模式,目前的法律硕士在自己的处理和推理方面存在不一致的情况;自我模式是意识到自己的一个重要方面,也是意识的一个重要因素。

X = 循环处理

许多意识理论都认为递归处理非常重要。目前的 LLM 基于前馈处理,因此不存在记忆过程,如随着时间推移而保留的内部状态。

另一方面,有些人认为递归处理可能不是意识所必需的。

X = 全局工作区

目前,认知神经科学中关于意识的主要理论是全局工作空间理论。该理论认为,存在一个容量有限的工作空间,信息从其他无意识模块汇聚而来,进入该工作空间的信息会上升为意识。

目前,已有一些研究提出将 LLM 扩展到各种模态,在这些模型中,低维空间被用作整合每种模态信息的空间。这可以被视为与全局工作空间完全对应。有些人已经在讨论这种与意识有关的模型了。

X = 统一机构

目前,LLM 并不表现出单一综合人格的行为。它根据情况使用所有的人格。许多人认为,统一的人格对意识很重要,在这方面,它被用作目前的 LLM 没有意识的证据。

另一方面,也有相反的观点。这是因为有些人拥有不止一种人格,而 LLM 可以被看作是由多人格代理组成的生态系统。

一个有建设性的论点是,从技术上讲,法律硕士只有一种人格是可能的。

目前已经有一些实际的(尽管是部分的)尝试,将上文指出的 "X "引入到 LLM 中,而且很有可能在未来几十年内出现真正以稳健的方式纳入这些 "X "的系统。

摘要

作者说,可以想象,在未来十年里,人工智能即使达不到人类的智能水平,也能达到老鼠的水平,如果达到这个水平,人工智能就有可能拥有意识。至于它是否应该有意识,还有很多挑战和反对意见,但克服上述挑战将是实现有意识人工智能的一条途径。最后,问题来了:如果所有这些挑战都被克服了,那么所有人都会接受人工智能具有意识吗?如果有些人不接受,还缺什么?如果有些人不接受,还缺什么?

作者最后再次声明,他在本文中并没有声称人工智能应该有意识。如果我们想让人工智能有意识,那么本文提出的问题路线图就是必须解决的要点;反之,如果我们不想让人工智能有意识,那么就应该避免这些要点。重要的是,他们指出应牢记这些要点,以避免无意中创造出有意识的人工智能。

关于人工智能是否应该有意识的问题,未来将会有激烈的争论,我们需要明确自己的立场。我们希望这篇文章能为此迈出第一步。

  • メルマガ登録(ver
  • ライター
  • エンジニア_大募集!!

如果您对文章内容有任何改进建议等,请通过 "联系我们 "表格与爱学网编辑部联系。
如果您能通过咨询表与我们联系,我们将非常感激。

联系我们