【译】你了解我吗?人与智能机器
  0unPMgAWUoaZ 2024年02月19日 142 0

原作:Lan Chu

引言:我们能否理解人类的智能并以同样的方式让计算机变得智能?

 

术语

在本文中,我们尝试探讨智能的概念以及计算机程序智能的含义。我们将在人类认知背景下不同术语和概念之间进行讨论,例如理解、意识、智力和意识。尽管这些术语的含义有些神秘,但我们尝试根据正常用法来引用它们:

  • 智力意味着学习、理解、推理、解决问题和做出决策的能力。
  • 理解是一个人能够理解或掌握某事物的意义或本质的过程。
  • 理性是基于新的或现有的知识应用逻辑或在事件之间建立逻辑联系的能力。
  • 意识是对某事物的有意识的认识。这是关于认识环境中的元素与自身情况的相关性。

这些概念之间的联系:

  • 理解力智力的一个组成部分。如果没有真正的理解,你不会说某人聪明。理解支撑智能行为
  • 意识是一种可以进行推理理解的状态
  • 意识是最复杂和最难理解的话题。对我们来说,它通常被认为是经验的整体,它包含知觉、理解。这就是让人类拥有主观体验的原因。

 AI时代之前

在人工智能兴起之前,我们拥有基本的计算机,其日常任务包括运行科学计算。

然而,在计算机出现之前,就存在自动机——可以自行运行的机器,旨在执行一系列预定义的动作。

一个著名的例子是雅克·德·沃康松 (Jacques de Vaucanson) 于 1764 年设计的消化鸭。这只鸭子由铜制成,可以嘎嘎叫、吃东西,而且似乎可以消化食物。

其中一些自动机非常先进且设计精良,可以模仿人类的一些行为。最著名的例子是机械土耳其人,于 1770 年建造并首次亮相,它似乎能够下国际象棋。这台机器在欧洲和美国巡演了八十多年。然而后来人们发现,机械土耳其人并不是自主的,而是由一名熟练的国际象棋棋手在机器内部秘密操作的。因此,甚至在现代计算出现之前,我们就已经对某种意义上的人工智能着迷并思考。

机械土耳其人由内部真人操作。作者:Joseph Racknitz (1789),公共领域,来自维基百科。

AI效果和不断改变的目标

感人的。现在的数据集如此丰富,处理速度如此之快。然而,我恳求人们不要再称其为人工智能。事实并非如此。 — 一位 Reddit 用户

Reddit和Twitter等在线社区存在一个悖论,每当发布与人工智能相关的内容时,总会有评论说它“不是AI”,或者“不是真正的AI”。似乎每当与AI相关的新技术成为新常态时,它就不再是AI了。这就是所谓的AI效果

1996年,当IBM的深蓝超级计算机在一场国际象棋比赛中击败了当时的卫冕世界冠军加里·卡斯帕罗夫时,这被认为是人工智能发展中的一个巨大壮举。如果机器的行为和人类一样聪明,那么它也和人类一样聪明,对吗?

实际上没有。许多人不那么热情,包括人工智能“奠基人”之一约翰·麦卡锡,他认为人工智能只不过是粗暴的计算,而不是真正的智能。

 IBM 深蓝。

早在 1966 年,麻省理工学院计算机科学家 Joseph Weizenbaum 创建的第一个聊天机器人 ELIZA 就能够“欺骗”一些用户,让他们认为该聊天机器人表现出了真正的理解和同情心,并且“很难说服 ELIZA不是人类”。

然而,这是一个被误导的解释,魏森鲍姆后来试图纠正。该机器只是使用预定义的脚本以及模式匹配,并将用户答案的​​部分内容替换为其响应。如果找到关键字,则会采用规则转换用户评论,并返回结果句子。

 聊天机器人伊丽莎。

人工智能的定义是一个不断变化的目标,不断被重新定义。随着技术的进步和人工智能系统的能力变得越来越强大,人们对所谓的人工智能的期望越来越高。曾经被认为是人工智能的任务,比如计算机下棋,一旦实现并且标准提高,就会成为一种新常态。

什么时候才算是真正的AI?

1.AI作为研究领域

“AI”一词似乎没有一个通用的定义。尽管如此,我们许多人都同意人工智能是一个让机器智能学习和智能行动的研究领域。人工智能作为一个研究领域,其定义相当明确。例如,吴恩达(Andrew Ng)定义它:

AI是一套让计算机表现出智能的工具——吴恩达 (Andrew Ng)

AI是一门让机器完成人类需要智能才能完成的事情的科学——伯特伦·拉斐尔(Bertram Raphael),第一位人工智能博士生。

这个定义与达茅斯提案中的定义类似:

“让机器拥有人类的行为被称为智能。”


达特茅斯人工智能夏季研讨会提案的第一页。

然而,上述定义并没有告诉我们如何创建一台具有智能行为的机器或计算机。此外,它没有说明智能是什么或智能的行为意味着什么。

2. AI 的“智能”概念

强人工智能与弱人工智能

这里的问题是“智能(intelligence)”这个词。

因为当人们说“这不是AI”时,他们通常不是指AI领域,而是指AI的概念。当我们不再关注人工智能做什么,而是更多地关注它如何做时,我们会发现智能的概念变得很棘手。

人工智能领域有“强”和“弱”两个方向。

强人工智能通常与麻省理工学院 (MIT) 联系在一起,他们专注于创建通用人工智能,能够像人类一样在不同环境中广泛理解、学习和应用其智能。强大的人工智能将拥有自我意识、理解力以及思考和解决问题、学习新任务以及在不同领域之间转移知识的能力。这种类型的人工智能大多是理论上的,目前还不存在。

另一方面,弱人工智能通常与卡内基梅隆大学(CMU)联系在一起。这些系统很“弱”,因为它们的智能和理解仅限于其编程的专业领域。他们不具备自我意识或真正的理解力。弱人工智能的例子包括聊天机器人、推荐系统和语音助手。他们在狭窄的任务范围内显得聪明,但无法超越它。例如,所有与机器和深度学习相关的算法都属于这一类。 GPT 系列型号也不例外。他们被训练来预测下一个单词的概率。弱人工智能的支持者仅根据系统的性能来衡量系统的成功。他们认为,AI研究是为了解决难题,不管它们实际上是如何解决的。

功能主义与工具主义

一方面,我们有功能主义/工具主义的观点,它更关心结果,而不是如何解决问题。

这与“弱人工智能”学派有相似之处。另一方面,对于一个被称为AI的系统来说,它应该像人类一样智能地解决问题。这被称为生物合理性,即算法模仿生物神经处理原理的程度。这可能意味着使用与大脑中观察到的相似的学习规则,例如赫布学习(Hebbian learning),或设计受皮层组织启发的网络架构。

例如,国际象棋程序会记住它之前玩过的游戏,并根据之前输掉的游戏调整其策略。然而,编写一个能够理解战略走法、控制棋局流程并迫使对手处于防守一方的国际象棋机器要困难得多。换句话说,通过模仿智能行为而表现出智能的机器与通过具有真正的认知能力而真正智能的机器之间存在明显的区别。

国际象棋引擎无法理解的国际象棋棋局。
如果你下棋,你就会知道上例中的局面是非常明显的平局。虽然黑棋有物质优势(3象和1马),但他无法吃掉任何棋子。由于 e6 上的主教,白棋也无法吃掉任何黑棋。然而,强大的国际象棋计算机会将此位置评估为黑色获胜。为了防止比赛以平局结束(这比获胜更糟糕),黑方将牺牲其象,让白方获得赢得比赛的优势。这就是为什么它不是遵循编程规则,而是计算机系统需要理解规则的含义,因为这将赋予它们超越规则的能力。

人工智能成为争论的话题

约翰·麦卡锡和马文·明斯基等计算机科学家是强人工智能方向的倡导者。 1959 年,达特茅斯研讨会结束后,人工智能领域的创始人之一、最具影响力的人物约翰·麦卡锡 (John McCarthy) 将一生的大部分时间奉献给了这一领域,他写了《带有常识的程序》,这是有史以来第一篇提出常识的论文推理能力是人工智能系统的关键。麦卡锡在他的著作中介绍了一个程序的一系列条件,该程序将进化为人类的智能。第一个焦点是,对于一个能够学习某些东西的系统来说,它必须“首先能够被告知”。这意味着系统应该能够接受指导/训练,然后能够像人类一样从经验中学习并修改其行为。麦卡锡建议,人工智能将能够从它收到的任何新信息中结合它已经知道的信息,得出或推断出立即的逻辑结果。

人们可以假设,人工智能将根据它所听到的任何内容及其先前的知识,获得相当广泛的一类直接逻辑后果——常识程序,约翰·麦卡锡。

在接受杰弗里·米什洛夫 (Jeffrey Mishlove) 采访时,约翰·麦卡锡 (John McCarthy) 表示,人工智能研究曾经并且仍然存在困难的概念问题——据我所知,人工智能系统需要能够理解、推理并根据常识采取行动人类所拥有的知识。

人类天生拥有大量我们认为理所当然的“常识”知识,即了解基本的物理特性,例如如果你丢了一个球,它就会掉落。因此,人工智能的核心是开发一种结构化的方式,以计算机系统可以理解的形式,表达和编码人类常识和推理。在我们能够创建被认为与人类一样智能并具有类似人类常识推理的计算机程序之前,应该解决这些概念上的挑战。

机器当然会思考;我们会思考,因为我们是“肉类机器”。——马文·明斯基

然而,让计算机真正理解问题还远未解决。事实证明,处理常识是很困难的,尽管人类能够轻松做到这一点。孩子能够识别语音,因为这种能力是人类固有的。但人类很难理解这种能力从何而来,以及如何让计算机程序也能做到这一点。在理解人类大脑及其工作原理方面必须取得一些概念上的突破。

最终,我们希望看到具有真正聪明的计算机系统,而不是像无意识的机器一样执行预定的规则。约翰·麦卡锡的立场是,我们需要包含“真正”理解的系统,从而包含智能。

我不认为人类的智慧是人类永远无法理解的东西。 — 约翰·麦卡锡

但并不是所有人都相信。这其中哲学意义是深远的。第一个聊天机器人 ELIZA 的创造者约瑟夫·魏森鲍姆 (Joseph Weizenbaum) 认为,人类作为信息处理系统的想法是“过于简单化的智能概念”,并且它推动了“宏大并反常的幻想”,即人工智能科学家可以创造出一台能够学习的机器“就像一个孩子一样。”对于魏森鲍姆来说,我们不能将AI人性化,因为AI不可避免地是非人类的。我们永远不应该“用计算机系统代替涉及人际尊重、理解和爱的人类功能”。

没有人能够完全理解另一个人。 如果我们彼此之间、甚至我们自己之间常常都是不透明的,那么计算机有什么希望了解我们呢?” — 魏森鲍姆

哲学家休伯特·德雷福斯 (Hubert Dreyfus) 表示,有些人“没有考虑到大脑可能以与计算机完全不同的方式处理信息的可能性”。德雷福斯在其著作《计算机不能做什么》中强调,人类的认知有着根本的不同,人类的认知依赖于无意识和潜意识的过程,而机器只是遵循明确的算法并根据输入的数据做出决策。他们没有“体验”这个世界,也没有潜意识的影响。他们缺乏来自生活经验和潜意识处理的深刻理解,这在哲学上是不可能的。

AI争议:线性回归是AI吗?

当您学习机器学习时,您将学习的第一个示例就是解决线性回归问题。有人认为回归模型不可能是人工智能,但只有深度学习才能是人工智能。这表明调用算法或AI系统与其解决问题的方式有关。当且仅当深度学习/神经网络时,许多人似乎有意识地决定将其称为“AI”。

其次,我们把一切都称为AI,这只是助长了这个愚蠢的炒作周期。如果你将线性回归称为AI,那么你也支持从该短语的含义来看。 — A Medium-er

通过将最小二乘法重新定义为机器学习问题,解决线性回归就变成了最小化误差(RMSE 或 MSE)。然而,线性回归和最小二乘法的起源可以追溯到 19 世纪末,当时弗朗西斯·高尔顿爵士使用正规方程解决了该问题。他的解决方案早在人工智能出现之前就已经存在,甚至没有使用任何“学习”。

糟糕的是,用正规方程求解拟合的计算效率很低。使用称为梯度下降的迭代优化方法逐步调整模型参数以迭代地最小化成本函数,这被证明是一种更有效的方法。

要回答线性回归是否可以被视为人工智能的问题,我们首先需要知道正在使用哪种方法。我们用正规方程求解吗?如果是这样,那么显然,不存在“学习”……更多的是让机器处理数字。我们是否使用梯度下降来找到数据的“最佳拟合”线?然后我想,是的,这就是机器学习。因此,很多时候,当我们对数据进行拟合时,我们实际上是在使用机器学习。

然而,最重要的问题仍然是:我们可以考虑这种AI?达特茅斯暑期学校提出的最初定义以及许多当代定义表明,线性回归确实是AI。它可以“学习”和适应,并产生结果,就像一个聪明的人所做的那样。然而,根据麦卡锡的智力理论,很明显,线性回归既不依赖于常识推理,也不依赖于对周围世界的理解。

通过最小化错误划清界限是智能吗?梯度下降类似于思维和意识吗?有人说是,有人说不是。

选择权在你。

一个令人着迷的意识理论

意识起源于神经元内的微管

虽然建造一台真正像人类一样智能的机器对某些人来说在哲学上是不可能的,但也许还有一些希望。

人们普遍认为意识是从大脑的活动中产生的,但它是如何从大脑内的物理过程中产生的仍不清楚。

神经科学中的一种常见观点是,突触神经元之间的通信是意识体验出现的基础。突触是神经元之间的连接处,其主要功能是将信号从一个神经元传递到另一个神经元。大多数神经科学家在研究意识时关注突触神经网络活动,并将大脑的计算能力视为突触连接的产物。这些观点通常将大脑活动视为一个计算过程。

Orch-OR理论的创始人:罗杰·彭罗斯(Roger Penrose)和斯图尔特·哈默洛夫(Stuart Hameroff)

然而,麻醉师兼教授 Stuart Hameroff 和数学家、物理学家、当时的诺贝尔物理学奖获得者 Roger Penrose 讨论了另一种令人着迷的意识理论,称为 Orch OR。

根据罗杰·彭罗斯的说法,意识的中心在三个概念之间摇摆:智力、理解和意识。如果某个东西不理解,你就不会称其为智能。为了能够理解,它需要有意识。如果可以证明理解是超越计算的东西,那么智能就不是计算的问题。

Orch-OR 理论表明,意识起源于微管——微管是神经元内的结构成分,是细胞细胞骨架的一部分,而不是突触。

根据这一理论,微管可能是导致意识的量子效应的场所,这背离了意识来自突触的神经处理的传统理解。

无论意识是什么,它都不是计算——罗杰·彭罗斯

这实际上是从很久以前开始的,当时罗杰·彭罗斯(Roger Penrose)出版了《皇帝的新思维》一书,他在书中讨论了他的大脑需要一台量子计算机。斯图尔特·哈默洛夫(Stuart Hameroff)对这本书感到震惊,并建议罗杰·彭罗斯(Roger Penrose)看看《微管》。他们后来联手建立了令人着迷的 Orch-OR 理论。他认为,也许导致量子态崩溃的过程与导致意识的过程是相同的。

在他的整个职业生涯中,斯图尔特·哈默洛夫(Stuart Hameroff)研究了麻醉的作用机制,并提出了一种理论机制,即麻醉剂通过抑制大脑神经元内微管的量子振动来消除意识。相信意识和微管之间存在联系,这是一个真正令人兴奋的论点。另一个支持性的论点是,当微管崩溃时,人们就会患上阿尔茨海默病。

那么微管有哪些特性呢?

与意识相关的微管有哪些特性?

好吧,我不会坐在这里假装我了解神经科学和量子物理学,但至少让我们尝试一下😊

这个想法是,具有对称结构的微管可能在意识中发挥至关重要的作用,因为它们可以保存更好的量子态——这是从量子叠加到单一结果的转变。

量子力学中的叠加

在量子力学中,叠加是一个基本原理,它允许粒子(例如电子)同时处于多种状态或位置。这一原理与我们的日常经验和经典物理学截然不同,在经典物理学中,物体一次只能处于一种状态或位置。

想象一下你有一枚硬币,你把它抛到空中。在日常生活中,硬币落地时只能是正面或反面。但如果硬币受量子力学控制,那么它在空中时可能会同时处于正面和反面的状态。

只要我们不测量系统,这种同时处于多种状态的状态就会持续存在。就硬币而言,这就像不看硬币来判断它是正面还是反面一样。在量子力学中,当我们最终“看”(即进行测量)时,叠加态会塌缩成一种可能的状态。

薛定谔的猫是旨在说明量子力学中叠加概念的思想实验之一,由奥地利物理学家埃尔温·薛定谔于 1935 年设计。

量子态是薛定谔猫思想实验的关键部分。猫的命运与放射性原子的量子态纠缠在一起。而且因为在量子力学中,粒子可以同时存在于多种状态(称为叠加),所以测量或观察量子系统的行为被称为将叠加“塌缩”为一种可能的状态。

彭罗斯认为,当这些量子态达到一定程度的不稳定时,它们就会崩溃,并且这些崩溃的结果是不可计算的,这意味着它们无法在有限的时间内或用有限的资源通过任何算法来解决或预测。因此,你无法知道结果会是什么。彭罗斯认为,也许导致量子态崩溃的过程与导致意识的过程是相同的。这就是该理论取得重大飞跃的地方:这些崩溃的不可计算的结果导致了意识觉醒的时刻。

硅基计算机永远无法实现真正​​的意识

彭罗斯通过该理论认为,意识涉及人脑中不可计算的过程。虽然彭罗斯和哈默洛夫提出了 Orch-OR 理论作为意识的潜在解释,但彭罗斯承认,量子态崩溃产生意识体验的确切机制尚不清楚。

然而,如果意识涉及不可计算过程的论点是正确的,则表明我们今天拥有的完全基于可计算函数运行的计算机无法完全复制创造意识。如果意识确实需要不可计算的过程,那么硅基计算机将无法实现真正​​的意识。我们必须找到一种不同于当前计算机的新型系统/技术来创造具有意识的机器。

这意味着我们需要一个具有生物特性的系统或一个包含不可计算特性的系统,但我不知道那会是什么。这种 Orch-OR 理论仍然是理论性的,也是争论和进一步研究的话题。

 结论

当我们回顾人工智能的历史并见证人工智能的演变时,有一个事实是成立的:人工智能的定义与技术本身一样流动。围绕人工智能的本质和能力的争论还远未结束。

然而,我坚信智力和意识不能只是计算的。要使机器具有意识,它需要的不仅仅是通过模拟神经元来模仿人脑。让我们等待那些足够聪明的人来理解人类智能并设计出将人类的“真正智能”考虑在内的系统。

 参考

约翰·麦卡锡:允许思考,DVD,视频采访

“嗯,看待事物有两种方式。你可以从生物学的角度来看,也可以从计算机科学的角度来看。从生物学的角度来看,你可以尝试模仿神经系统,只要你了解神经系统,或者你可以尝试模仿人类心理学,只要你了解人类心理学。计算机科学的方式是,我们观察世界,我们试图了解它提出了什么问题,以实现目标并思考世界,而不是生物学本身。我想说,计算机科学方法是迄今为止最成功的方法。”

--John McCarthy   ——约翰·麦卡锡

宇宙中的意识:“Orch OR”理论回顾 - ScienceDirect

 

罗杰·彭罗斯爵士和斯图尔特·哈默洛夫博士:意识和大脑的物理学 — YouTube

常识项目 (stanford.edu)

【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2024年02月19日 0

暂无评论

推荐阅读
  yCJS27XXARYK   2024年05月17日   65   0   0 AI综合
0unPMgAWUoaZ