首页 理论教育 恒温器与我们

恒温器与我们

时间:2022-02-14 理论教育 版权反馈
【摘要】:图灵参加了维特根斯坦的数学哲学课堂。我们在这里要简洁讨论的是,图灵的有关检验人工智能的观念好像是体现了与维特根斯坦相似的观点。因此,不会有任何“证明”能表明这个机器是智能的。图灵测试的维特根斯坦精神被明显忽略了。其结果,图灵的那些自命的追随者不断地放出这样一些呼声,我们将很快穷尽智能检验单上的所有条目,并在机器上建构人的智能。我相信,结论是正确的。

9.3 恒温器与我们

阿兰·图灵,维特根斯坦的剑桥大学的同事,对人工智能进行了哲学思考。图灵参加了维特根斯坦的数学哲学课堂。那是在1930年,维特根斯坦正试图建立自己有关布劳威尔关于意志转达不确定性的观点。图灵也以某种方式对直觉主义观念,对数学的“建构”方法,以及正如我在以前表明的,对连续统和理论上可计算的限度之间的关系发生了兴趣。我们在这里要简洁讨论的是,图灵的有关检验人工智能的观念好像是体现了与维特根斯坦相似的观点。

图灵的问题是,我们如何知道一个机器是否有智能?在一个很长的讨论之后,他提出如下标准,即图灵测试。如果我与某一事物进行相互作用(interact),并且我认为它展示出智能行为,那么我应该认为它是有智能的。

图灵所说的是,我们必须与这个机器进行“语言游戏”,并且,这个机器要被这个“有资格的”——这是说是智能的——游戏者的共同体所接受,它的方式与人们被智能人共同体所接受的方式一样。最终,我需要观察这个事物的行为,它的“功能”,以判断它的智能。没有其他的方式。在控制其行为的句法中,不存在什么东西使得我能够先验地作出这样一个判断。我不能先验地说如此这般的一个程序会展示出智能行为。

我们已经看到这个推理的一部分。我可以写一个计算机程序,被假定为遵循一个法则,但我怎么知道它确实遵循了那个法则?我只能把它与我认为遵循这个法则应该做的恰当方式相比较。我写下这个程序也是于事无补。

让我进一步解释,并把它放在图灵测试的语境之中:

·不存在智能的形式辩护——或定义。

·我们通往机器“精神状态”的唯一相关途径是我们对它的语言行为的观察。

·因此,只有通过与机器的相互作用,我们才能判断它遵循一个特殊(智能显示)行为模式的能力。

·如果人类共同体具有判断这种(人类的)能力的标准,这个标准应该被用于判断这个机器的能力。

如果我们现在用“人”来代替“机器”,用“意义”来代替“智能”,用“语言游戏”来代替“相互作用”,我们会得到一个与维特根斯坦解决其悖论的办法很相似的结构:

·不存在意义的形式辩护。

·我们通往一个人的“精神状态”的唯一相关途径是我们对他的行为(和各种环境)的观察。

·因此,只有通过语言游戏,我们才能判断一个人遵循一个特殊(意义-显示)行为模式的能力。

·如果共同体具有判断这种能力的标准,这个标准应该被用于判断这个人的能力(15)

这种相似性还要更进一步。就像维特根斯坦一样,图灵表现出对意志问题的关心。对维特根斯坦来说,结构上的普遍性,推理,“法则”,不能决定任何行动。在能够为我的行动提供内在辩护的意义上,甚至我本人都不能先验地知道我的意志。这并不意味着没有诸如意志这样的东西,它只是意味着它排除了语言,因此还有辩护。它从语言游戏中“分离出去”,但是宣称一个起初就没有的事物“分离出去”是可笑的。

图灵仔细做了这样一种区分:行为准则(discipline),它的概念化由计算机予以表现,以及主动性(initiative)——人类智能的“残余”,这是我们至今还未考虑过的人类智能的基本成分,我们应该设法把它拷贝(也就是模拟)在机器之中。但是如果我们关于这个难以掌握的“残余”能说些什么,就会立即被置于逻辑描述的层次,因此就从属于行为准则,也就是机器建模(16)

当然,这是图灵为自己布置的任务。但我们也可以从中学到有价值的东西。不过,如果这个计划能够被完成——某个机器被证明是“智能”的——图灵测试就会是完全多余的东西。如果智能是某些静止的、不变的东西,某些最终服从于可彻底用逻辑描述的东西,那么我只能检查一个机器(或一个程序)是否满足具有智能所要求的先验句法条件,事情就会是这样。图灵过于小心了。

也许正是在这里,他参加的维特根斯坦的哲学课堂表现出了影响:我们如何证明某个程序遵循了这些智能法则?我不能先验地确定我在遵循这个乘以2的法则。我只能以我的信仰为基础进行判断,或者可以得到的遵循这个法则的公共标准——这无论如何不会是固定的——为基础。因此,不会有任何“证明”能表明这个机器是智能的。智能,就像意义,是某种需要一直在社会实践中重新确立的东西。

图灵测试的维特根斯坦精神被明显忽略了。其结果,图灵的那些自命的追随者不断地放出这样一些呼声,我们将很快穷尽智能检验单上的所有条目,并在机器上建构人的智能。但是,如果不是事先已经知道所有的条目,我们如何知道我们穷尽了所有的条目?我们怎么确定从此以后不会有逻辑描述没有驯服的残余浮现出来?换句话说,我们如何知道这个机器是智能的?很明显,它不是一个问题。计算机科学家会在那里告诉我们说,它是。我们引用一下维特根斯坦的话:“一个人说‘我知道我有多高’并把手放在他的头上证明这一点。”(17)

人工智能的可能性在一些杰出科学家和哲学家之间争论着。让我们看一下引起纠纷的一个争论:“中文屋子”论证(Chinese Room Argument)。

中文屋子是美国哲学家约翰·塞尔(John Searle)发明的思想实验:想象一下我站在一个房间里,有几张写有中文字的纸,以及一本指导书,它将告诉我,当有人把一些写有中文字的纸片从门下面塞进来的时候,我应该怎么办。对于外边的人来说,如果我遵循了书中的指令,并且如果书中的法则是中文语法的适当说明,那么,我将表现出我能够对中文语言作出反应,就好像是我理解它一样。但是,实际上,我连它一开始讲什么都不理解。鉴于我并不理解我在做什么,我知道我的行为不是智能的——即使在其他人看来我是。

现在,用“计算机”来代替“房屋”,用程序来代替“书”,用中央处理器来代替我。其结果是即使我察觉到我正在做某种事情就好像我理解它一样,但我还是不知道我在做什么。我们可以类比一下,如果我对自己做的事情没有任何即使是最模糊的认识,那么计算机也是同样没有任何线索。它不会是智能的,尽管它的行为表现得好像它是。所以,我们顶多能在机器上模仿智能行为(18)

我相信,结论是正确的。但让我感到稍有不满的是,塞尔在论证中声称,对于我在中文屋子中所做的事情,我不能赋予任何意义。这个好像还有些东西有待证明,因为我假定的东西,比我要想证明的东西——也就是在中文屋子中,我没有任何语义——还要多。

我想更加详细地进行考察,所以允许我把中文屋子实验还原为它的原初形式:维特根斯坦的“私人语言论证”。

假定你给了我一本指导小册子,它告诉我如何遵循乘以2的法则,然后把我放在一个名为中文屋子的孤岛上。一旦我到了那里,我将不断收到装在瓶子里的短信。这些短信要求我进行更多的乘以2的运算,并给出我的反应。我运用了我的有关乘法法则的知识,但是现在,我如何确定我确实是在遵循了法则?根据维特根斯坦的论证,我不能根据我能得到的东西来为我的反应辩护。这不包含着我所做的——在中文屋子或在同名的孤岛上——对我来说没有意义,尽管我不能为我赋予我的行动的意义进行辩护。

然而,在塞尔看来,事情并非如此。对他来说,连我最内在的意图都被编制为某个文化习俗的一部分。实际上,塞尔的语言理论(说话活动理论)事前对个体意图进行了分类。控制所有可能的说话活动的是元理论。根据这个观点,我能意指任何事情,当且仅当我参照了一定的元理论的约定从而为之提供了辩护。因此意义在于辩护。

我们已经熟悉了这个形式主义公理,并且知道它可以导致某种类似福柯“没有作者”的断言。在塞尔的例子上,同样的观点也浮现出来,如在我陷入中文屋子的孤独状态下,我不能赋予任何事物以任何意义(19)。但这并非是毫无疑问的:维特根斯坦本人描述了一种情境,其中,他可以给一个未知的符号赋予“虚构的意义”。(例如,我可以想象,我在中文屋子中所做的,是在保管香港匪徒的一本古怪的书。)

因此,如果文化习俗的神圣全能没有更进一步的意识形态假定,中文屋子实验所证明的,只是维特根斯坦的“私人语言论证”所证明的。在完全孤独的情况下,我(以及计算机)可以具有某些语义的表象,但我(和计算机)不能辩护它。这仍然留下了这种可能性,即计算机也许实际上是智能的。我发现这是不能让人满意的,因此,我想采取不同的方法。

问题看起来好像是这样,仅仅通过语言的形式主义透镜,整个意识现象被化简为关于自身它能说什么,语言当然是人类存在的一个必要的、关键的重要方面,但这种观点把自我意识等同于我们在语言的镜子里看到的自己(这样就把意识等同于认知:知识,辩护,等等)。

也许我们可以通过抛弃这个观点来学到点什么。看来情况确是这样,因为人工智能论点,特别是它最强的形式,混淆了意识和认知,并到了这样的程度:它宣称一个计算机可以是一个具有自我意识的存在,仅仅是因为它满足严格的语言标准。让我先处理一下计算机可以变得有意识的观点,接着再看如何把这一点和它的智能联系起来。

假定由于某种原因,也许是出于病态的好奇心,我决定买一台计算机,据说它能变成一个可自我意识的并且是智能的存在。我把它带回家,打开电源。现在程序装好了,机器开始逐渐进入有自我意识的状态,并且,一会之后,它被认为是有自我意识了。

让我们集中注意力,并用慢镜头重放一下这个过程。

在我面前,有一台计算机。现在,它是完全没有意识的。特别是,它没有对自己的意识,没有任何感觉,即使连一丝一毫的自我认识的痕迹都没有。这是一块昂贵的白板。接着,我打开电源。这台机器,在这个时刻,显然仍对自己一无所知,进行着一定的形式逻辑的运行,接着,它变得有意识了——对自己的意识。但是,它是如何获得达到这一点的?因为它在一开始对自己并不认识。这个机器在处理过程中没有标准允许它把某些东西确定为是自己的。它能认出某些东西是自己的当且仅当它已经产生对自己的某些认识。既然它在开始并没有这样的认识,看起来也就不可能有任何基础来变得有自我意识。

这实际上重新表述了谢林在19世纪早期的黑格尔哲学中发现的恶性循环。黑格尔的精神——一个像图灵机那样的逻辑创造物——一开始是没有自我意识的,进行了逻辑运算,接着变得有自我意识了。谢林问道:如果不是已经获得对自己的某些认识,这个精神是如何得到如下这个认识的,即它现在意识到的那个东西正好是它自己?根据假定,它一开始没有自我意识。(这就是为什么浪漫主义思想家引入了“直接自我意识”,“绝对超越的存在”,以及其他吓人的东西:我们依靠于语言,但在开始,需要比仅仅一个符号更多的东西。)(20)

至于一个实际的智能机的可能性问题——也就是一个理解的机器——这里有一个比谢林的论证更现代的论证。如果没有意识到自己在理解某些东西,那么一个人能理解一些东西吗?也许。但是,存在无意识的理解,这好像是很难证明的,至少对有意识的存在来说是这样。

所以情况好像是,没有哪个理解活动同时没有意识到自己是一个理解活动。理解预设了自我意识。既然就像我在上面证明的那样,自我意识不会在一个机器上发生,那么,我们可以推出,理解也不会发生在一个机器上——至少是在我们对理解的“通常”理解上。这个论证,以某种多少有些不同的形式,至少从萨特出版《存在与虚无》(Being and Nothingness)的那时候起就开始流传了(21)

这些论点并非是无可质疑的,因此我不想说得太多,但不管你是否同意萨特和谢林的看法,似乎可以说,他们的反驳给人工智能论点的强硬变种带来了麻烦。这些问题以及其他相关问题好像并不能通过从一个想象的计算机实验室的威严高度来发布敕令而得以解决(22)

坚持智能可以被机器模仿的弱人工智能论点看起来相当平凡,我看没有什么理由来否定它。任何东西都可以被模仿。一个具体的模仿有多么的好,只能在实践中判断。就智能来说,这样的判断是以所有可以用到的伦理的、社会的、科学的、政治的以及其他标准为基础。简单地说,它是由人来判断的,因为是人给事物赋予意义。

一位像约翰·麦卡锡这样的计算机科学家因此可以自由相信他的奇妙的会思考的恒温器。认为恒温器可以被视为具有“精神状态”这个主张,就其自身来说并不是荒唐的东西。一个恒温器的行为允许麦卡锡给这个结构赋予这么一个意义。他可以看它就好像它有三种精神状态:“太凉”,“太热”,“正好”。这不意味着它有这三种精神状态。因此,塞尔——他确实能够以麦卡锡和他的恒温器为代价获得很多的乐趣——能够一贯地把这个有趣的设备描述为一片没有智能的双金属片。

人们好像能够假设事物的意义,抛弃它们,或者在实践中重新建立它们,其基础是所有可以用到的东西:句法,理论框架,规范,方法论,观察,文化,传统,神话,经验,直觉,概括,归纳,类比,倡议,发明,创造,天赋,想象,狂想,愉悦,纯粹的猜测。并且我们总是——回到康德的表述——使我们的故事经受其他会犯错误的人的裁决。

我想,现在我们已经有充分的准备来进一步考察“后现代状况”。

【注释】

(1)Brouwer,“Mathematics,Science,and Language”,载于Mancosu(1998),p.48.

(2)尼采认为,一旦私人感觉和个人直觉在语言层面上被描述,那么它就不再是真正的个人的了,因为它已经成为公开的、任何人都可以获得的东它们因此变得“浅薄、贫乏、相对愚蠢——大众的一种概括,一个符号,一个尼采更精确地说,“我们的思想本身不断地被意识的字符所击败——被其中专横的‘种类的天赋’所击败——并被翻译回大众直觉。从根本上说,我们的人格方面是完全不可比的,是唯一的、绝对个人性的——这一点没有任何问一旦我们把它们翻译成意识,它们就不再表现得是这样了。”(Complete Vol.10,p.299.)当他说到哲学是“反对用语言来蛊惑我们的智力的战斗”(Philosophical Investigations,para.109.)的时候,维特根斯坦能够轻易地参照尼语法功能的不自觉统治的观点。

(3)Schelling,Simg24mtliche Schrif ten,1/10,pp.11-12.英文译文引自Frank(1989),p.299.

(4)见Berlin(1999),p.44.

(5)对于Schleiermacher来说,理解语言“具有艺术工作的特点,这是因为[语法]法则并不同时提供它们的应用,也就是说,它们的应用不能被机械化”。(Hermeneutik und K ritik,p.81.)英文译文引自Frank(1989),p.441.

(6)Brouwer,“Mathematics,Sciecce,and Language”,载于Mancosu(1998),p.48.

(7)这个例子来自Saul Kripke,Wittgenstein on Rules and Private Language(Boston,Harward University Press,1982).

(8)维特根斯坦,Philosophical Investigations,para.109.

(9)这就是“中文屋子”反对人工智能的要点,我将很快仔细讨论。

(10)可以在很多“后现代”参考书中发现这样的观念。例如,在Hans‐Georg Ga‐damer的Truth and Method(New York,Crossroad,1975.)中,我们可以读到,知性活动“并不被认为是主体性的一种活动,而是把自身置于传统过程中的活动”。(p.258)作为“历史先验”的传统是知性活动的必要成分,这种观点自Hamman和Herder以来就开始流传了。但是如果知性活动不包括自我意识的活动,对于知性活动的发生来说,传统将不仅仅是一个必要条件,而且还是充分条件了。

(11)同样,而且这实际上是那些认为恒温器在思考的那些人所提出的,一个大规模的计算机系统的舍入误差的积累应该被视为机器自身的创造性活动。

(12)维特根斯坦,Philosophical Investigations,Ⅱ-xi,p.227.

(13)“语法[……]只是在描述符号的使用,无论如何它不能说明符号的使用”(维特根斯坦,Philosophical Investigations,para.496)。Schleiermacher关于语法的观点,如我们在注⑤(译者注:原文为注4,应为作者笔误)中引用的,也可以认为是和维特根斯坦的85段有一定的关系:“一条规则放在那儿就像一个路标。[……]但是它在那里告诉我应该按照什么方向走呢;[……]它有时留有怀疑余地,有没有。”同样有趣的是把维特根斯坦的私人语言论证的“无穷倒退”结构——以的如下陈述,即当我们询问我们行动的理由时,我们最终“失去了理由”并接着行动,“没有什么理由”——和费希特的某些观点进行比较。例如,Berlin(1999述了费希特对浪漫主义作出的如下方式的贡献。“费希特说,如果你仅仅是一欢沉思的人,并询问自己诸如干一些什么这样一些问题的答案[……],你将永能发现一个答案。[……]知识总是预先假定了一个更大知识:你得到一个命题寻求它的可靠性,接着需要引进其他一些知识和其他一些命题来确证第一个。进的命题本身又需要确证[……]以至无穷。因此这样的探索就永无尽头,我们势必以斯诺宾莎系统结束,它顶多只不过是一个僵硬的逻辑统一体,其中没有运动的可能性。费希特说,这不是真的。[……]‘我们不是因为我们知道而行费希特说道,‘我们知道是因为我们被召唤去行动’。”(pp.88-89)

(14)见Rota(1997):“有一种谣言说,当维特根斯坦死的时候,在他的剑桥大学的住所里发现了一本破损的带有标记的海德格尔的《存在与时间》一书。维特根斯坦晚期作品使人怀疑,作者写这部作品只是为了给海德格尔缺乏例证的现象学提供一些例证。”(p.254)

(15)在这里可以看到他与后现代有关“操作性主体性”观念之间的有趣的并行特点。基本观点像是自我同一性不是“天然的”,而是通过——也应当被视为——各种语言游戏中一系列的“操作”被构造的。例如,美国学者Judith Butler写道:“同一性是由被说成是它的结果的那个‘表达’构成的。”(Gender Trouble,New York,Routledge,1990,p.25.)人们也许会把它称为图灵测试的自指应用。

(16)“如果一个未经训练的婴儿的心灵要变成智力的心灵,它必须既获得行为准则也要获得主动性。我们现在只考虑行为准则[也就是图灵机建模]。但是行为准则自身还不足以产生智能。这个额外要求的东西我们称为主动性。这个陈述将作为一个定义。我们的任务是当这个剩余在人身上发生的时候发现它的本质,并试图在机器上把它拷贝下来。”(Alan Turing,“Intelligent Machinery”,Machine Intelligence,5[1948],3-23,p.21.)哥德尔对图灵的评论在当前的语境下是比较有趣的:“图灵完全不考虑的是这样一个事实:心灵,就它的使用来说,不是静止的,而是不断地发展的。”(Hao Wang,From Mathematics to Philosophy[New York,Humanities,1974],p.325.)

(17)这里的论述与人工智能计划的关系在于,它会引起以下这个简单问题:一个智能存在(如一个认知科学家)如何证明一个机器是智能的,而无需在这个演绎中潜在地预先假定(例如他或她自己的)智力?如果这一点不能保证,那么我们顶多只能宣称,这个机器被一种智能存在赋予了智能行为。这看起来是图灵测试的本质所在,至少按照我的理解是这样。

(18)有关细节参见John Searle,Minds,Brains and Science(Cambridge,Mass.,Harward University Press,1984),Chap.2,esp.pp.32-33.

(19)在贬抑了个人创造性的观念之后,福柯和塞尔都发现自己在求助于某种魔术的“力量”来代替。对福柯来说,那是“普遍权力”(power‐in‐general)。对塞尔来说,那是“习俗权力”(power of cinvention)。但是不像福柯,塞尔没有屈服于反人文的神秘主义观点:习俗最终是人类活动的结果。

(20)类似的困难也发生在后现代的主体理论当中。基本观点是,自我是在“镜中”(“他者的凝视”,或诸如此类的东西)构成的。这可以设想,其意思是,我的同一性是通过我的存在被某种映像结构——社会的、文化的、经济的、物质的、语言的或其他什么——所反映而“指认”给我的。这无疑是自我认同的必要组成部分。但这看起来还不够。如果在一开始对自己完全没有认识的话,我如何可能把我在“镜子”里看到的任何东西认同是我?能表明这个事情实际上可以发生的形式证明同样也可以证明计算机可以建立(后现代的)自我。参见Frank(1989)对后现代主义的体观点的广泛的批判性分析。

(21)在一个反对海德格尔的知性概念的论辩文章中,萨特说:“如何会存在这么一种知性活动,它没有意识到自己是在意识?”他进一步补充说:“我们不能首先取消‘意识’维度,甚至我们取消它是为了重新奠基它也不能取消。知性活动有意义当且仅当它意识到自己在意识。”(Being and Nothingness[New York,Philosophical Li‐brary,1956],pp.73-74,85.)

(22)文化相对主义者提出了有趣的反驳意见。他们对人工智能的批评的本质所在,是认为绝大多数的程序语言来自相当狭窄的印欧语系。这样,人工智能问题关联着其他一系列的有争议的并且是困难的问题:萨丕尔沃尔夫论点的正当性,语言相对主义,乔姆斯基的“普遍语法假设”,等等。有关的简洁讨论和进一步的参考书参见Eco(1995),pp.330-336.

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈