首页 理论教育 现实的困难(年—年)

现实的困难(年—年)

时间:2022-02-11 理论教育 版权反馈
【摘要】:西蒙过强的自信应归于早期AI系统在简单实例上的有前途的性能表现。第二类困难是AI试图解决的很多问题不可操作。现代遗传算法使用了更好的表示方法,显示出更多的成功。与“组合爆炸”搏斗的失败是莱特希尔报告对AI的主要批评之一,以这个报告为基础,英国政府做出决定,终止了对除两所大学之外全部大学的AI研究的支持。)第三类困难源自用于产生智能行为的基本结构的某些基础限制。

在初期,AI的研究者们并不羞于预言未来的成功。下面这段赫伯特·西蒙1957年的陈述经常被引用:

我的目标不是使你惊讶或者震惊——我能概括的最简单的方式是说现在世界上就有机器能思考、学习和创造。而且,它们做这些事情的能力将快速增长直到——可见的未来——它们能处理的问题范围扩展到人类思想已经得到应用的范围。

“可见的未来”之类的短语可以有不同的解释方式,不过西蒙又做出了一个更具体的预言:10 年内计算机将成为国际象棋冠军,并且一个重要的数学定理将由机器完成证明。这些预言的实现(或者近似实现)用了40年,而不是10年。西蒙过强的自信应归于早期AI系统在简单实例上的有前途的性能表现。然而,在几乎所有情况下,这些早期的系统最终在试图解决更宽范围和更难的问题的时候,都悲惨地失败了。

第一类困难来自早期的程序很少包含或者不包含关于它们的主题的知识;它们只是在简单句法处理的意义上成功了。一个典型的故事发生在早期的机器翻译的努力中。这是由美国国家研究委员会慷慨资助的项目,试图加速俄语科学论文的翻译,紧跟1957年前苏联发射第一颗人造地球卫星(Sputnik)的脚步。最初设想,利用基于俄语和英语语法的简单句法转换、根据电子词典进行词语替换,就足以保留语句的确切意思。而事实上翻译需要关于主题的一般知识,用以消除歧义和建立语句的内容。著名的二次翻译例子是句子“the spirit is willing but the flesh is weak(心有余而力不足)”通过英俄和俄英翻译以后,变成了“the vodka is good but the meat is rotten(伏特加酒是好的而肉是烂的)”,例证了遭遇的困难。1966年,一份顾问委员会的报告裁定“还不存在通用的科学文本机器翻译,也没有很近的实现前景”。所有美国政府资助的学术性的翻译项目都被取消了。时至今日,机器翻译仍然是一个不完善但是广泛使用于技术的、商业的、政府的以及因特网的文档处理的工具。

第二类困难是AI试图解决的很多问题不可操作。大部分早期的AI程序求解问题的方式是尝试各步骤的不同组合,直到找到解。这种策略初始的时候是奏效的,因为微世界只包含很少的物体并且由此涉及很少的可能行动和很短的解序列。在计算复杂性理论发展起来之前,广泛认为“放大”到大问题只是需要更快的硬件和更大容量的内存的事情。当研究者们在证明涉及超过数十条事实的定理中遭遇失败的时候,伴随例如归结法定理证明而来的乐观主义很快受到打击。程序原则上能够找到解并不意味着程序实际上包含找到解的机制。

无限计算能力的幻觉不仅限于问题求解程序的领域。早期的机器进化(现在称为遗传算法)实验(Friedberg,1958;Friedberg等人,1959)建立在一个毋庸置疑正确的信念上,即通过对一段机器代码程序做出一系列适当的小突变,就可以产生针对任何特定的简单任务的性能良好的程序。机器进化的思想就是尝试随机的突变并通过一个选择过程保留看来有用的突变。尽管花费了上千小时的 CPU 时间,几乎没有表现出任何进展。现代遗传算法使用了更好的表示方法,显示出更多的成功。

与“组合爆炸”搏斗的失败是莱特希尔报告(Lighthill,1973)对AI的主要批评之一,以这个报告为基础,英国政府做出决定,终止了对除两所大学之外全部大学的AI研究的支持。(口头传说中描绘了一幅多少有些不同和色彩更丰富的画面,不过与政治野心和个人恩怨有关的描述不是我们要讨论的主题。)

第三类困难源自用于产生智能行为的基本结构的某些基础限制。例如,明斯基和Papert的书《感知器》(Perceptrons)(1969)证明了:尽管感知器(一种简单形式的神经元网络)看来能学习它们有能力表示的任何东西,但是它们能表示的东西很少。特别地,不能训练两输入的感知器,让它识别什么时候它的两个输入不一致。虽然他们的结果没有应用于更复杂的、多层的网络,神经网络研究的研究经费仍然很快缩减到几乎没有。有讽刺意味的是,新的多层网络的反向传播学习算法在20世纪80年代晚期引发神经网络研究的巨大复兴,而实际上这种算法首次发现是在1969年(Bryson和Ho,1969)。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈