首页 理论教育 发展人工智能的道德规范与风险

发展人工智能的道德规范与风险

时间:2022-02-11 理论教育 版权反馈
【摘要】:信用卡申请、缴费核准以及对欺诈行为的甄别等,现在都是由人工智能程序完成的。现在,规范的人工智能程序是设计用于协助人类的“智能体”,与人工智能集中精力设计用于替代人类的“专家系统”的时候相比,更不必忧虑工作的丧失。人工智能如果获得广泛的成功,它对21世纪社会道德的假想威胁至少会像达尔文的进化论在19世纪造成的威胁一样。人工智能系统的应用可能会导致责任感的丧失。

到目前为止,我们一直着眼于我们是否能够发展出人工智能,但是我们也必须同时考虑我们是否应该发展它。如果人工智能技术的影响更可能是负面的而不是正面的,那么该领域里的工作者就有道德上的义务改变其研究方向。许多新技术都无意间带来了负面的副作用:内燃机带来了空气污染和暗无天日;核裂变导致切尔诺贝利事件、三哩岛事故和全球毁灭的威胁。所有的科学家和工程师都面临着应该如何工作的伦理上的考虑,什么样的项目应该或不该做,以及应该如何处理它们。甚至还有一本关于《计算的道德规范》(Ethics of Computing)的手册(Berleur和Brunnstein,2001)。然而,人工智能好像引起了某些新鲜问题,超出了,比如说,“建造不会倒塌的桥梁”这样的问题的范畴:

• 人们可能由于自动化而失业。

• 人们可能拥有过多(或过少)的闲暇时间。

• 人们可能会失去作为人的独一无二的感觉。

• 人们可能会失去一些个人隐私权。

• 人工智能系统的应用可能会导致责任感的丧失。

• 人工智能的成功可能意味着人类种族的终结。

我们依次来看每个问题。

人们可能由于自动化而失业。现代工业经济已经变得普遍依赖于计算机,并且专门选择使用人工智能程序。例如,尤其在美国,大量的经济依靠消费者信用的有效性。信用卡申请、缴费核准以及对欺诈行为的甄别等,现在都是由人工智能程序完成的。人们可能会说成千上万的工人们被这些人工智能程序取代了,不过实际上如果你把这些人工智能程序拿走,这些工作也就不存在了,因为人类劳动力会给这些事务的处理带来难以接受的成本。迄今为止,通过人工智能技术实现的自动化已经创造的工作机会要远高于所消除的,而且还创造了更有趣和高薪的工作。现在,规范的人工智能程序是设计用于协助人类的“智能体”,与人工智能集中精力设计用于替代人类的“专家系统”的时候相比,更不必忧虑工作的丧失。

人们可能拥有过多(或过少)的闲暇时间。Alvin Toffler在《未来的震惊》(Future Shock)(1970)中写道:“自从世纪交替以来,工作周时间已经被削减了50%。可以毫不离谱地预测,到2000年的时候它将被再次削减一半。”阿瑟·C·克拉克(Arthur C. Clarke,1968b)描写了2001年的人们可能会“面临一个绝对无聊的未来,到那时,生活中的主要问题是决定在几百个电视频道中选择哪一个。”这些预测中唯一一个接近成功的是电视频道的数目(Springsteen,1992)。相反,在知识密集型行业工作的人们已经发现他们成为一天24小时不停运转的集成计算化系统的一部分,为了跟上步伐,他们被迫超时工作。在工业经济中,报酬与投入的工作时间呈粗略的正比关系,多工作10%的时间大致意味着增加10%的收入。在以高速宽带通讯和知识产权轻易复制为标志的信息经济时代(Frank和Cook(1996)所称的“胜者为王”的社会),比竞争对手略胜一筹便意味着获得巨大的回报,多工作 10%的时间可能意味着收入 100%的增长。于是每人都承受着不断增长的努力工作的压力。人工智能加快了技术创新的步伐,从而对此整体趋势做出了贡献,但是人工智能同时也肩负着允许我们有更多的闲暇时间并且让我们的自动化智能体暂时顶替我们处理事务的承诺。

人们可能会失去作为人的独一无二的感觉。在《计算机的力量与人类理智》(Computer Power and Human Reason)一书中,ELIZA程序的作者Weizenbaum(1976)指出了人工智能给社会造成的一些潜在威胁。Weizenbaum 的一个主要论点是人工智能研究使得人类是自动机的想法成为可能——这想法导致了自主性甚至是人性的丧失。我们注意到这种思想的由来要比人工智能久远得多,至少可以追溯到《人是机器》(L’Homme Machine)(La Mettrie,1748)。我们也注意到经过众多对人类独一无二感觉的挫折之后,人性依然幸存了下来:《天体运行论》(De Revolutionibus Orbium Coelestium)(哥白尼, 1543)将地球从太阳系的中心移走,而《人类的由来》(Descent of Man)(达尔文,1871)则把智人和其它物种放在了同一级别。人工智能如果获得广泛的成功,它对21世纪社会道德的假想威胁至少会像达尔文的进化论在19世纪造成的威胁一样。

人们可能会失去一些个人隐私权。Weizenbaum还指出语音识别技术会导致广泛的窃听,并从此丧失公众自由。他没有预见到一个充满恐怖主义威胁的世界将改变人们所愿意接受的监视程度,但他确实正确认识到了人工智能具有进行大规模监视的潜力。他的预言可能会成为现实:美国政府的机密阶梯系统(Echelon system)“由监听岗、天线扫描场和雷达站形成的网络构成;该系统得到使用语言翻译、语音识别和关键词检索自动在电话、电子邮件、传真和电报流中进行筛选的计算机的支持”[6]。有人愿意接受计算机化导致的隐私丧失——Sun微系统公司的首席执行官Scott McNealy曾经说过“总之你没有任何隐私。忍受它吧。”另外一些人则不同意:法官Louis Brandeis在1890年写道“隐私是所有权利中最为全面的……关乎一个人的人格的权利。”

人工智能系统的应用可能会导致责任感的丧失。在弥漫于美国的爱好诉讼的氛围里,法律责任成为一个重要的问题。当一名内科医生依赖于医学专家系统的判断进行诊断时,如果诊断错误,过失是谁的?幸运的是,部分由于医学上决策理论方法的不断增长的影响力,现在人们广泛接受的是,如果医生执行了具有高期望效用的医学过程,其疏忽将不能被公开,即使实际结果对患者来说可能是灾难性的。于是,问题应该是“如果诊断不合理那么错误在谁?”迄今为止,法庭一直坚持医学专家系统与医学教科书以及参考书扮演着相同的角色。医生有责任理解任何决策背后的推理过程,并有责任运用自己的判断来决定是否接受系统的建议。因此,在将医学专家系统设计成为智能体的过程中,应该考虑到其行动不是直接影响患者,而是影响医生的行为。如果专家系统变得比人类诊断专家更为可靠和精确,那么不采用专家系统建议的医生就可能承担法律责任了。Gawande(2002)探究了这个前提。

类似的针对在因特网上使用智能化智能体的问题正在开始出现。已经取得某些进展,在智能化智能体中加入约束,使其不能进行诸如破坏其他用户的文件之类的行动(Weld与Etzioni,1994)。当货币转手时,问题被放大了。如果货币交易是通过一个“代表某人”的智能化智能体进行的,这个人对所招致的债务有责任吗?智能化智能体有可能拥有自己的资产并且代表其自己进行电子交易吗?迄今为止,人们对这些问题似乎尚未充分理解。据我们所知,还没有程序出于金融交易的目的被赋予作为个体的合法身份。目前,这么做看起来还不合理。在真实的高速公路上,出于加强交通规则的目的,程序也不被当作“司机”。至少在加利福尼亚州的法律中,看不出有任何法律制裁是用来防止自动驾驶的车辆超速的,虽然车辆控制机构的设计者在交通事故中应该承担法律责任。至于人类复制技术,法律还需要跟上技术的新发展。

人工智能的成功可能意味着人类种族的终结。在错误的手中,几乎任何技术都有造成伤害的潜在可能性,但是对于人工智能和机器人技术来说,我们的新问题在于:错误的手也许正好属于技术本身。无数科学幻想故事都提出了关于机器人或半人半机器的电子人变成杀人狂的警告。早期的例子包括玛丽·雪莱(Mary Shelley)的《弗兰肯斯坦,或现代普罗米修斯》(Frankenstein,or the Modern Prometheus) (1818)[7]和卡雷尔·恰佩克(Karel Capek)的戏剧R.U.R(Rossum’s Universal Robots,《罗萨姆的全能机器人》)(1921),作品中机器人征服了世界。电影里则有《终结者》(The Terminator)(1984),它把陈旧的机器人征服世界的情节与时间旅行结合起来;以及《黑客帝国》(The Matrix)(1999),它把机器人征服世界与钵中之脑结合起来。

看来机器人成为如此众多征服世界故事的主角,在极大程度上是因为它们代表着未知,如同早年传说中的巫师和幽灵一样。它们比巫师和幽灵造成了更为可信的威胁吗?如果机器人被恰当地设计成采纳其主人的目标的智能体,那么它们很可能不会:源自比当前更为先进的设计的机器人将会服务,而不是征服。人类以侵略的方式使用他们的智能,是因为由于自然选择使得人类具有某种先天性的侵略倾向。但我们建造的机器不必先天具有侵略性,除非我们决定按照那种方式建造它们。另一方面,计算机有可能通过提供服务成为不可或缺的而实现某种征服,正如汽车在某种意义上征服了工业化世界一样。I. J. Good(1965)所写的一个情节值得进一步的思考:

把超级智能机器定义为一台能够远远超越任何一个无论如何聪明的人的全部智能活动的机器。鉴于设计机器是这些智能活动中的一种,一台超级智能机器能够设计出更好的机器;那么毫无疑问将出现“智能爆炸”,而人类的智能则被远远抛在后面。如此,第一台超级智能机器就是人类需要完成的最后发明,倘若这机器足够驯良,告诉我们如何保持对它的控制的话。

“智能爆炸”也被数学教授及科学幻想小说作家沃纳· 芬奇(Vernor Vinge)称为技术奇点,他写道(1993):“在30年内,我们将拥有意味着创造超人智能的技术方法。其后不久,人类时代将会结束。”Good和芬奇(以及其他许多人)都正确地注意到了当前技术进步的曲线正呈指数增长(考虑摩尔定律)。然而,由此外推该曲线将持续增长到一个接近无限的奇点则是相当大的一步飞跃。迄今为止,每项其它技术都遵循了一条S形曲线,其指数增长最终会逐渐减少以至停止。

芬奇对即将到来的奇点很担心和害怕,但其他计算机科学家和未来学家却乐于接受。Hans Moravec在《机器人:纯粹的机器到卓越的头脑》(Robot: Mere Machine to Transcendent Mind)中预言机器人将在50年内与人类的智能相匹敌,然后超越之。他写道:

它们将相当迅速地取代我们的存在。我并不因为这后一种可能性而像许多人一样惊慌失措,因为我认为这些未来的机器就是我们的后裔,是依照我们的想象和喜好建造的“精神子孙”,是更强有力形态的我们自己。如同目前世代的生物形态子孙一样,它们将承载着人性对长远未来的最美好希望。这值得我们为它们提供每个有利条件,并且在我们无法再做出贡献时从容引退。(Moravec,2000)

在《精神机器的时代》(The Age of Spiritual Machines)一书中Ray Kurzweil(2000)预言到2099年以前将会有“人类思维与人类最初创造的机器智能世界相融合的强烈趋势。人类与计算机之间不再存在清晰的区别。”甚至有一个新名词——超人类主义——用于表述期待如此未来的活跃的社会运动。完全可以说这样的问题对大多数道德理论家提出了挑战,他们认为保存人类生命和人类物种是好事情。

最后,让我们从机器人的角度考虑一下。如果机器人有了意识,那么把它们当作纯粹的“机器”来对待(例如将它们拆开)可能是不道德的。机器人它们自己也必须遵守道德地行动——我们需要根据一个何为对何为错的理论给它们编制程序。从艾萨克·阿西莫夫(Isaac Asimov,1942)开始,科幻小说作家们就提出了机器人权利和义务的问题。著名的电影《人工智能》(A.I.)(斯皮尔伯格(Spielberg), 2001)改编自布莱恩·奥尔迪斯(Brian Aldiss)创作的关于一个智能机器人的故事,他被编制程序,使其相信自己就是人类,但是他无法理解自己最终被主人母亲抛弃的命运。这个故事(和电影)使人们相信机器人的公民权运动是必要的。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈