关于我们
书单推荐
新书推荐
|
超级智能:路径、危险性与我们的战略
当机器智能超越了人类智能时会发生什么?人工智能会拯救人类还是毁灭人类?
作者提到,我们不是这个星球上速度最快的生物,但我们发明了汽车、火车和飞机。我们虽然不是最强壮的,但我们发明了推土机。我们的牙齿不是最锋利的,但我们可以发明比任何动物的牙齿更坚硬的**。我们之所以能控制地球,是因为我们的大脑比即使最聪明的动物的大脑都要复杂得多。如果机器比人类聪明,那么我们将不再是这个星球的主宰。当这一切发生的时候,机器的运转将超越人类。 人类大脑拥有一些其他动物大脑没有的功能。正是这些独特的功能使我们的种族得以拥有主导地位。如果机器大脑在一般智能方面超越了人类,那么这种新兴的超级智能可能会极其强大,并且有可能无法控制。正如现在大猩猩的命运更多的掌握在人类手中而不是自己手中一样,人类未来的命运也会取决于机器超级智能的行为。 但是,我们有一项优势:我们有机会率先采取行动。是否有可能建造一个种子人工智能,创造特定的初始条件,使得智能爆发的结果能够允许人类的生存?我们如何实现这种可控的引爆? 作者相信,超级智能对我们人类将是一个巨大的威胁。在这本书中,作者谈到了超级智能的优势所带来的风险,也谈到了人类如何解决这种风险。作者认为,他的这本书提到的问题将是我们人类所面临的最大风险。 这本书目标宏大,且有独创性,开辟了人工智能领域的新道路。本书会带你开启一段引人入胜的旅程,把你带到对人类状况和智慧生命未来思索的最前沿。尼克?波斯特洛姆的新书为理解人类和智慧生命的未来奠定了基础,不愧是对我们时代根本任务的一次重新定义。
亚马逊总榜、《纽约时报》超级畅销书 特斯拉汽车和PayPal联合创始人伊隆·马斯克隆重推荐 《超智能时代》一书值得一读,我们需要十分小心人工智能,它可能比核武器更危险。——伊隆·马斯克 如果机器比人类聪明,那么我们将不再是这个星球的主宰 当这一切发生的时候,机器的运转将超越人类,“智能大爆发”出现了
天算论
常言说,人算不如天算。 如果将来计算机的计算能力超过人的计算能力,那么人算不如天算,人被计算机所算计,这会成为一个关系人类命运的头号问题。 尼克?波斯特洛姆的《超级智能》讨论的就是怎么解决“人算不如天算”的问题。所以我称之为天算论。 你为什么应该关注这本书呢? 如果说天演论告诉人们的是,物竞天择,适者生存,至少人还是赢家;那么天算论就没那么简单了,将来人与计算机竞争,人还会是赢家吗? 《超级智能》讨论的是我们这个时代的优先事项。 “智能爆发的威力会击落整个苍穹”,在计算机时代,悠悠万事,唯此为大。 这个时代的优先事项 为什么要设置“超级智能”这个议题?有什么理由,值得让你为了它而放下手边杂事,屏息凝神? 天算论 常言说,人算不如天算。 如果将来计算机的计算能力超过人的计算能力,那么人算不如天算,人被计算机所算计,这会成为一个关系人类命运的头号问题。 尼克?波斯特洛姆的《超级智能》讨论的就是怎么解决“人算不如天算”的问题。所以我称之为天算论。 你为什么应该关注这本书呢? 如果说天演论告诉人们的是,物竞天择,适者生存,至少人还是赢家;那么天算论就没那么简单了,将来人与计算机竞争,人还会是赢家吗? 《超级智能》讨论的是我们这个时代的优先事项。 “智能爆发的威力会击落整个苍穹”,在计算机时代,悠悠万事,唯此为大。 这个时代的优先事项 为什么要设置“超级智能”这个议题?有什么理由,值得让你为了它而放下手边杂事,屏息凝神? 让我们先从本书的最后一句读起。作者谈到这本书的立意:“透过日常琐事的迷雾,我们能够(模糊地)看到这个时代的核心任务。在这本书中,我们尝试着在相对模糊不清的视野中辨别更多的特征。我们看到,降低存在性风险,并且实现导向合理使用人类宇宙资源的文明进步,是我们道德上的主要优先事项。” 让我解释一下“这个时代的核心任务”,“道德上的主要优先事项”。 人生最大的喜乐,无非“久旱逢甘露,他乡遇故知。洞房花烛夜,金榜题名时”。而人生最大的悲哀,恐怕不是被枪毙,而是于枪毙前被要求自己给自己挖坑。 但人类经常干这种事: 在农业社会,土地本来是人类发展的工具,但结果却演变成,人为了土地,而失去了自我。托尔斯泰的《战争与和平》,讲的就是人类为了土地而打杀,死了都不知道是为了什么。 在工业社会,资本本来是人类发展的工具,但最后演变成,人为了资本,而失去了自我。马克思的《1844年经济学哲学手稿》,讲的就是人类为了资本而争斗,为了手段而忘记目的。 在信息社会,智能本来是人类发展的工具,但最后演变成,人为了智能,而失去了自我。《超级智能》讲的是,人把计算机造成了超级自我,但自我该如何做,才能保证人本身才是目的,而不被自己发明的手段所打败呢? 这就是“这个时代的核心任务”,“道德上的主要优先事项”。 所以,农业社会的人,应该看看《战争与和平》中那些活得明白的人;工业社会的人,应该了解《1844年经济学哲学手稿》中那些克服异化的思想。中国的工业化到2020年将基本完成,那时中国人将进入信息社会,但如果不关注《超级智能》讲的“时代核心”与“道德优先”,活着也是浑浑噩噩,在火葬场里边和外边,虽说有一些区别,但区别也不像想象的那么大。 人类经历了土地的挑战、资本的挑战,今天来到了信息时代,智能的挑战是“我们将要面对的最后一个挑战”。 正如波斯特洛姆点明的: 如果有一天我们发明了超越人类大脑一般智能的机器大脑,那么这种超级智能将会非常强大。并且,正如现在大猩猩的命运更多地取决于人类而不是它们自身一样,人类的命运将取决于超级智能机器的行为。 在本书中,我将努力诠释可能出现的超级智能带来的挑战,以及我们如何最好地应对。这很可能是人类面对的最重要和最可怕的挑战。而且,不管我们成功还是失败,这大概都是我们将要面对的最后一个挑战。 与许多相信机器最后将战胜人类的业界专家相比,波斯特洛姆的心态总的来说是积极的,他的乐观来自一个判断:“我们拥有一项优势,即我们清楚地知道如何制造超级智能机器。” 波斯特洛姆认为,原则上,我们能够制造一种保护人类价值的超级智能,当然,我们也有足够的理由这么做。实际上,控制问题—也就是如何控制超级智能,似乎非常困难,而且我们似乎也只有一次机会。一旦不友好的超级智能出现,它就会阻止我们将其替换或者更改其偏好设置,那时我们的命运就被锁定了。 智能大爆发的动力学 一、什么是智能爆发? 简单地说,智能爆发就是电脑超过人脑。可以从技术和社会两个方面理解其含义:技术性的理解是超级智能,即电脑比人脑更聪明;社会性的理解是智能异化,即作为手段的智能不再顺从作为目的的人类。 1. 超级智能 超级智能是指“在许多普遍的认知领域中,表现远远超越目前最聪明的人类头脑的智能”。 作者将超级智能分为三种形式:高速超级智能、集体超级智能和素质超级智能。 —高速超级智能是指和人脑相似,但速度快于人脑的智能。 —集体超级智能是指一种通过将总数庞大的小型智能集中起来,从而达到卓越性能的系统智能。 —素质超级智能是指一个至少和人类大脑一样快,并且从素质上来说更加聪明的智能。 作者说的这三种能力,令人想到大数据的“3V”(不算“数据大”的Volume)。高速超级智能对应Velocity,集体超级智能对应Variety,素质超级智能对应Value。一言以蔽之,“3V”讲的都是复杂性,分别是量的复杂性(Velocity是时间量,Variety是空间量)和质的复杂性(素质)。 作者的意思是,电脑超过人脑,一定是表现在处理复杂性的量的能力与质的能力上。换句话说,当复杂性达到一定量和质的程度时,人算算不清,而天算算得清,人算可能不如天算。 2. 智能异化 人算一旦不如天算,会出现什么情况呢? 作者有一个形象生动的比喻:人好比孩子,超级智能好比孩子玩的炸弹。一旦人算不如天算,智能就会像炸弹那样爆炸。 让我们来看作者生动的描述: 在智能爆发的前景之下,我们人类就像拿着炸弹玩的孩子。玩具的威力和我们行为的成熟度是如此的不匹配。超级智能是一个我们现在还没有准备好应对的挑战,而且很长时间之内都不会准备好。尽管我们把炸弹放到耳边能够听到微弱的滴答声,但是我们也完全不知道爆炸会在何时发生。 对于一个手拿着尚未引爆的炸弹的孩子来说,明智的做法是轻轻地将炸弹放下,快速跑出屋子,并告诉距离最近的大人。然而,我们现在面对的不是一个孩子,而是很多孩子,而且每个人都带着独立的引爆装置。我们所有人都意识到放下这个危险玩意儿的可能性几乎为零。总会有某个蠢孩子因为想要知道会发生什么,而按下引爆按钮。 我们也不可能通过逃离的方法获得安全,因为智能爆发的威力会击落整个苍穹。而且,我们也看不到任何成年人。 在这种情况下,任何“哎呀,太棒了!”的高兴情绪都是不合适的。惊愕和恐惧会稍微合适一些,但是最适当的态度是:下定决心,发挥我们最好的实力,就像准备一场很难的考试一样,考试通过了梦想就会实现,考试失败了梦想就会破灭。 映射到社会,人类曾至少在两类情况下引爆过这种超级“炸弹”。一类是“土地炸弹”。据说成吉思汗把四川人从2 000万杀到只剩下80万,主要是因为他们影响了马吃草。人类开发出土地,本来是为了满足衣食之需;而在成吉思汗看来,人(至少是四川人)不重要,重要的是马。所以用土地种农作物有“罪”,必须从生存角度加以彻底否定。另一类是“资本炸弹”。两次世界大战本质上都是因为资本而引发的杀人游戏,纳粹对犹太人的迫害是人类的一种道德破产。 人类玩过“土地炸弹”、“资本炸弹”,下一步必然会玩“智能炸弹”。“智能爆发的威力会击落整个苍穹”,那时人会怎么样呢?记得18年前“网络文化丛书”组织者在小汤山开过一个未来讨论会,一位今天已变得家喻户晓的专家当时曾说(大意):“如果不考虑道德因素,计算机一旦统治人,从机器角度讲,人体除了脑袋,别的器官都没什么用,还浪费资源(按:成吉思汗如果管理互联网,肯定也会这么想)。所以最好的办法是把人的脑袋拧下来,像电灯泡一样安在工作台上,接好营养液,然后工作到死。为了减少人的痛苦,可以利用虚拟现实技术(按:现在已经快实现了),按照大脑的偏好,分别配一辈子的三级片或战争片,让他以为是真的,从而快快乐乐地度过一生。” 这就是我们和作者都要面对的问题。 如果你觉得这些都无所谓—什么电脑超过人脑,什么电脑统治人脑,包括你或你的后代哪天下午被莫名其妙地捉去当成灯泡,那你不需要读这本书,你赶紧忙你那更重要的事情去吧。 二、天算的动力学公式 本书在前几章讨论超级智能出现的可能性以及之后会发生什么后,接下来开始讨论智能爆发的原理,即“智能大爆发的动力学”。 这里补充一下,人生最大的悲哀,除了自己挖坑埋了自己(比喻为了手段而忘记目的),还在于死了都不知为什么而死,就像托尔斯泰笔下那些搞不懂决定战争与和平的原因的人们。不管将来出现什么情况,至少我们应该搞清人算不如天算的原因。 作者构建了一个公式,将超级智能的发展作为最优化力和系统反抗度的函数,来分析天算超过人算这个过程的动力学。 先假设一个系统的智能增长率为两个变量—最优化力(主要用于提高系统智能水平)和系统智能对这种最优化力的反应度的单调递增函数。用反抗度表示反应度的倒数,公式如下: 最优化力 智能变化率= — 反抗度 作者在这里用了两个新造的概念—最优化力和反抗度。最优化力指提高系统智能水平的能力,可以理解为计算效率,相当于聪明程度。反抗度则相当于阻力,作者曾说“边际效益开始递减(即反抗度递增)”,由此可以推论出,反抗度相当于智能提高的边际成本。 作者指出,提高系统效率过程中的反抗度很高,需要人类花费大量精力来应对。不过,即便这样,人类的综合能力每年也仅能提高几个百分点。此外,由于内外部环境不断变化,即便系统某一刻实现了效率最优,它也将无法很快适应新的环境。 用我的话解释,这是一个效能公式。效能就是效率(相对复杂性)的变化率,因此智能变化率就是智能效率(最优化力)的微分。智能的效能取决于效率(所谓的最优化力)与边际成本变化(所谓的反抗度)的比率。 其中作者没有直接点出的条件是,边际成本是相对于复杂度而变化的(递增或递减)。越复杂,决策成本越低,就叫灵活(SMART,正的智慧);越复杂,决策成本越高,就叫迟钝(负的智慧)。智能变化率相当于张瑞敏说的打移动靶,最优化力相当于他说的打固定靶。反抗度指的就是目标转变时,要求枪口随目标移动转换所需付出的成本。 因此,智能变化率就是《周易》所说的那个“易”,也就是轻轻松松化解复杂性,表现为太极的“随物宛转,与心徘徊”。举例来说,表现在中华民族,就是5 000年来对复杂变化的适应(近期如快速适应世界贸易组织);表现在个人能力上,如打乒乓球的灵活。超级智能,就是把这个中国人人无师自通的东西变成电脑的能力。 据我考证,人类的第一篇“天算论”,是微积分(也就是变化率之学)的发明者莱布尼茨1703年发表于核心期刊《皇家科学院纪录》上的《论中国伏羲二进位制级数》。莱布尼茨在论文中说:“让我感到自豪的是,若我未发现二进位制数学,这个六十四卦的体系,即伏羲易图,再耗费许多时间也不会被搞明白的。”电脑的二进制就主要是从这里来的,只不过当年莱布尼茨送给康熙的二进制计算器(帕斯卡尔二代机)不是电的,而是手摇的。2004年中国还拿它到凡尔赛宫展览过—它是超级智能在500年前的祖先。 人算控制天算 当人算不如天算时,以往人类典型的解决方案是像“霸王别姬”那样抹脖子。项羽认为是天要亡他,人算不如天算,赶紧让脑袋像灯泡那样掉下来就完了。 波斯特洛姆的方案比项羽的方案要积极一些,至少先别认输,还要看看天算会有哪些规律,人算能有哪些办法。这就是本书第5章以后的主要内容。 虽然不敢说作者的这些办法从根上是否管用,但想总比不想好,况且有许多想法还确实开阔了我们的思路。读过本书以后的第一感觉是,项羽算白死了。 读者读到这里时,应该把自己想象成被别人追到乌江了,正想抹脖子,转念一想,办法也许会有,并且“万一实现了呢”? 作者首先讨论了超级智能的形式和能量,以及具有决定性优势的超级智能体有哪些战略选择。之后探讨的重点转向控制问题,并提出为了获得可生存并且有利的结果,如何塑造初始条件的问题。最后指出为了增加成功概率,现在可以做些什么。我们分别进行介绍。 一、战略分析与控制 1. 决定性战略优势:分析形势 提出正确问题,是解决问题的第一步。而第一个问题应该是什么? 作者建议这样提出问题:将会有一个还是多个超级智能?是否会有一次智能爆发能够推动某一个项目,使其远远超越其他所有项目,从而主宰未来?或者进展会比较一致,在广阔的范围里同时展开,包含很多个项目,但是没有一个能够长期拥有压倒性的领先地位? 这话说得比较绕,让我用大白话翻译吧:项羽转念一想,将来是刘邦一家独大呢,还是刘邦与其他人(如韩信、臧荼、张耳、彭越……)相争呢? 2. 超级认知能力:分析霸主的战略 第二步分析,假设出现了一个数字超级智能体,而且出于某种原因,它想要统治全球,那么它能够成功吗?作者进一步探讨超级智能会拥有哪些能力,以及这些能力能用来做什么。 相当于如果判断未来是刘邦一家独大,就要进一步分析他会有哪些能力,用于何处。 3. 超级智能的意愿:分析战略目标与手段之间的关系 第三步分析,超级智能可以拥有极大的根据自己的目标塑造未来的能力。但是,它的目标会是怎样的?一个人工智能体的智能与动机之间是什么关系? 作者设想了两种情况。一是目标导向(正交性论点),智能和最终目标是独立变量,任何水平的智能都可以搭配任何最终目标。二是工具导向(工具性趋同论点),不管超级智能具有一系列最终目标中的哪种,都将选择相似的中间目标,因为它们有这么做的共同工具性理由。通过这两种论点,就可以思考一个超级智能体想要做什么的问题了。 相当于分析刘邦想要做什么,是目标导向的呢,还是手段导向的(为了手段而忘记目标型的)? 4. 结局注定是厄运吗?不同路径具有不同后果 作者发现:当人工智能本来愚蠢时,变聪明是更安全的;但是当它本来就聪明时,变得更聪明则是更危险的。就像有一个轴心点,到这个点上,原来很有效的策略会突然开始逆反。我们可以把这个现象叫作“背叛转折”。 作者举了个例子:假设人工智能的最终目标是“让项目的赞助者高兴”,于是它使在赞助者大脑的快乐中枢植入电极,这样就能够保证赞助者感受到极大快乐。当然,赞助者可能并不想被改造成整天咧着嘴笑的傻子,但是如果这样能最大限度地实现人工智能的最终目标,那么人工智能也会去实施这个方案。 相当于如果刘邦太强大,无法被搞定,但如果他像洪秀全那样沉溺于酒色,以为天下已经搞定,这时便仍有机会。 5. 控制问题 作者认为,如果智能爆发的默认后果是导致存在性灾难的发生,那么面对这样的威胁,我们的思路必须立刻转向寻求应对方法。有没有办法可以避免这样的默认结局?有没有可能设计出受控制的智能爆发? 作者将对策集中于委托-代理问题,并把方法分为两大类:能力控制和动机选择。 相当于是选择把文章做在韩信等将军身上以使其造反,还是把文章做在刘邦身上以使其丧志。 6. 多极情景:诸侯割据 这是与上面第2点并列的分岔。相当于分析不是刘邦独大,而是陷入诸侯割据的情况。 作者对这一情景的关注包含两个层面。首先,社会融合可能会成为控制问题的一种解决方式。其次,即使没有人着手去创造出多极条件来解决控制问题,多极结局也可能发生。那么,这种结局看起来可能是什么样的呢?最终的竞争社会不一定会吸引人,也不一定能长久持续。 相当于项羽如果分析到刘邦集团会自乱阵脚,陷入内乱,那就没必要着急抹脖子了—毕竟先三十年河东,再三十年河西。 二、获取价值观 《获取价值观》一章及以后的《确定选择标准》各章是本书的精华,具有超越本书的普世的阅读价值。 1. “目标系统工程” 作者的本意,是提出一种叫“目标系统工程”的东西,来避免出现天算超过人算后,电脑把自己当作目的,而让人成为电脑的手段这种异化局面。为此,主张人要先发制人(准确地说是先发制“机”),把目标的控制权掌握在人手中。用作者的话说:“对能力的控制最多是一个暂时、辅助的手段。除非要永久地限制超级智能,否则我们都需要掌握动机选择机制。” 我觉得最有意思的是“价值观加载技术的总结”这张表(见本书第259页)。它对于治理各类目标与手段不符的问题都有借鉴意义。它至少让我们知道,除了搞运动,人类还可以通过未来几百年的建设来让做事符合宗旨这件事,被专业化地完成。 作者关于“目标系统工程”的具体设想,如管理效用函数、价值评估等,并不重要。将来会有人对其不断改进,使之成熟。这本书最大的贡献在于提出了一个非常正点(“思无邪”)的问题:“怎样才能将一些价值观加载到人工代理内部,使该价值观成为其追求的最终目标呢?”这是人类一万年来的梦想,但从来没有实现过。“目标系统工程”是关于魂的工程,离开了魂,梦便只不过停留在做梦阶段。 正如作者指出的:“这个价值观加载的问题很棘手,但一定要面对。”因为除了魂的原因,还有现实而紧迫的原因:“如果这个代理不是智能的,那么它就会缺乏理解和再现那些对人类有意义的价值观的能力。但是如果我们推迟进程,直到代理变成超级智能之后才行动,就可以抑制住我们在其动机系统中插手的企图。”人类对土地、资本都没有把握好,导致死伤几千万甚至几亿人以后,才想到提出正确的问题。希望这次不会再犯同样的错误。 2. 意义建设 提出以“获取价值观”为核心的“目标系统工程”,还具有更大意义。 我一直认为,与农业文明、工业文明并列的,是意义文明。信息只不过是意义的镜子。谈信息不谈意义,好比只有镜子,空无内容。未来的互联网是意义互联网。意义就是这里说的“目标”(准确的说法是目的、宗旨),获取价值观则是指获取对意义的把握权力(如果慎用“控制权力”这个字眼的话)。 工业文明有一个根本特点,它是一个异化社会(资本主义、社会主义只是程度不同),异化社会的特点是系统地为了手段而忘记目的(例如,为了国内生产总值而忘记幸福,为了贪污而忘记服务,为了浪费而忘记委托),这决定了工业社会整体来说,是把专业化的重点放在手段上,但必然的弱点是在目的上十分业余(表现在总是努力向东走,最后发现来到的是西边)。 智能革命只是一种技术性的说法,映射到人文上应是意义革命,也就是让意义从不专业走向专业的这样一场革命。如果超越作者局限于自然科学的一般见识,顺着“目标系统工程”这一卓越思想,就可以发现,作者所谈的实际涉及的是信息文明的核心使命和实事(所谓“工程”)。 读这本书,如果要有更大收获,就要超越单纯技术思维,从如何变一种类型的技术(异化的技术)为另一种类型的技术(可“获取价值观”的技术),举一反三地悟到如何让整个技术作为手段服务于人的目的。 人算在技术上可能将来有不如天算的一天,但人因为具有意义(再加上“清楚地知道如何制造超级智能机器”)而可以达到“人定”,于是顺理成章可以“胜天”,或天人合一。 基于此,我说句题外话—超级智能,需要超级意义。 姜奇平 中国社会科学院信息化研究中心秘书长、《互联网周刊》主编 天算论 常言说,人算不如天算。 如果将来计算机的计算能力超过人的计算能力,那么人算不如天算,人被计算机所算计,这会成为一个关系人类命运的头号问题。 尼克?波斯特洛姆的《超级智能》讨论的就是怎么解决“人算不如天算”的问题。所以我称之为天算论。 你为什么应该关注这本书呢? 如果说天演论告诉人们的是,物竞天择,适者生存,至少人还是赢家;那么天算论就没那么简单了,将来人与计算机竞争,人还会是赢家吗? 《超级智能》讨论的是我们这个时代的优先事项。 “智能爆发的威力会击落整个苍穹”,在计算机时代,悠悠万事,唯此为大。 这个时代的优先事项 为什么要设置“超级智能”这个议题?有什么理由,值得让你为了它而放下手边杂事,屏息凝神? 让我们先从本书的最后一句读起。作者谈到这本书的立意:“透过日常琐事的迷雾,我们能够(模糊地)看到这个时代的核心任务。在这本书中,我们尝试着在相对模糊不清的视野中辨别更多的特征。我们看到,降低存在性风险,并且实现导向合理使用人类宇宙资源的文明进步,是我们道德上的主要优先事项。” 让我解释一下“这个时代的核心任务”,“道德上的主要优先事项”。 人生最大的喜乐,无非“久旱逢甘露,他乡遇故知。洞房花烛夜,金榜题名时”。而人生最大的悲哀,恐怕不是被枪毙,而是于枪毙前被要求自己给自己挖坑。 但人类经常干这种事: 在农业社会,土地本来是人类发展的工具,但结果却演变成,人为了土地,而失去了自我。托尔斯泰的《战争与和平》,讲的就是人类为了土地而打杀,死了都不知道是为了什么。 在工业社会,资本本来是人类发展的工具,但最后演变成,人为了资本,而失去了自我。马克思的《1844年经济学哲学手稿》,讲的就是人类为了资本而争斗,为了手段而忘记目的。 在信息社会,智能本来是人类发展的工具,但最后演变成,人为了智能,而失去了自我。《超级智能》讲的是,人把计算机造成了超级自我,但自我该如何做,才能保证人本身才是目的,而不被自己发明的手段所打败呢? 这就是“这个时代的核心任务”,“道德上的主要优先事项”。 所以,农业社会的人,应该看看《战争与和平》中那些活得明白的人;工业社会的人,应该了解《1844年经济学哲学手稿》中那些克服异化的思想。中国的工业化到2020年将基本完成,那时中国人将进入信息社会,但如果不关注《超级智能》讲的“时代核心”与“道德优先”,活着也是浑浑噩噩,在火葬场里边和外边,虽说有一些区别,但区别也不像想象的那么大。 人类经历了土地的挑战、资本的挑战,今天来到了信息时代,智能的挑战是“我们将要面对的最后一个挑战”。 正如波斯特洛姆点明的: 如果有一天我们发明了超越人类大脑一般智能的机器大脑,那么这种超级智能将会非常强大。并且,正如现在大猩猩的命运更多地取决于人类而不是它们自身一样,人类的命运将取决于超级智能机器的行为。 在本书中,我将努力诠释可能出现的超级智能带来的挑战,以及我们如何最好地应对。这很可能是人类面对的最重要和最可怕的挑战。而且,不管我们成功还是失败,这大概都是我们将要面对的最后一个挑战。 与许多相信机器最后将战胜人类的业界专家相比,波斯特洛姆的心态总的来说是积极的,他的乐观来自一个判断:“我们拥有一项优势,即我们清楚地知道如何制造超级智能机器。” 波斯特洛姆认为,原则上,我们能够制造一种保护人类价值的超级智能,当然,我们也有足够的理由这么做。实际上,控制问题—也就是如何控制超级智能,似乎非常困难,而且我们似乎也只有一次机会。一旦不友好的超级智能出现,它就会阻止我们将其替换或者更改其偏好设置,那时我们的命运就被锁定了。 智能大爆发的动力学 一、什么是智能爆发? 简单地说,智能爆发就是电脑超过人脑。可以从技术和社会两个方面理解其含义:技术性的理解是超级智能,即电脑比人脑更聪明;社会性的理解是智能异化,即作为手段的智能不再顺从作为目的的人类。 1. 超级智能 超级智能是指“在许多普遍的认知领域中,表现远远超越目前最聪明的人类头脑的智能”。 作者将超级智能分为三种形式:高速超级智能、集体超级智能和素质超级智能。 —高速超级智能是指和人脑相似,但速度快于人脑的智能。 —集体超级智能是指一种通过将总数庞大的小型智能集中起来,从而达到卓越性能的系统智能。 —素质超级智能是指一个至少和人类大脑一样快,并且从素质上来说更加聪明的智能。 作者说的这三种能力,令人想到大数据的“3V”(不算“数据大”的Volume)。高速超级智能对应Velocity,集体超级智能对应Variety,素质超级智能对应Value。一言以蔽之,“3V”讲的都是复杂性,分别是量的复杂性(Velocity是时间量,Variety是空间量)和质的复杂性(素质)。 作者的意思是,电脑超过人脑,一定是表现在处理复杂性的量的能力与质的能力上。换句话说,当复杂性达到一定量和质的程度时,人算算不清,而天算算得清,人算可能不如天算。 2. 智能异化 人算一旦不如天算,会出现什么情况呢? 作者有一个形象生动的比喻:人好比孩子,超级智能好比孩子玩的炸弹。一旦人算不如天算,智能就会像炸弹那样爆炸。 让我们来看作者生动的描述: 在智能爆发的前景之下,我们人类就像拿着炸弹玩的孩子。玩具的威力和我们行为的成熟度是如此的不匹配。超级智能是一个我们现在还没有准备好应对的挑战,而且很长时间之内都不会准备好。尽管我们把炸弹放到耳边能够听到微弱的滴答声,但是我们也完全不知道爆炸会在何时发生。 对于一个手拿着尚未引爆的炸弹的孩子来说,明智的做法是轻轻地将炸弹放下,快速跑出屋子,并告诉距离最近的大人。然而,我们现在面对的不是一个孩子,而是很多孩子,而且每个人都带着独立的引爆装置。我们所有人都意识到放下这个危险玩意儿的可能性几乎为零。总会有某个蠢孩子因为想要知道会发生什么,而按下引爆按钮。 我们也不可能通过逃离的方法获得安全,因为智能爆发的威力会击落整个苍穹。而且,我们也看不到任何成年人。 在这种情况下,任何“哎呀,太棒了!”的高兴情绪都是不合适的。惊愕和恐惧会稍微合适一些,但是最适当的态度是:下定决心,发挥我们最好的实力,就像准备一场很难的考试一样,考试通过了梦想就会实现,考试失败了梦想就会破灭。 映射到社会,人类曾至少在两类情况下引爆过这种超级“炸弹”。一类是“土地炸弹”。据说成吉思汗把四川人从2 000万杀到只剩下80万,主要是因为他们影响了马吃草。人类开发出土地,本来是为了满足衣食之需;而在成吉思汗看来,人(至少是四川人)不重要,重要的是马。所以用土地种农作物有“罪”,必须从生存角度加以彻底否定。另一类是“资本炸弹”。两次世界大战本质上都是因为资本而引发的杀人游戏,纳粹对犹太人的迫害是人类的一种道德破产。 人类玩过“土地炸弹”、“资本炸弹”,下一步必然会玩“智能炸弹”。“智能爆发的威力会击落整个苍穹”,那时人会怎么样呢?记得18年前“网络文化丛书”组织者在小汤山开过一个未来讨论会,一位今天已变得家喻户晓的专家当时曾说(大意):“如果不考虑道德因素,计算机一旦统治人,从机器角度讲,人体除了脑袋,别的器官都没什么用,还浪费资源(按:成吉思汗如果管理互联网,肯定也会这么想)。所以最好的办法是把人的脑袋拧下来,像电灯泡一样安在工作台上,接好营养液,然后工作到死。为了减少人的痛苦,可以利用虚拟现实技术(按:现在已经快实现了),按照大脑的偏好,分别配一辈子的三级片或战争片,让他以为是真的,从而快快乐乐地度过一生。” 这就是我们和作者都要面对的问题。 如果你觉得这些都无所谓—什么电脑超过人脑,什么电脑统治人脑,包括你或你的后代哪天下午被莫名其妙地捉去当成灯泡,那你不需要读这本书,你赶紧忙你那更重要的事情去吧。 二、天算的动力学公式 本书在前几章讨论超级智能出现的可能性以及之后会发生什么后,接下来开始讨论智能爆发的原理,即“智能大爆发的动力学”。 这里补充一下,人生最大的悲哀,除了自己挖坑埋了自己(比喻为了手段而忘记目的),还在于死了都不知为什么而死,就像托尔斯泰笔下那些搞不懂决定战争与和平的原因的人们。不管将来出现什么情况,至少我们应该搞清人算不如天算的原因。 作者构建了一个公式,将超级智能的发展作为最优化力和系统反抗度的函数,来分析天算超过人算这个过程的动力学。 先假设一个系统的智能增长率为两个变量—最优化力(主要用于提高系统智能水平)和系统智能对这种最优化力的反应度的单调递增函数。用反抗度表示反应度的倒数,公式如下: 最优化力 智能变化率= — 反抗度 作者在这里用了两个新造的概念—最优化力和反抗度。最优化力指提高系统智能水平的能力,可以理解为计算效率,相当于聪明程度。反抗度则相当于阻力,作者曾说“边际效益开始递减(即反抗度递增)”,由此可以推论出,反抗度相当于智能提高的边际成本。 作者指出,提高系统效率过程中的反抗度很高,需要人类花费大量精力来应对。不过,即便这样,人类的综合能力每年也仅能提高几个百分点。此外,由于内外部环境不断变化,即便系统某一刻实现了效率最优,它也将无法很快适应新的环境。 用我的话解释,这是一个效能公式。效能就是效率(相对复杂性)的变化率,因此智能变化率就是智能效率(最优化力)的微分。智能的效能取决于效率(所谓的最优化力)与边际成本变化(所谓的反抗度)的比率。 其中作者没有直接点出的条件是,边际成本是相对于复杂度而变化的(递增或递减)。越复杂,决策成本越低,就叫灵活(SMART,正的智慧);越复杂,决策成本越高,就叫迟钝(负的智慧)。智能变化率相当于张瑞敏说的打移动靶,最优化力相当于他说的打固定靶。反抗度指的就是目标转变时,要求枪口随目标移动转换所需付出的成本。 因此,智能变化率就是《周易》所说的那个“易”,也就是轻轻松松化解复杂性,表现为太极的“随物宛转,与心徘徊”。举例来说,表现在中华民族,就是5 000年来对复杂变化的适应(近期如快速适应世界贸易组织);表现在个人能力上,如打乒乓球的灵活。超级智能,就是把这个中国人人无师自通的东西变成电脑的能力。 据我考证,人类的第一篇“天算论”,是微积分(也就是变化率之学)的发明者莱布尼茨1703年发表于核心期刊《皇家科学院纪录》上的《论中国伏羲二进位制级数》。莱布尼茨在论文中说:“让我感到自豪的是,若我未发现二进位制数学,这个六十四卦的体系,即伏羲易图,再耗费许多时间也不会被搞明白的。”电脑的二进制就主要是从这里来的,只不过当年莱布尼茨送给康熙的二进制计算器(帕斯卡尔二代机)不是电的,而是手摇的。2004年中国还拿它到凡尔赛宫展览过—它是超级智能在500年前的祖先。 人算控制天算 当人算不如天算时,以往人类典型的解决方案是像“霸王别姬”那样抹脖子。项羽认为是天要亡他,人算不如天算,赶紧让脑袋像灯泡那样掉下来就完了。 波斯特洛姆的方案比项羽的方案要积极一些,至少先别认输,还要看看天算会有哪些规律,人算能有哪些办法。这就是本书第5章以后的主要内容。 虽然不敢说作者的这些办法从根上是否管用,但想总比不想好,况且有许多想法还确实开阔了我们的思路。读过本书以后的第一感觉是,项羽算白死了。 读者读到这里时,应该把自己想象成被别人追到乌江了,正想抹脖子,转念一想,办法也许会有,并且“万一实现了呢”? 作者首先讨论了超级智能的形式和能量,以及具有决定性优势的超级智能体有哪些战略选择。之后探讨的重点转向控制问题,并提出为了获得可生存并且有利的结果,如何塑造初始条件的问题。最后指出为了增加成功概率,现在可以做些什么。我们分别进行介绍。 一、战略分析与控制 1. 决定性战略优势:分析形势 提出正确问题,是解决问题的第一步。而第一个问题应该是什么? 作者建议这样提出问题:将会有一个还是多个超级智能?是否会有一次智能爆发能够推动某一个项目,使其远远超越其他所有项目,从而主宰未来?或者进展会比较一致,在广阔的范围里同时展开,包含很多个项目,但是没有一个能够长期拥有压倒性的领先地位? 这话说得比较绕,让我用大白话翻译吧:项羽转念一想,将来是刘邦一家独大呢,还是刘邦与其他人(如韩信、臧荼、张耳、彭越……)相争呢? 2. 超级认知能力:分析霸主的战略 第二步分析,假设出现了一个数字超级智能体,而且出于某种原因,它想要统治全球,那么它能够成功吗?作者进一步探讨超级智能会拥有哪些能力,以及这些能力能用来做什么。 相当于如果判断未来是刘邦一家独大,就要进一步分析他会有哪些能力,用于何处。 3. 超级智能的意愿:分析战略目标与手段之间的关系 第三步分析,超级智能可以拥有极大的根据自己的目标塑造未来的能力。但是,它的目标会是怎样的?一个人工智能体的智能与动机之间是什么关系? 作者设想了两种情况。一是目标导向(正交性论点),智能和最终目标是独立变量,任何水平的智能都可以搭配任何最终目标。二是工具导向(工具性趋同论点),不管超级智能具有一系列最终目标中的哪种,都将选择相似的中间目标,因为它们有这么做的共同工具性理由。通过这两种论点,就可以思考一个超级智能体想要做什么的问题了。 相当于分析刘邦想要做什么,是目标导向的呢,还是手段导向的(为了手段而忘记目标型的)? 4. 结局注定是厄运吗?不同路径具有不同后果 作者发现:当人工智能本来愚蠢时,变聪明是更安全的;但是当它本来就聪明时,变得更聪明则是更危险的。就像有一个轴心点,到这个点上,原来很有效的策略会突然开始逆反。我们可以把这个现象叫作“背叛转折”。 作者举了个例子:假设人工智能的最终目标是“让项目的赞助者高兴”,于是它使在赞助者大脑的快乐中枢植入电极,这样就能够保证赞助者感受到极大快乐。当然,赞助者可能并不想被改造成整天咧着嘴笑的傻子,但是如果这样能最大限度地实现人工智能的最终目标,那么人工智能也会去实施这个方案。 相当于如果刘邦太强大,无法被搞定,但如果他像洪秀全那样沉溺于酒色,以为天下已经搞定,这时便仍有机会。 5. 控制问题 作者认为,如果智能爆发的默认后果是导致存在性灾难的发生,那么面对这样的威胁,我们的思路必须立刻转向寻求应对方法。有没有办法可以避免这样的默认结局?有没有可能设计出受控制的智能爆发? 作者将对策集中于委托-代理问题,并把方法分为两大类:能力控制和动机选择。 相当于是选择把文章做在韩信等将军身上以使其造反,还是把文章做在刘邦身上以使其丧志。 6. 多极情景:诸侯割据 这是与上面第2点并列的分岔。相当于分析不是刘邦独大,而是陷入诸侯割据的情况。 作者对这一情景的关注包含两个层面。首先,社会融合可能会成为控制问题的一种解决方式。其次,即使没有人着手去创造出多极条件来解决控制问题,多极结局也可能发生。那么,这种结局看起来可能是什么样的呢?最终的竞争社会不一定会吸引人,也不一定能长久持续。 相当于项羽如果分析到刘邦集团会自乱阵脚,陷入内乱,那就没必要着急抹脖子了—毕竟先三十年河东,再三十年河西。 二、获取价值观 《获取价值观》一章及以后的《确定选择标准》各章是本书的精华,具有超越本书的普世的阅读价值。 1. “目标系统工程” 作者的本意,是提出一种叫“目标系统工程”的东西,来避免出现天算超过人算后,电脑把自己当作目的,而让人成为电脑的手段这种异化局面。为此,主张人要先发制人(准确地说是先发制“机”),把目标的控制权掌握在人手中。用作者的话说:“对能力的控制最多是一个暂时、辅助的手段。除非要永久地限制超级智能,否则我们都需要掌握动机选择机制。” 我觉得最有意思的是“价值观加载技术的总结”这张表(见本书第259页)。它对于治理各类目标与手段不符的问题都有借鉴意义。它至少让我们知道,除了搞运动,人类还可以通过未来几百年的建设来让做事符合宗旨这件事,被专业化地完成。 作者关于“目标系统工程”的具体设想,如管理效用函数、价值评估等,并不重要。将来会有人对其不断改进,使之成熟。这本书最大的贡献在于提出了一个非常正点(“思无邪”)的问题:“怎样才能将一些价值观加载到人工代理内部,使该价值观成为其追求的最终目标呢?”这是人类一万年来的梦想,但从来没有实现过。“目标系统工程”是关于魂的工程,离开了魂,梦便只不过停留在做梦阶段。
尼克·波斯特洛姆,全球著名思想家,牛津大学人类未来研究院的院长,哲学家和超人类主义学家。 其学术背景包括物理、计算机科学、数理逻辑以及哲学,著有大约200种出版物,已经被翻译成22种语言。 曾获得尤金·甘农(Eugene R. Gannon)奖(该奖项的获得者每年只有一名,他们来自哲学、数学、艺术和其他人文学科与自然科学领域)。
序言 // XXV
第一章.人工智能:昨日成就与今日现状 增长模式和宏大历史 // 003 大预期 // 006 希望与绝望并存 // 008 技术发展水平 // 016 对未来机器智能的看法 // 022 第二章.通往超级智能之路 人工智能 // 030 全脑仿真(whole brain emulation) // 037 生物认知 // 043 人脑—计算机交互界面 // 052 网络和组织 // 056 总结 // 058 第三章.超级智能的形式 序言 // XXV 在你的颅腔里,有个器官能够阅读。这个器官就是人的大脑,它具有其他动物大脑没有的一些能力,而我们在地球上的主宰地位便归功于这些独特的能力。其他动物有更强壮的肌肉或更锐利的爪子,但是我们有更聪明的大脑。我们在一般智能方面的些许优势使我们创造了语言,发展了科技,并建立了复杂的社会组织。这种优势随着时间的延续而不断提高,因为每一代人的成就都建立在前人的成就之上。 如果有一天我们发明了超越人类大脑一般智能的机器大脑,那么这种超级智能将会非常强大。并且,正如现在大猩猩的命运更多地取决于人类而不是它们自身一样,人类的命运将取决于超级智能机器。 然而我们拥有一项优势:我们清楚地知道如何制造超级智能机器。原则上,我们能够制造一种保护人类价值的超级智能,当然,我们也有足够的理由这么做。实际上,控制问题—也就是如何控制超级智能,似乎非常困难,而且我们似乎也只有一次机会。一旦不友好的超级智能出现,它就会阻止我们将其替换或者更改其偏好设置,而我们的命运就因此被锁定了。 在本书中,我将努力诠释可能出现的超级智能带来的挑战,以及我们如何更好地应对。这很可能是人类面对的最重要和最可怕的挑战。而且,不管我们成功还是失败,这大概都是我们将要面对的最后一个挑战。 本书并不认为,我们即将在人工智能方面取得重大突破,或者能够准确预测突破会在何时发生。突破有可能会在21世纪的某些时候实现,但是我们并不能确定。本书的前几章讨论了取得突破的可能途径,并谈论了何时能够突破的问题。然而,本书的主要部分讨论的是智能爆发以后会发生什么。我们会研究智能大爆发的动力学,超级智能的形式和能量,以及具有决定性优势的超级智能体有哪些战略选择。然后,我们探讨的重点转向控制问题,并提出为了让我们生存并且获得有利的结果,我们如何选择初始数据的问题。在本书的结尾,我们将画面拉远,思考我们的研究所呈现的更大的图景。最后提出了一些建议,指出为了增加避免存在性灾难的概率,我们现在可以做些什么。 我希望本书可以开辟出一条道路,以使其他研究者能够更加快速和便捷地到达这个领域的前沿,从而以全新的视角加入这项研究,进一步扩展我们的认识。(如果我铺的这条道路有点崎岖不平,那么我希望评论家们在评判结果时,不要低估原来地势的险恶情况!) 这本书写起来并不容易。我努力使其读起来容易,但是我觉得可能并没有做到。写作时,我把早前时间切片(time-slice)里的自己当作目标读者,并尽量把书写成自己喜欢阅读的类型。虽然这可能会导致读者群较窄,但我还是认为书中的内容对很多人来说都是能够理解的,前提是他们对书中的内容进行一些思考,同时拒绝盲目地将任何一个新观点误解为他们文化中相似而陈旧的观点。非科技专业的读者不必因为书中偶尔出现的数学知识或专业术语感到气馁,因为往往可以通过上下文的解释看懂主要观点。 本书提出的很多观点可能是不恰当的,而有些非常重要的观点我可能也没有考虑到,从而削弱了我的某些或者所有结论的有效性。我已经尽可能地在全书中指明细微差别和不确定性—书中遍布着太多的“可能”、“或许”、“也许”、“也有可能”、“看起来”、“大概”、“非常可能”、“几乎肯定”这样的词。每个限定词的使用都是经过深思熟虑的。然而,这些字眼所体现出的认识方面的谦虚谨慎依然是不够的,还必须要补充对不确定性和易错性的整体说明。这不是虚伪的谦虚,因为虽然我相信我的书中可能有一些较严重的问题和误导性,但是我认为目前书中提到的其他观点更加糟糕,包括默认观点或者所谓的“零假设”,这些观点认为我们可以暂时安全地或合理地忽略超级智能出现的可能性。
第一章 人工智能:昨日成就与今日现状 首先,我们回顾过去。在最长的时间范围里,历史似乎呈现出一系列不同的增长模式,每个新模式都比前一个模式增长更快。根据这个规律推测,可能会出现另一种(甚至更快速的)增长模式。然而,我们并不特别强调这个观点,因为这并不是一本关于“科技加速”、“极速增长”,或者集合在“奇点”标题下的各种观点的书。然后,我们要回顾人工智能的历史,之后再探索目前人工智能的能力。最后,我们简要地介绍一些专家近期的观点和调查,并且思考一下我们对于未来发展之时间表的空白领域。 增长模式和宏大历史 仅在几百万年前,我们的祖先还在非洲森林中穿梭。以地质或进化的时间尺度来看,从与类人猿共同拥有的最后一代祖先向智人的进化是非常快速的。我们进化出直立的姿势和对生拇指,而最重要的是,我们的大脑体积和神经组织发生了相对微小的变化,但正是这些变化引起了人类认知能力的巨大进步。因此,人类可以进行抽象思维,交流复杂的思想,可以比地球上任何其他物种更好地积累和传承文化信息。 这些能力使人类创造出越来越高效的生产技术,从而使我们的祖先从热带雨林和草原向远方的迁徙成为可能。尤其是进行农耕之后,人口总数和人口密度都在增加。更多的人口意味着更多的想法;更大的人口密度则意味着想法更容易传播,并且更多的个体可以专注于发展专门的技能。这些发展提高了经济生产力和技术实力的增长率。后来与工业革命相关的发展则带来了第二次与此相当的增长率的剧增。 这些增长率的变化有着重要的影响。几十万年前,在早期人类(或原始人类)史前时代,增长非常缓慢,要使人类生产能力增长到能够维持另外100万人基本生存的水平,需要大约100万年的时间。到了公元前5000年,经过了农业革命,增长率已经提高到只需要两个世纪就能实现同样的增长。今天,经过了工业革命,世界经济平均每90分钟就能够增长相同的量。 即使是现在的增长率,如果持续一定时间,也会产生可观的结果。如果世界经济继续以过去50年的速度增长,那么到2050年,全球财富将是现在的约5.8倍,到2100年则是约35倍。 然而,当前这种依指数增长实现稳定繁荣的方式仍旧是不够的,如果世界再经历一次农业革命或工业革命那样的飞跃式增长,世界将会呈现出完全不同的面貌。经济学家罗宾·汉森通过研究历史上的经济和人口数据,推测出过去社会中经济呈倍数增长所要经历的时间:在洪积世狩猎采集社会下,经济增长翻倍需要224 000年,在农业社会需要909年,在工业社会则需要6.3年。(在汉森的模型中,当今时代是农业社会和工业社会发展模式的混合体,世界经济实现倍数增长的速度还不能达到6.3年这个平均时长。)但如果出现另外一种完全不同的经济增长模式,类似于农业革命和工业革命时期的飞跃式发展,那么世界经济便会以每两周的时间实现翻倍增长。 以当今形势看,要实现这种增长速度无异于痴人说梦。观察家们可能已经发 洪积世(Pleistocene),又译更新世,地质时代第4纪的早期。—译者注现,对于以往的历史时期而言,世界经济很难在某一段时期中实现好几次翻倍增长。然而,我们现在就要学着对这种不寻常的情况习以为常。 弗诺·文奇(VernorVinge)开创性的文章以及雷·库兹韦尔(Ray Kurzweil)等人的著述所揭示的那种即将到来的技术性奇点已经受到了广泛关注。然而,“奇点”这一术语在很多不同领域被混乱地使用,并催生出一种不合理的技术乌托邦氛围,就好像我们会就此迎来太平盛世了。考虑到“奇点”这个词所指的大部分涵义与本文的论述不甚相关,我们可以去掉这个词并代替以更精确的术语,以便阐述得更清晰。 我们更感兴趣的一个与“奇点”相关的术语是智能爆发,尤其是机器超级智能的前景。肯定会有人意识到图1–1所显示的增长模式是比农业革命和工业革命还要激烈的另一种可能的飞跃式增长模式。这些人也会意识到,要想让世界经济实现在仅仅数周内翻倍的增长速度,就需要创造出一种比人类的生物性思维更快、更有效的思维方式。但是我们很难通过分析经济增长曲线以及推断过往经济增长模式来认真严肃地了解机器智能变革的前景。我们将看到,更加强有力的理由会让我们认真考虑这一问题。 大预期 自20世纪40年代计算机被发明出来之后,机器就一直被寄予厚望,人们希望机器能够具备人的一般智能,更确切地说,就是机器要具备普通判断力和有效的学习、推理能力,并且要能够制订计划以应对复杂信息处理过程带来的挑战,这种挑战可能来自自然和抽象领域的各个方面。在计算机刚面世时,人们就期望能够在未来20年之内赋予计算机人工智能。但一年又一年过去了,实现让机器具备人工智能的日期却一拖再拖;以至于今天,关心人工智能的未来学家们依旧普遍认为智能机器的出现还需要20多年。 在谈到彻底变革所需要的时间时,预言家们总喜欢用20年这个时间跨度:这个时间跨度既抓眼球,又足够长,长到可以让一个目前看起来还是模糊想象的突破成为现实。为什么不是更短的时间跨度呢?因为大多数在未来5~10年内可能对世界产生重大影响的技术目前已经在小范围内被应用了,而全新的技术在不到15年之内就能让世界焕然一新,当然这也只是一个理论假设。另外,之所以喜欢说20年,还有可能是因为一个预言家的职业生命大概就是这么长,这样一来他在做出大胆假设时也不用承担名声受损的风险。 然而,即便一些人在过去对人工智能的预言不准确,这也并不意味着人工智能就是不可能或者永远无法实现的。那么,为什么人工智能的发展总是落后于预期呢?这主要是因为创造人工智能机器所遭遇的技术困难远远超过了先驱者们认为的程度。但这也只是说明我们遇到了多大的技术难题以及我们离解决这些难题还有多远。很多时候,一个最初看起来复杂得不可救药的难题往往在后来都会意外地被非常简单的手段所解决,当然,用复杂的手段解决难题更为常见。 在下一章,我们将会看到那些可能实现与人类相同智能的人工智能的具体路径。但我们在一开始就需要注意一点,那就是如果我们将实现人工智能视为一辆火车所要到达的站台,那么不管我们现在与将要到达的站台之间有多少临时停靠站,实现与人类智能相同的机器智能也并不是终点站。顺着这条道路再往前走,下一个站台就是机器智能超越人类智能。这列火车不会在达到人类智能水平这一站就停滞不前或者减速行驶,它很有可能会飞速而过。 第二次世界大战时期,阿兰·图灵密码破译小组的首席统计师兼数学家I. J. 古德大概是清晰阐述人工智能未来图景的第一人。在那段写于1965年、后来被经常引用的名言中,他这样写道: 我们把超智能机器定义为具备超越所有聪慧人类智能活动的机器。考虑到设计机器是智能活动的一部分,那么超智能机器甚至能够设计出更好的机器。毫无疑问,肯定会出现诸如“智能爆发”这样的局面,人类智能会被远远地甩在后面。因此,第一台超智能机器将是人类创造的最后一台机器,当然前提条件是这台机器足够听话并告诉我们要怎样才能控制它。 目前存在的显著风险便与这个智能爆发相关,我们必须以最严肃的态度审视这一风险,即使我们知道(实际上我们并不知道)出现这一风险的可能性非常小。但是尽管人工智能的先驱者们相信与人类智能水平相当的人工智能所存在的危害,大多数人也并不认为人工智能会有超越人类智能的可能。他们脑海里存在着这样的固有观念,即就算是机器能够达到人类的智能水平,也不能因此就推断出机器最终会发展成超越人类智能的超智能机器。 人工智能的先驱者们大多数时候都不认为他们的事业可能会存在风险。至于创造人工智能以及具备人工智能的计算机霸主是否会存在任何安全隐患或者伦理风险,先驱者们才不会在这些问题上面多费唇舌,更别说去严肃思考了。即便是在当今这个不怎么批判技术使用过程中所存风险的社会背景下,这种缺失也让人备感诧异。我们当然希望这些先驱者们的事业最终能够成功,但我们要的不仅仅是娴熟的技术以引燃智能爆炸,我们还要能在更高水平上掌握控制权,以免我们在爆炸中身首异处。 而在瞻望未来之前,对于机器智能历史的飞速一瞥对我们而言还是颇有助益的。 希望与绝望并存 1956年夏天,10名研究神经网络、自动化理论以及智能的科学家们在达特茅斯学院组成了一个为期6周的工作组。这个达特茅斯夏季项目经常被认为是人工智能研究的第一缕曙光。大多数参与者后来都成了这一领域的开创性人物。项目组成员的乐观预期在给项目资助方洛克菲勒基金会提交的一份报告书中展现得淋漓尽致: 现报告我们10人团队经过两个月针对人工智能的研究成果……这项研究建立在这样一个设想的基础上,即智能所能实现的学习或者任何其他方面的特征在理论上都能够被机器精确地模拟出来。该研究尝试去发现机器是如何使用语言、形成抽象思维与概念、解决人类所面临的问题以及学会自我改良的。我们认为由这些精心遴选出来的科学家们组成的团队在经过一个夏天的研究后,能够在其中一个或者几个问题上实现突破性进展。 距离这一大胆的开创性研究已经过去了60年,人工智能在这60年中跌宕起伏,既经历过大肆宣传、野心勃勃的高潮期,也遭遇过挫折满满、令人失望的低潮期。 达特茅斯会议激发了人工智能的第一次研究热潮,该项目的主要组织者约翰·麦卡锡说这一时期是一个“看,我能办到!”的时代。在这一人工智能发展的早期时代,研究者们建立起各种系统以批驳那些认为“机器不能做‘某事’”的怀疑论。这类怀疑论在当时非常流行。为了对抗这种怀疑论,人工智能研究者们在某些微观领域创造了小型系统去实现具体的“某事”,以便证明机器是能够做“某事”的。这些微观领域往往被完全限制在某个非常具体的范围内,使得演示简单的机器性能成为可能。比是早期的逻辑思想家的这类系统便可以证明怀特海和罗素那本《数学原理》(Principia Mathematica)第二章中的大多数定理,而逻辑思想家的证明过程甚至比原来的证明更加简洁,这驳斥了那种认为机器“只会数数”的想法并显示出机器也能够进行推理和逻辑证明。在这之后又出现了通用问题解算程序,这种程序在原理上能够解决很大范围内的专业问题:既有能够解决大学一年级课本里微积分问题的程序,也有能应用于某些智商测验中解决图像类比问题的程序,还有能写出简单代数语言的程序。Shakey(意思为摇摆)机器人的出现显示出逻辑推理能够与知觉结合在一起,并可以应用于设置和控制肢体动作,其之所以被叫作shakey,是因为这种机器人在演示时总是不停抖动。ELIZA程序则展示了一台计算机是如何模仿罗杰斯这类心理治疗师的。在20世纪70年代中期,SHRDLU系统演示了一只模仿人类的机器人手臂是如何在摆放着几何物体的世界中,遵循使用者用英文打出的指令行事并且回答其输入的问题的。在之后的10年中,相继出现了各式各样的系统程序:能够以多个古典音乐作曲家的风格创作曲子的系统,在特定的临床诊断中表现得比初级医师还要好的系统,能够自动驾驶汽车的系统,以及能够发明专利的系统。有的系统甚至还会说笑话。 但在早期的演示系统中取得成功的这种方式却被证明很难向更广泛的领域延伸,也很难解决更难的问题。原因之一在于常用的穷举法很难解决可能的“组合爆炸”的问题。穷举法可以解决简单问题,但是只要问题变得稍微复杂一些,这种方法就没有用了。例如要证明一个有5步推理、一个推理规则以及5条公理的定律,便可以简单列举出3 125种可能的组合方式,然后挨个试验并寻找那个能够推出预期结果的组合。穷举法也可以运算6步或者7步的推理。但是随着任务变得越来越复杂,这种穷举法便很快遇到了瓶颈。要证明一个有50步推理的定律,工作量可并不是证明5步推理定律工作量的10倍,如果用穷举法的话,就可能需要550≈8.9×1034种可能的组合,即使是对于最快速的超级计算机来说,这也是不可能实现的计算。 要克服“组合爆炸”带来的问题,就需要有能够开发目标领域结构的算法,并且要能通过启发式搜索、计划以及灵活的抽象信息处理方式有效利用已有知识,而这些都是早期人工智能系统所欠缺的地方。其早期系统性能还有一个缺陷,就是过多依赖脆弱且无根据的符号化的表达方式,再加上数据稀缺以及硬盘条件严重限制了计算机的存储容量和加工速度,这些都使早期系统没有很好的方法来控制不确定性。到了20世纪70年代中期,这些问题变得越发突出。在意识到多数人工智能项目无法成功实现我们最初的设想后,人工智能的研究迎来了第一个寒冬:项目被砍,资金缩水,怀疑论甚嚣尘上,人工智能备受冷落。 20世纪80年代早期,人工智能迎来了春天。当时日本发起了第5代计算机系统工程,并专门为该工程建立起良好的公私合作伙伴关系,以确保充足的项目资金。该工程的主要目的在于超越当时的技术发展水平,通过发展大规模并行计算结构为人工智能的实现搭建平台。该工程与日本的“战后经济奇迹”一起受到关注,这一时期,西方国家政府以及商业精英们焦急地寻找能够揭示日本经济成功的规律,以期在其国内复制日本的这种繁荣。当日本决定在人工智能领域大手笔投入时,其他国家都紧随其后。 接下来的几年见证了专家系统的繁荣。专家系统的设计理念是为决策者提供支持工具,该系统是一些基于从一系列由实际知识构建的知识库中得到简单推论的程序,而这些实际知识则是由某一领域的人类专家们提供并被精心编成以代码表达的形式语言。当时有大约几百个类似的专家系统被建立起来。然而专家系统也同样存在着缺陷:小规模系统没什么太大价值,大规模系统则需要在开发、确认和数据更新上耗费大量成本,在运用时往往也会非常麻烦。为了运行一个单一程序,就设置一台独立计算机,这不太现实。所以到了20世纪80年代末期,人工智能的这一繁荣时期也变得黯淡起来。 第5代计算机系统工程并没能实现它的目标,而在美国和欧洲开展的类似项目也面临着同样的尴尬局面。第二次人工智能寒潮不期而至。这时,批评家的悲叹甚嚣尘上:“人工智能研究发展到今天,呈现出来的状态往往是在特定领域取得了极其有限的成功之后,便立刻会在实现更宏大目标的过程中遭遇挫折,而这种挫折往往都是被早期的成功所揭示的。”私人投资者们开始回避任何与人工智能相关的风险。甚至对于学术界人士以及学术资助人来说,“人工智能”一词都让人感到厌烦。 但技术依旧飞快地向前发展,到了20世纪90年代,第二次人工智能寒冬的冰雪开始消融。乐观主义者重燃激情,因为新技术似乎提供了一种有别于传统逻辑范式(经常被称为GOFAI,意为“出色的老式人工智能”)的替代路径,它聚焦于高水平符号处理,并且被20世纪80年代的专家系统发挥到了极致。神经网络和遗传算法等新流行的技术有望在某种程度上克服GOFAI路径的缺陷,尤其有可能会在传统人工智能路径的脆弱性上实现突破。这种脆弱性的主要体现是,只要系统存在一个微小的错误假设,整个结果便会变得毫无意义。让新技术引以为傲的是,它具备了更多的生物有机体属性。以神经网络为例,它具备了“故障弱化”的特性:神经网络的微小损坏通常只会导致整体性能的微小弱化而不会造成系统完全崩溃。更重要的是,神经网络能够从经验中学习,也可以从样本中找到最自然的概括路径以及所输入数据隐含的统计规律。这使得神经网络能够有效解决模式识别和归类的问题。比如,经过声呐信号训练的神经网络能够学会分辨潜水艇、水雷、海洋生物等不同的声音特征,比人类专家还要精确。而神经网络在实现识别不同的声音特征前,也不需要人类事先对声音类别进行定义,或者事先总结出这些声音的不同特点。 简单的神经网络模型自20世纪50年代后期开始被人们熟知,在引入能够训练多层神经网络的反向传播算法之后,人工智能领域又迎来了一阵复苏。多层神经网络在输入层和输出层之间有一个或多个神经元隐含层,能够比之前的简单系统具备更强大的功能。辅之以日益强大的计算机,工程师们便可以用改进的算法建立起能够被很好地应用到许多领域中的神经系统网络。 基于传统算法规则的GOFAI系统虽然逻辑严密,但是性能很差,而神经网络具备类似于人类大脑的特质,比之前的GOFAI系统要好出许多。神经网络还催生出了新的“机制”论,即所谓的“连接机制”,这种连接机制聚焦于大规模平行的精粒度亚符号数据处理的重要性。自那时起,以人工神经系统为主题的学术文献已超过150 000篇,并且人工神经系统目前依旧是机器学习的重要路径。 以进化为基础的算法,比如遗传算法和遗传编程,构建了另一条引领人们走出第二次人工智能寒冬的新路径。这类方法在学术领域产生的影响或许并没有神经网络系统那么大,却受到了广泛的欢迎。进化模型能够维系一个备选方案群(方案群本身可以通过数据结构和程序来实现),并通过改变或重组现有方案群中的变量来生成新的备选群。通过应用选择标准(适应度函数)可以让备选群周期性地减少,并且只让其中那些更好的方案群进入下一代。经过数千代重复之后,备选方案池中解决方案的平均素质就会慢慢提高。这种算法能够在运行中生成有效的解决方案来解决范围很广的问题,而这类解决方案可能是完全让人耳目一新且非直观的,比任何一个人类工程师设计出来的东西都更像自然结构。从原理上讲,这个过程可以在不太需要人工初始输入具体而简单的适应度函数的情况下发生。但在实际操作中,要让进化方法得以顺利运行,还是需要一定的技巧和独特设计的,特别是要能设计出一个优秀的表达形式。如果不能对可能的解决方案进行有效编码(也就是将其转换成一种基因语言以匹配目标领域的潜在结构),关于进化的研究道路就会变得蜿蜒曲折且没有尽头,它会迷失在一个宏大的研究空间中或者卡在某个局部环节上停滞不前。不过即便是有了好的表达格式,进化算法也需要极大的计算量,并且常常会被“组合爆炸”击垮。 20世纪90年代,神经网络和遗传算法等研究方法激起了人们广泛的兴趣,为GOFAI范式提供了可替代的路径。但本文在此并不是要为这两个方法唱赞歌,也不是要拔高这类方法在机器学习技术领域中的地位。实际上,过去20年间一个主要的理论进展便是人们更清醒地意识到,目前表面上完全不同的各类技术,是可以被理解为存在于一个共同数学框架中的特殊案例的。举个例子,许多类型的人工神经网络系统都可以被视为对特定类别统计计算的展示(是一种最大似然估计)。这其实是将神经系统视为从实例中学习分类的更大一类算法中的一种,比如:决策树、逻辑回归模型、支持向量机、朴素贝叶斯、KNN算法等。在一定程度上,遗传算法可以被视为一种随机爬山法的演示,是寻找最优化算法大类中的一种。每一类这种算法在建立分类和寻找解决空间上都有自己的优缺点,而这些优缺点都是能够借助计算揭示出来的。不同的算法对处理时间和存储空间的要求都有所不同,从而带来了两个问题:一个问题是算法的预先假设存在归纳偏置,不过这个问题可以通过纳入外部内容来得到缓解;另一个问题就是,如何把算法的内在运行机制向人类分析家们解释清楚。 在机器学习以及创造性的问题解决模式之喧嚣炫目的背后,是一系列特定的计算权衡。理想的状态是实现完美的贝叶斯代理程序(Bayesian agent),即在可获得的信息中寻找出概率最优。当然,这种理想状态是无法实现的,因为没有一台物理计算机能支持它所需要的宏大计算量(延伸阅读1)。但我们仍旧能够将人工智能视为寻找捷径的一种探索:借助人工智能手段,我们可以通过在将其引入特定现实领域并维持其性能的同时牺牲一些最优解或者普遍性,进而逐步靠近贝叶斯理想状态。 回顾一下我们在过去的20多年间,在像是贝叶斯网络这类概率模型的发展中取得了什么样的成果。贝叶斯网络提供了一个在特定领域中表达的概率以及独立条件之间关系的简洁方法。(探索这种关系对于我们克服“组合爆炸”带来的困难至关重要,因为“组合爆炸”本身从逻辑上看就是概率推理中遇到的一个问题。)贝叶斯网络还有助于我们更深刻地理解因果概念。 将特定领域的学习问题与贝叶斯推理中的普遍问题联系在一起的一个好处是,新的运算法则能够让贝叶斯推理变得更加有效,进而能够使许多不同领域实现快速进步。举例来说,蒙特卡洛法就直接被应用到计算机视觉、机器人技术以及基因计算上。它的另一个好处则是能够让不同学科的研究者更容易地汇集他们的研究成果。图表模型和贝叶斯统计学在许多领域都得到了关注,包括机器学习、统计物理学、生物信息学、组合优化以及交流理论。而在机器学习领域,相当多的近期成果都来源于对其他学术领域原创成果的吸收。(机器学习应用在很大程度上就受益于更快的计算机以及更大的数据库。) 延伸阅读1.一个理想的贝叶斯代理程序 一个理想的贝叶斯代理程序最初都会设定“先验概率分布”(Prior Probability Distribution),即先把概率赋给各个“可能世界”。但这种先验概率存在着归纳偏置,即认为越是简单的可能世界,越具备较高的概率。[我们可以将可能世界的简单性问题用一个正式的术语来进行描述,即“柯尔莫哥洛夫复杂性”(Kolmogorov complexity),也就是完整描述一个世界所需要的计算机程序的最短长度。]先验概率还包含了编程者希望赋予程序的所有背景知识。 当代理程序借助传感器接收到新的信息后,它会遵循贝叶斯法则对新信息的分布进行条件化,从而更新已有的概率分布。条件化是一种数学运算,如果先验概率与新的概率不一致,那么数学运算就会对原有的可能世界中的概率进行重新设置。运算的结果就是“后验概率分布”(Posterior Probability Distribution),当然在下一轮运算开始前,这种后验概率又会被视为先验概率。代理程序能够通过观察实现概率聚合,将概率集中在几个不断缩小的与证据相匹配的可能世界中,而在这几个领域中,越简单的那些便有着越高的概率。 打个比方,我们可以把概率视为一大张纸上面的沙子。我们在这张纸上画出大小不同的区域,每一个区域都对应一个可能世界,范围越大的区域对应越简单的可能世界。再想象一下铺在整张纸上的沙子厚度相同:这就是我们的先验概率分布。每当观察者划掉一个区域时,我们就把该区域内的沙子拿走,然后平均铺到其他剩余区域内。整张纸上的沙子总量并没有发生变化,只是随着观察证据的积累,沙子越来越集中到几个较少的区域内。这就是贝叶斯学习的最单纯的模式。(要想计算出一个假设的概率,我们只需要测量出纸上已有领域中的沙子的数量就可以了,这与该假设在其中成立的可能世界相应。) 至此,我们已经定义了一个学习规则。对于代理程序而言,我们还需要一个决策规则。为了实现这一目的,我们给代理程序赋予一个效用函数,即给每个可能世界分配一个数字。具体数字代表着根据代理程序基本偏好设定的可能世界中的渴望度。现在,代理程序在每一步运行中都会选择有着最高期望效用的操作。(要寻找出最高期望效用的操作,代理程序可以先把所有可能的操作都罗列出来,然后计算出特定操作的条件概率分布,这种概率分布是通过观察刚结束的操作结果来不断调整当前的概率分布的。最终,代理程序能够计算出操作的期望值,这个期望值是每个可能世界与被赋予操作程序之可能世界的条件化概率的乘积之和。) 学习规则和决策规则一起构成了代理程序的最优概念。最优概念已经被广泛应用到人工智能、认识论、科学哲学、经济学以及统计学上。但从现实层面上看,因为所需要执行的运算是难以实现的,因而很难设置这样的代理程序。所有的尝试都死在“组合爆炸”这个问题上,我们之前讨论的GOFAI便是如此。为什么会这样?只消考虑一下所有可能世界的任何一个微小子集即可:那些构成一个计算机显示器的子集都陷入无止境的真空状态。一个显示器有1000×1000个像素,每一个像素的状态都有开和关两种。即使是这种可能世界的子集,数量仍旧是巨大的: 21000×1000种可能的显示状态,这个计算量比观察宇宙所需的计算量都大。我们连可能世界的子集都无法列举出来,更别说要去计算那些更精巧的独立世界了。 虽然在物理上难以实现,最优概念依旧在理论上备受关注。这个概念给我们提供了一种标准,使我们能够判断启发式的近似算法,也让我们可以在有些时候推理出特定条件下的最优代理程序会做些什么。我们会在第12章谈到一些人工代理程序的最优概念的替代路径。 技术发展水平 人工智能已经能够在很多领域超越人类智能。表1–1列举了计算机玩游戏的现状,显示出人工智能能够在范围很广的游戏领域超越人类。 这些成就在今天看来,可能不见得有多么让人印象深刻,但这主要是因为让我们感到吃惊的点随着技术发展而不断升高所致。举例来说,专业国际象棋比赛曾被认为是人类智能活动的集中体现。20世纪50年代后期的一些专家认为:“如果能造出成功的下棋机器,那么就一定能够找到人类智能的本质所在。”但现在,我们却不这么认为了。约翰·麦肯锡曾不无惋惜地悲叹:“这种机器被造出来之后,人们就不称其为人工智能了。” 表1–1 玩游戏的人工智能 西洋跳棋 超越人类 1952年,阿瑟·塞缪尔写过一个跳棋程序,并在1955年吸收了机器学习技术,从而改良了该程序。这是第一个玩起游戏来比程序编写者都玩得好的程序。1994年,跳棋程序“奇努克”(CHINOOK)打败了人类卫冕冠军,这是机器程序第一次在竞技游戏中赢得官方世界冠军。2002年,乔纳森·谢弗和他的小组“解决号”跳棋程序总是计算出最好的棋步(谢弗的跳棋程序能够用α–β搜索在39万亿棋步中展开搜索),最终打了个平局。
西洋双陆棋 超越人类 1979年,汉斯·波尔莱纳的BKG西洋双陆棋程序打败了当时的世界冠军,这是计算机程序第一次在公开比赛中击败世界冠军,尽管波尔莱纳后来将这次成功归结为运气好。1992年,格里·泰绍罗的TD–Gammon西洋双陆棋程序已经达到冠军级别的水平,该程序采用了即时差分学习算法(一种强化学习模式),使得程序本身能够在下棋中不断进行自我改良。从那一年之后,西洋双陆棋程序就远远超越了最好的人类棋手。
海战游戏(TravellerTCS) 在与人类的合作中超越人类 Traveller TCS是一款未来海战游戏,在1981年和1982年,道格拉斯·莱纳特的Eurisko程序在游戏中击败了美国冠军,并导致游戏规则被修改,以限制该程序的非常规策略。Eurisko能够用启发式算法设计自己的舰队,还能不断优化自己的启发式算法。
黑白棋 超越人类 1997年,Logistello程序跟当时的世界冠军村上健的对战结果是6盘6胜。
国际象棋 超越人类 1997年,“深蓝”计算机打败了当时的国际象棋世界冠军加里·卡斯帕罗夫。卡斯帕罗夫承认见识到了人工智能在某些棋步上具备真正的智能以及创造力。从那时起,国际象棋程序就一直不断进步。
纵横字谜 专家级别 1999年,纵横字谜解决程序Proverb达到了纵横字谜玩家的平均水平。2012年马修·金斯伯格的Dr.Fill程序在美国纵横字谜锦标赛中与人类参赛者竞赛时挤入最强者行列。但该程序的表现不稳定。它能够完美地解出对人类而言最难的字谜,却会被非常规的字谜卡住,尤其是在遇到倒拼或者斜拼的时候。
Scrabble拼字游戏 超越人类 2002年,Scrabble拼字游戏软件就已经超越了最好的人类选手。
桥牌 高手水平 2005年,定约桥牌软件就已经能够同最好的桥牌高手对弈。
《危险边缘》益智问答 超越人类 2010年,IBM的“沃森”超级计算机在《危险边缘》游戏中击败了肯·詹宁斯和布莱德·拉特这两名擂主冠军。《危险边缘》是以提问有关历史、文学、运动、地理、流行音乐、流行文化、科学以及其他领域的细节问题而著称的电视益智节目。《危险边缘》游戏的题目一般都需要通过拆字谜的方式来发现线索。
扑克 发挥不稳 电脑玩家在玩得州扑克时还没能超越人类玩家,但是在一些类似的扑克游戏中却超越了人类水平。
空当接龙 超越人类 采用了遗传算法的启发法能够为空当接龙游戏提供解决方案(以NP完全问题的普通形式),并可以超越最好的玩家。
围棋 很高的业余水平 2012年,Zen系列围棋程序能够达到6段水平(很高的业余棋手水平),这个程序主要运用了蒙特卡洛树搜索法和机器学习技术。围棋程序此后以每年提升一段的速度向前发展。照这个速度看,围棋程序在未来10年内很可能会击败人类世界冠军。
但在这要特别注意一点,在国际象棋领域,人工智能并没有像人们预想的那样取得胜利。曾经有这样一种可能不太合理的设想,即要想让计算机在下国际象棋时具备大师级的水平,就必须得赋予其高水平的一般智能。人们以前总以为要下好国际象棋,就要理解抽象概念、精通谋略、灵活组合棋步、广泛地使用逻辑推演,甚至要能猜透对手在想什么。但事实并非如此。结果证明,建立在特定目的算法基础上的机器就能够把国际象棋玩得很好。20世纪末有了快速中央处理器时,计算机就能够把国际象棋玩得出神入化了。但是这种人工智能也有个缺陷,就是它只能玩国际象棋,而做不了其他事。 在其他领域中,解决方案被证明比最初设想的还要复杂,而且所能实现的进步也更加缓慢。计算机科学家唐纳德·克努特这样打击着人们的激情,他说道:“目前,人工智能在所有需要‘思考’的领域中成功了,但是却在人和动物‘不思考’的领域中失败了,‘不思考’比‘思考’在某种程度上要更难!”分析视觉景象、识别物体或者控制机器人行为以使它能够与自然环境产生交互作用,都颇具挑战性。尽管如此,还是有很多致力于解决此类问题的程序被持续不断地创造出来,与此同时,硬件方面也实现了稳步发展。 普通常识和自然语言理解也被认为是非常困难的。人们常常认为,要让机器在这些任务上实现完整意义上的人类水平属于“完全人工智能”领域,其意味着解决这类问题的难度等同于制造一个具备普通人类能力的智能机器的难度。换句话来说,如果有人能够成功创造一个具备成人理解力的人工智能机器,那么势必也就能够创造出完成人类所能完成的所有事情的人工智能机器,后面这一步即使不能当下实现,也必定近在眼前。 国际象棋专业级的下棋水平最终被证明能够通过一个颇让人意外的简单算法来实现,这使得人们思索是不是可以用一些简单算法来实现机器的其他能力,比如普通推理能力或一些涉及编程的关键能力等。事实上,过去要实现良好性能需要有一套复杂的程序机制,但这并不意味着简单的程序机制就做不到这一点—它还有可能会做得更好。之所以没有出现可替代的简单程序,可能只是因为它尚未被人发现。托勒密体系曾宣称地球是宇宙中心,日月星辰均绕其运转。这个体系在超过1 000年的时间里代表着天文学水平,在几个世纪的发展完善中,为了取得更精确的预测度,它的模型变得越来越复杂:不断地在原有的解释天体运转基本假设的基础上增添一层层的条件,直到整个体系被哥白尼那个更为简单的日心说所颠覆,而日心说在开普勒的进一步完善之后,使预测变得更加精准。 人工智能方法现已被应用到非常广泛的领域中,在此没有必要一一赘述,但是简要列举几个典型的例子会有助于我们理解人工智能的应用广度。除了我们在表1–1中所列举的游戏领域,人工智能还被应用到许多具体领域中:能在嘈杂环境中听清呼救声的程序;能够给驾驶员提供地图展示和导航建议的路线查找系统;能够根据用户前次购买和浏览收听记录给用户推荐书籍唱片的意见参考程序;能够帮助医生诊断乳腺肿瘤、提供治疗计划、帮助解释心电图的医学决策支持系统等。除此之外,还有各式各样的机器人:机器人宠物、清洁机器人、修草坪机器人、急救机器人、外科手术机器人以及数以百万计的工业机器人。目前世界上的机器人数量已经超过了1 000万。 基于诸如马尔可夫模型统计技术之上的现代语音识别技术已被有效地应用到现实中,我们就曾用语音识别系统摘录本书的部分章节。像是苹果Siri这类个人数字助理系统已能够接受语音指令、回答简单问题并执行命令了。而能够识别手写或者机打文本的光学字符识别系统现在也已经被广泛地应用到邮件分拣以及老旧文献的数字化处理中。 机器翻译虽然并不完美,但已经能很好地应用到许多方面。早期系统要应用GOFAI手编语法,它需要技术性较强的语言学家对每种语言从头编写,而新的系统则能够运用统计性的机器学习技术通过观察已有模式来自动建立统计模型。机器通过分析两种语言的语料库来推断出这些模型的参量。这种方法让语言学家没有了用武之地:编程者甚至不用理解他们所处理的语种就能够搭建起识别系统。 人脸识别系统在近几年已经发展得非常完备了,现在已经被应用到欧洲和澳大利亚的自动出入境系统上。美国国务院实施了一个用于签证的人脸识别系统,其中包含了超过7 500万张的照片。影视监管系统越来越多地使用复杂精妙的人工智能以及数据挖掘技术来分析声音、视频或者文本以审查全世界的电子传媒并积累在强大的数据库中。 定理证明系统和解方程系统也已经发展得如此完备,以至于很难被归到人工智能领域。在解方程方面发展出了Mathematica这类科学计算程序;而包含自动定理证明的形式证明方法也已经被芯片制造商们广为使用,以在生产之前检测所设计的电路是否能够运转良好。 美国的军事情报部门在大规模应用炸弹排查机器人、监视攻击两用无人机以及其他无人驾驶机器上一直遥遥领先。
你还可能感兴趣
我要评论
|