如果有一天我能明白哥德尔的思想,我会很开心。
1. 人工智能和认知科学发展简况
任何自然科学研究都没有比人类彻底认识自己、了解自己、找出解决自身面临的问题更为迫切。在人类最为关注的四大自然科学领域——物质的结构、宇宙的起源、生命的本质和智能的产生中,“智能是如何产生的?”是最具有挑战性也是最为困难的课题。“认知科学” 就是为了研究人类的认知和智能的本质与规律的科学,而且是极其丰富的、融数学、物理学、计算机科学、心理学、神经科学、语言学、人类学和哲学的一个高度跨学科的新兴科学。
认知科学研究主要有三条进路:生理学进路,主要是仿真模拟人类的认知活动;心理学进路,探索认知的心理学规律;工程技术进路,如智能机器人的研究等。作为一门独立的学科,认知科学的现代研究应从人工智能的兴起开始。
1956年夏,在美国达特茅斯大学,一个由10位科学家组成的研究小组举行了为期2个月之久的学术会议,探讨如何用计算机在数学、物理学、神经学、心理学和电子工程学等方面模拟人的智能行为。参加会议的有达特茅斯大学的副教授麦卡锡(J.McCarthy)和从事数学与神经学研究的明斯基(M.L.Minsky)、信息论专家香农()等人,会议第一次正式采用“人工智能”的术语,标志着人工智能研究的开始,也是认知科学现代研究的开端。此后,一些以认知科学的名义以及与认知科学密切相关的杂志相继创刊,1979年美国的认知科学学会正式宣告成立,建立了这一高度跨学科领域学术交流的重要通道。近年来,美国大多数名牌大学,包括哈佛大学、斯坦福大学、麻省理工学院、加州大学的各个分校、纽约州立大学各分校等,都相继建立了认知科学研究中心或研究所。1986年开始,认知科学的发源地加州大学圣地亚哥分校率先开始设立认知科学博士学位(Ph.D in Cognitive Science),加州大学圣地亚哥分校、麻省理工学院等著名学府先后正式成立了世界上第一批认知科学系,同时这一领域汇集了一大批数学家、物理学家、理论计算机科学家、心理学家、神经科学家、语言学家和哲学家,形成了一个独立的认知科学研究群体,标明认知科学已经成为一门独立学科了。
从此以后,人工智能的研究分别沿着三个方向深入:
(1)机器思维方向,包括机器证明、机器博弈、机器学习等启发程序的研究;化学分析、医疗诊断、地质勘探等专家系统及知识工程的问世。(2)机器感知方向,包括机器视觉、机器听觉等文字、图象识别、自动语言理解的理论、方法和技术;感知机和人工神经网络的研究。(3)机器行为方向,包括具有自学习、自适应、自组织特性的智能控制系统、控制论动物(能够模拟动物的某些智能行为特性的自动控制机器动物模型)和智能机器人的研究开发。
从哲学角度考察,在认知科学将近半个世纪的历史上,其研究范式经历了几次变迁。
2. 算法概念和认知可计算主义研究纲领
以往,人类对智能的研究多半是一种哲学思辩式的争论,或者是依赖于直觉的猜想,停留于过分经验式的观察结论,直到认知科学的兴起发展起了一套基本的科学概念和科学方法,才使人类对智能的产生和认知的本质建立在现代科学的基础之上。认知科学建立在现代科学基础之上的一个标志是强调了 “计算”(computation)概念对于认知科学的重要性。正如有些学者所言,“计算”概念对于认知科学犹如“能量”、“质量”概念对之于物理学,“蛋白质”、“基因”概念对之于生物学一样重要。但是对于直观的“能行可计算”观念的数学刻画是1936年的图灵机概念。
如所知, 1934-1936年间,丘奇、克林尼和哥德尔等人在普林斯顿对于直观的可计算性概念进行了一系列讨论,并用 l 可定义性、一般递归函数等作了数学刻划,最终丘奇提出了他的标准形式的丘奇论题:
一切能行可计算函数都是递归函数。
丘奇也因此成为理论计算机的基础理论——递归函数论领域的先驱者之一。
另一方面,英国的图灵在完全不知晓普林斯顿数学家研究工作的情况下,独立思考可计算性问题,并以图灵机概念刻划了能行可计算性,即“能行可计算的就是图灵机可实现的”。它可表达为如下“图灵论题”:
“每个算法可在一台图灵机上程序化。”
正当图灵准备寄出自己的论文时,得知了普林斯顿方面在 l 可定义性和一般递归函数方面的工作,于是他特别在文章后面加了一个附注,给出了图灵机可计算与 l 可定义性概念之间的等价证明。
可以说,1931年哥德尔证明不完全性定理时,形式系统的概念基本上还是不清楚的,正是1936年有了图灵机概念,人们才认识到,形式系统不过是一个产生定理的机械程序,形式系统概念就是要把推理全部转换成施加于公式之上的“机械运算”,这里的“机械运算”就是图灵机概念准确刻划的“算法”的意义,或者说,形式系统不过是一台准许在某些步骤上按照预定范围作出选择的多值图灵机 。
正是在算法概念的基础上,以它为核心产生了一系列诸如“可计算性”、“计算复杂性”、“并行处理和串行处理”等理论计算机科学的概念和理论,对认知科学研究起到了重大推动作用。
更重要的是,正是基于算法概念,认知科学的创立者明斯基和西蒙首先提出了迄今在西方学界仍然占据统治地位的“认知可计算主义”的研究纲领,概括起来“认知可计算主义” 就是主张“认知的本质就是计算”。
无论人脑和计算机在硬件和软件层次上可能有多大不同,但是在计算理论层次上,它们都具有产生、操作和处理抽象符号的能力;作为信息处理系统,描述认知和智能活动的基本单元是符号,无论是人脑还是计算机都被看作是操作、处理离散符号的形式系统。而这种离散符号的操作过程就是图灵意义上的“计算”,认知和智能的任何状态都不外是图灵机的一种状态;认知和智能的任何活动都是算法可计算的。这就意味着承认,人类的一切认知活动都可以用计算机模拟,自然也被某些强人工智能的支持者看作可以由此推论出,总有一天,电脑将能做人所能做的一切,甚至有一天,电脑会超过人脑,从而统治人类。
“认知可计算主义”纲领的提出,无疑使对人类认知的研究从前科学进入到了常规科学的研究阶段,正如西蒙1988年在回顾认知科学发展的历史时所说的:“在把计算机看作通用符号处理系统之前,我们几乎没有任何科学的概念和方法研究认知和智能的本质”。这种“认知可计算主义”研究纲领一经提出,立即成为人工智能、认知心理学和数理语言学的指导思想,并且大大推进了人工智能领域的进展。
在“认知可计算主义”纲领指导下,人工智能领域普遍倡导一种符号主义研究范式,即主张思维的基本单元是离散的符号,智能的核心是知识以及利用知识推理进行问题求解,智能活动的基础是物理符号运算,人脑、电脑同样都是物理符号系统,人的智能完全可以通过建基于符号逻辑的智能理论体系来模拟。
可以不夸张地讲,近20年来无论是纽厄尔(Newell)和西蒙的通用问题解决器,还是日本的第五代计算机;无论是奎利恩(Qullian)的语义网络的命题式的知识表征,还是科斯林(Kosslyn)关于意象的模拟式的知识表征;也无论是马尔的视觉计算理论体系,还是特瑞斯曼(Treisman)关于注意的整合理论,这一系列对认知的本质和人工智能具有强大推动作用的成就都是在“认知可计算主义”纲领的支配下取得的。例如,尽管日本的第五代计算机在技术上极其先进,内部构造相当复杂,但其内在指导思想仍是“认知可计算主义”,也就是基于如下一种认识,只要通过高度并行的方法来提高离散符号的处理速度,就能达到模拟人的智能的目的。
3. 亚符号神经计算:“联结主义”研究范式
80年代以后,认知科学发生了一场“人工神经网络革命”,认知科学的“联结主义”研究范式取代了符号主义范式而诞生。
联结主义是基于对人类认知基础的机制的另一种理解,认为一切人类认知活动完全可归结为大脑神经元的活动。
最早的人工神经网络概念可追溯到1943年。这一年,美国科学家麦卡洛克(W.S.McCulloch)首先研制出第一个称为“NP模型”的人工神经细胞模型,开创了人工神经网络的研究。50年代末到60年代初,人工神经细胞模型与计算机结合研制出了简单感知机。这种简单感知机具有感受神经网络的输入层;中枢神经网络的联系层和效应神经网络的输出层三层结构,通过示教学习和样本训练,采用对刺激-反应奖惩的方式,具有简单的文字识别、图象识别和声音识别的功能。但是由于简单感知机对于复杂图象的感知能力较低,无法识别线性不可分的模式,70年代感知机与神经网络的研究陷入低谷。
1982年赫普菲尔德(J.Hopfield)提出一种新的全互联型“赫普菲尔德人工神经网络”,成功地求解了计算复杂度为NP型的“旅行商”问题,这一突破性进展使神经网络研究开始复苏。1983年欣顿(J.Hinton)和谢诺夫斯基(T.Sejnowski)研制出可以求解非线性动力学系统优化问题的神经网络模型。1986年鲁姆哈特(D.Rumelhart)和麦卡兰德(J.McClelland)发表了基于人工神经网络的并行分布式处理研究成果,提出关于认知过程的“微结构”理论。1986、1987年又相继研制出可用于求解非线性感知和复杂模式识别的多层感知机,以及具有良好自适应特性的自适应神经网络。
在神经网络中,联结主义结构的基本构成部分就是像大脑神经元那样的简单单元,它们在任何特定的时候都能够激活到某种程度,像大脑的神经元一样,一些单元与其他单元相联结,联结的强度可以由于系统中的活动而发生改变,以至于一个单元对另一个单元的作用能随时改变。而基本的加工系统就是这些被联结起来的单元的集合体。
人工神经网络与处理离散符号的计算系统不同。在神经网络中,知识是由网络的各个单元之间的相互作用的加权参数值来表征的(这些加权参数可以是连续的)。网络的学习规则决定于以这些连续参数为数值的变量的活动值方程,因此它描述认知和智力活动的单元已经不是离散的符号了,而是“亚符号”的数值变量,相对于传统的“离散的符号研究模式”,人工神经网络又称为“亚符号研究模式”。
以往关于认知和智能的本质的理解正如纽厄尔1981所说 “离散符号的处理对于任何智能活动既是必要的也是充分的”。而新的亚符号研究模式与传统的这种理解相冲突,因此人工神经网络的提出被看作一次革命性的变革。这场革命可以称之为认知科学实现的一次从“符号主义”到“联结主义”研究范式的转换。
此外,还有一种行为主义的研究范式,行为主义学派坚信,智能行为是以“感知-行动”的反应模式为基础,智能水平可以,而且必须在真实世界的复杂境域中进行学习训练,在与周围环境的信息交互作用与适应过程中不断进化和体现。
4. 斯梅尔第18个数学问题
“联结主义革命”已经触动了“认知可计算主义”的核心,使认知科学研究从“离散符号研究范式”向“亚符号研究范式”转换,但从本质上说,仍然是研究纲领的内部调整和修正,整个研究并未完全脱离“认知可计算主义”研究纲领。而这种“可计算主义”完全是基于图灵机可计算概念的。
1996年,美国《科学》周刊报道,量子计算机引起了计算机理论领域的又一次革命。1998年美国做成第一台样机,但还不能应用。目前有关量子计算机的理论和实验都在迅速发展。那么量子计算机的计算本质究竟是什么?
通用图灵机是计算机的抽象数学模型,任何一台电子计算机在本质上都是一台图灵机。正如经典计算机建立在通用图灵机的基础上一样,说穿了,量子计算机是一种建立在量子图灵机基础上的现代电子计算机。通用图灵机的操作是完全确定性的,这种确定性是指算法的确定。在确定性算法中,当图灵机的当前读写头的状态和当前存储单元内容给定时,下一步的状态及读写头的运动完全确定。在概率算法中,当前读写头的状态和当前存储单元内容给定时,图灵机以一定的概率变换到下一个状态及完成读写头的运动。这个概率函数是取值[0,1]的实数,它完全决定了概率图灵机的性质。量子计算机与经典概率图灵机的区别仅仅在于当前读写头的状态和当前存储单元内容由正交态(0,1)变成了量子态(0,1,0和1的几率迭加态)。而概率函数则变成了取值为复数的概率振幅函数。于是量子图灵机的性质由概率振幅函数确定。量子相干性在量子图灵计算机中起本质作用,也是实现量子并行计算的关键。量子计算机能作到高效的计算,完全得益于量子迭加效应。即一个原子的状态可以同时既是1又是0,更确切讲,就是原子可处于0和1的几率迭加态。采用L个量子位,可以一次同时对2L 个数进行处理。相当于一步计算完成通常电子计算机2L 个数的计算。慕尼黑技术大学和哈佛大学已经研制出5个量子位的核磁共振量子计算机,IBM公司、斯坦福大学和卡尔加里大学联合研制出了以5个原子作处理器和内存的量子计算机。
但是,无论量子计算机的速度有多么快,既然从理论上讲,量子计算机等效于一台量子图灵机或概率图灵机,那么量子计算机的计算本质就依然是图灵机计算或递归计算。丘奇-图灵论点就依然是量子计算机的理论基石。因此,试图以量子计算机模拟人类智能仍然没有超出“认知可计算主义”纲领的指导。
半个世纪以来,认知科学领域不断涌现各种理论流派和问题解决方案,但至今并没有出现真正的革命性突破,尽管1965年人工智能的领袖人物西蒙就曾预言,“20年内,机器将能做人所能做的一切。”1977年明斯基也曾预言,“在一代人之内,创造人工智能的问题将基本解决。”但是,几十年里,虽经研究范式的几次转换,但人工智能领域至今没有出现真正的革命性突破,而且人工智能的发展不时地陷入不曾预想到的各种困难。究其真正原因,是由于这些理论流派和解决方案都未超出“认知可计算主义 ”的核心。认知科学的研究现状不能不使人们开始反思,也许根本不是我们的技术有问题,而是我们的研究纲领制约了我们的研究。
显然,目前,最重要的问题是:人类认知的本质究竟是什么?计算是否是人类认知和智能活动的主要甚至是全部内容?计算是否只能是图灵机可计算概念?人工智能是否存在极限,即机器
在模拟人类心智方面是否存在某种不可逾越的逻辑极限?
1998年曾任美国数学会主席的斯梅尔效仿大数学家希尔伯特1900年向全世界数学家提出了20世纪需要解决的23个数学问题,也向全世界数学家提出了21世纪需要解决的24个数学问题,其中的第18个问题是,“人类智能的极限和人工智能的极限是什么”?并且指出,这个问题与哥德尔不完全性定理有关。
5. 哥德尔的不完全性定理
1900年希尔伯特在巴黎数学家大会上提出21世纪亟待解决的23个问题,其中第二个问题是建立整个数学的无矛盾性。20年代他提出了一个使用有穷方法建立实数和分析的形式系统的无矛盾性的方案,称为希尔伯特元数学方案。
哥德尔寻此方案解决希尔伯特第二问题,希望先建立算术理论的无矛盾性,然后再建立相对于算术,实数理论的相对无矛盾性,却得到了相反的结果:他证明,即使限制在算术这样狭小的数学范围内,要想证明关于它的形式系统的无矛盾性都是不可能的。换句话说,任何丰富到足以展开初等数论的形式系统,如果它是一致的,它就是不完全的,在这个系统中至少有一个真的数学命题不可证,虽然它是真的,但它不是系统中的定理。
身为数学家和科幻作家的鲁迪?鲁克(Rudy Rucker)在《无穷与心》这部书中,记录了他在参观罗马教堂时的情形,教堂外面有一个巨大的石头圆盘。圆盘上刻着一张毛乎乎的长满络腮胡子的男子的脸。他的窄缝状的嘴巴被刻在大约腰部位置。按照民间传说,上帝有令,任何把手插进这张嘴里并且说一句假话的人,绝不能再把手抽回来。鲁克说,他来到教堂,把手插进那张嘴里,并且说了一句“我绝不可能把手再抽回来”。无须说,鲁克根毛无损地离开了罗马。实际上,鲁克说的是一个自指句。这个故事阐明了为什么永远不可能造出能够捕获所有可能的真实世界真理的“万能真理机器”的逻辑基础。
哥德尔是在形式系统S中构造了一个命题,这个命题断定自己在S中是不可证的, 进而指出,这个命题和它的否定都不是S的定理,(显然这个命题是真的)即这个命题在S中是不可判定的,从而给出不完全性结果的。
那么,能不能添加更强的公理扩充这个系统S1到更大的系统S2呢?哥德尔说,不行,因为,还有新的真数学命题在新扩充的系统S2中是不可证的,继续扩张,情形依然如此,…… 实际上,除非你把这种扩张过程持续到超穷,否则这种系统连最简单的算术真理都不能穷尽。看来,可证数学命题和数学真理之间永远隔着一个超穷距离,仅使用有穷方法甚至都没有希望逼近它。正如哥德尔所说,数学不仅是不完全的,还是不可完全的。
另一个看似更让人吃惊的结论是,如果一个形式系统是一致的(不含矛盾的),不可能在该系统内部证明系统的不矛盾性。
这就是著名的哥德尔第一和第二不完全性定理。
哥德尔定理与数学家的期望相去甚远,在定理发现之后,数学家不得不重新调整自己的思维方式:因为,一方面人们期望数学形式系统应当囊括所有数学真理,一方面又分明知道总有数学真理不可证;一方面经验和直觉告诉人们数学是不含矛盾的,一方面理性又教导人们数学不能证明它自身的一致性。著名数学家外耳当时曾感慨说,“上帝是存在的,因为数学无疑是一致的;魔鬼也是存在的,因为我们不能证明这种一致性。”以生动的语言道出了当时处于两难境遇的数学家的困惑。这个宇宙给了我们一种选择,就人类认知而言,我们要么拥有一种正确的但却是极不完整的小书,要么拥有一本正确缺乏内在和谐的大书,我们可以选择完整也可以选择和谐,但鱼和熊掌不可得兼。
有了图灵机概念以后,哥德尔的不完全性定理有几种等价说法:
(1)任何一致的数学形式系统都包含不可判定命题。
(2)没有数学形式系统既是一致的又是完全的。
(3)没有定理证明机器(或机器程序)能够证明数学中所有的真命题。
(4)数学是算法不可穷尽的(数学是算法不可完全的)。
1985年,切廷在《算法信息论》一书中,给出了算法信息论中的哥德尔式不可判定命题,大意是,对形式算术系统T而言,可以找到一个数CT,它是公理系统T的信息内容的熵,即描述或处理这些公理所需要的最小信息量,使得满足K(w)> CT ,其中,K(w)是字为w的科尔莫葛洛夫复杂性。
切廷解释说,他的结果表明,一切熵大于 CT 的东西在公理系统T中都是不可证的。
施瓦茨曾就此总结过三句话:
希尔伯特认为,一切事物都是数学上算法可知的。
哥德尔认为有些事物不是算法可知的。
切廷认为只有少部分事物是算法可知的。
哥德尔定理似乎表明,在机器模拟人的智能方面必定存在着某种不能超越的极限,或者说计算机永远不能做人所能做的一切。
一批具有数理背景的科学家和哲学家很难抵御用哥德尔不完全性定理论证“人心胜过计算机”的诱惑。
6. 关于人工智能极限的哲学争论
关于人工智能极限问题的争论也许最早可见1921年波斯特关于人心比机器优越的猜想。1936年图灵发表重要文章《论可计算数》指出,“我们将假定需要计数的心的状态数是有穷的。这是因为,如果我们承认心的状态有无穷多,它们中的某些状态就会由于‘任意接近’而被混淆”。图灵的这段话曾被看作“人类心智活动不可能超越任何机械程序” 的一个论证。1950年图灵在《计算机器与智能》中指出,我们不能因为一台机器不能参加选美大赛而责备它,就像我们不能因为一个人没有飞机跑得快就责备他一样,机器也能够思维。这篇文章还隐含着“人心等价于一台计算机”的论断,图灵的观点对当时刚刚兴起的人工智能方案无疑是一强有力的声援,也自然引起了一场大争论。
1961年美国哲学家鲁卡斯在36卷《哲学》杂志上以极其激烈的言辞首先撰文《心、机器、哥德尔》,试图用哥德尔定理直接证明“人心超过计算机”的结论:“依我看,哥德尔定理证明了机械论是错误的,因为,无论我们造出多么复杂的机器,只要它是机器,就将对应于一个形式系统,就能找到一个在该系统内不可证的公式而使之受到哥德尔构造不可判定命题的程序的打击,机器不能把这个公式作为定理推导出来,但是人心却能看出它是真的。因此这台机器不是心的一个恰当模型。这就是著名的鲁卡斯论证。随后,另一位美国哲学家怀特利在接下来的37卷《哲学》杂志上发表了强有力的批驳文章《心、机器、哥德尔——回应鲁卡斯》,遂引起许多人卷入并长达几十年的争论。
1979年获得普利策文学大奖的美国畅销书《哥德尔、艾舍、巴赫,一条永恒的金带》将艾舍尔义蕴深刻的版画、巴赫脍炙人口的乐章与哥德尔定理戏剧性地连接在一起,试图从多个视角阐明如何用哥德尔定理否证强人工智能方案。
1963年,美国哲学家、认知科学家、现象学家德莱弗斯(Hubert Lederer Dreyfus)出版了《计算机不能做什么?——人工理性批判》,1982年和1986年又相继出版了《胡塞尔、意向性和认知科学》和《心灵优于机器:人的直觉在计算机时代的力量》,批判了强人工智能的观点,反对把人仅仅看成一种抽象的推理机器,与机器不同,人有具有识别、总和以及直觉的能力,这些能力植根于一些与计算机程序的计算理性截然不同的过程中,直觉智能的力量使人能够理解、言说以及巧妙地调整我们与外部环境的关系。并说胡塞尔是认知科学的先驱。
1989年,英国数学家、物理学家罗杰?彭罗斯在风靡全球的《皇帝新脑,计算机、心智和物理定律》中,对鲁卡斯论证又作了进一步扩展, 指出计算机不过是强人工智能专家所钟爱的一副“皇帝新脑”而已(电脑“超子”诞生的新闻发布会上安排它回答与会者的问题,人们都担心自己提出的问题过于愚蠢有失身份,因此一直保持沉默,突然一个不知天高地厚的小男孩打破了僵局,羞怯地问超子电脑:“你现在的感觉如何”?超子茫然不知所措)。《皇帝新脑》被称为“哥德尔定理令人吃惊的强应用。”引发了1990年《行为和大脑科学》杂志上许多人介入的一场争论。1997年和1998年当代语言哲学家,强人工智能的反对者塞尔(John Rogers Searle)相继出版《意识之迷》和《心灵、语言和社会》两部书,断言,仅仅依靠单纯的输入输出,绝不能担保人的意识,特别是意向性的呈现,因此计算机不可能完全模拟人的意识活动。
塞尔通过重述那个著名的“汉堡包”的故事,并用他的所谓“中文屋”概念批驳了强人工智能专家所持有的如下观点:完全可以在精确的意义上说,计算机具有人类理解故事和解答相关问题的能力。在塞尔看来,计算机的理解力与汽车和计算器的理解力没有什么不同,计算机与人类的心智相比,其理解力不仅是不完全的,而且可以说完全是一个空白。当然,对塞尔来说,重要的不是要论证“计算机不能思维”,而是要回答“正确的输入输出加上正确的计算本身是否足以保证思维的存在?”他认为,“如果我们所说的机器是指一个具有某种功能的物理系统,或者只从计算的角度讲,大脑就是一台计算机”,然而在他看来,心的本质并非如此。计算机程序纯粹是按照语法规则来定义的,而语法本身不足以担保心的意向性和语义的呈现,程序的运行只具有在机器运行时产生下一步形式化的能力,只有那些使用计算机并给计算机一定输入同时还能解释输出的人才具有意向性。意向性是人心的功能,心的本质绝不能被程序化,也就是说,心的本质不是算法的。
1994年克里克写了一本 《惊人的假说》,谈到“现在是严肃地对待意识问题的时候了”,以往对意识问题,灵魂问题,人们一直讳莫如深,而且多半是“自己养狗的就确信狗有灵魂;自己没养狗的则否认狗有灵魂”。而在克里克看来 “人的精神活动完全由神经细胞、胶质细胞的行为和构成,以及影响它们的原子、离子和分子的性质所决定”。你的喜悦、悲伤、记忆和抱负、你的自我感觉和自由意志,实际上都只不过是一大群神经元而已。正像刘易斯卡罗尔书中的爱丽斯所说“你不过是一大群神经元而已。”
大脑的许多行为是“突现”的,即这种行为并不存在于像一个个神经元那样的部分之中,只有很多神经元的复杂相互作用才能完成如此神奇的工作。因此,“从神经元的角度考虑问题,考察他们的内部成分以及他们之间复杂的、出人意料的相互作用的方式,这才是研究意识问题的本质。”“许多哲学家和心理学家认为目前从神经元水平考虑意识问题的时机尚不成熟。然而事实恰恰与此相反。仅仅用黑箱方法去描述脑如何工作,特别是用日常语言或数字化编程计算机语言来表达,这种尝试为时尚早。脑的语言是基于神经元之上的。“要了解脑,你必须了解神经元,特别是巨大数目的神经元是如何并行工作的。”
人脑是一个丰富的相互关联的信息的载体,它的许多内容是连续变化的,然而机器却能使我们通过内省得到非常有限的体验,其他机器却不具有这个特性。那么我们将来能否造出这样的机器,如果可能,它们看上去是否会有意识?克里克相信,最终是可以实现的,也可能存在着我们几乎永远不能克服的技术障碍。短时期之内,我们所能构造的机器就其能力讲,与人脑相比很可能很简单,因为在理解了产生意识的机制以前,我们不大可能设计一个恰当形式的人造机器,也不能得出关于意识的正确结论。
美国主持第一个遗传算法基础研究项目(1990年)的计算机专家戈里高里?罗斯林,在1997年出版的《机器的奴隶》一书中对计算机和人工智能未来30年的前景做了精彩深刻的阐释。
7.人工智能的极限不是哥德尔定理的直接推论
对哥德尔定理与人工智能极限之间的关系,哥德尔本人如何看待?从新近发现的哥德尔的一部分重要手稿和70年代与王浩的谈话记录中我们得知,哥德尔在严格区分了心、脑、计算机的功能后作出明确断言,“大脑的功能不过像一台自动计算机”,“心与脑的功能同一却是我们时代的偏见”,但不完全性定理不能作为“人心胜过计算机”的直接证据,要推出如此强硬论断还需要其他假定。
作了如此区分之后,“人心是否胜过计算机”的问题事实上可以转换为几个子问题:(1)是否大脑和心的功能等同?(2)是否大脑的运作等同于计算机的运作?(3)是否心的活动都是可计算的?这三个问题实际上就是心脑同一论问题、大脑的可计算主义和心的可计算主义问题。
心脑同一论是50年代末以来西方颇为流行的占据主流的一种理论,也是人工智能的理论基础。但哥德尔认为,心脑同一论是今日普遍接受的时代偏见。其中的一条理由是,根本没有足够的大脑神经元来实现心的复杂的运作。在哥德尔的手稿中我们也可以看到他对心的可计算主义的批驳。
首先,哥德尔曾在多种场合申明,他本人并不反对用不完全性定理作为证明“人心胜过计算机”这一结论的部分证据,因为在他看来,不完全性定理并未给出人类理性的极限,而只揭示了数学形式主义的内在局限,但是,仅仅使用他的定理不足以作出如此强硬论断。
在1972年的一篇评论中哥德尔指出,图灵给出的“心智过程不能超越机械过程”的论证在附加以下两个假定之后才有可能:(1)没有与物质相分离的心。(2)大脑的功能基本上像一台数字计算机,他认为(2)的概然性很高;但无论如何,(1)是将要被科学所否证的,是我们时代的偏见。
实际上,早在1951年的吉布斯演讲手稿(1995年发表)中,哥德尔就指出,附加了“人类理性提出的问题人类理性一定能够解答”这样一个哲学假定,有可能从不完全性定理推出“人心胜过计算机”的结论。当然,哥德尔也意识到,这种对于“心脑同一论”和“心的可计算主义”的否证未必令人信服,因为它毕竟是一种推论式的。
值得注意的一点是,哥德尔第二不完全性定理的一种形式是说,任何恰当的定理证明机器,或者定理证明程序,如果它是一致的,那么它不能证明表达它自身一致性的命题是定理。哥德尔说,一方面,人心不能将他的全部数学直觉形式化,如果人心把他的某些数学直觉形式化了,这件事本身便要产生新的直觉知识(如该系统的一致性);另一方面,不排除存在一台定理证明机器确实等价于数学直觉,但重要的在于,假定有这样的机器M,由不完全性定理,我们不可能证明M确实能做到这点。
看来,当人们应用哥德尔定理试图严格地作出“人心胜过计算机”的论证时,其中包含着一个令人难以察觉的漏洞:问题的核心并不在于是否存在能捕获人类直觉的定理证明机器,而恰恰在于,即使存在这样一台机器,也不能证明它确实做到了这一步。恰如哥德尔所说:“不完全性结果并不排除存在事实上等价于数学直觉的定理证明机器。但是定理蕴涵着,在这种情况下,或者我们不能确切知道这台机器的详情,或者不能确切知道它是否会准确无误地工作。”
在纪现代计算机先驱冯?诺意曼诞辰60 周年纪念会上,哥德尔问,一台机器知道他的程序的可能性有多大?这有点像那个幽默的内涵悖论,有人问:上帝能否造出一块他自己举不起来的石头?
也许在考察了如上各种关于心、脑、计算机问题的独特见解之后,我们有必要指出,哥德尔曾解释过他所说的“心”的含义:“我所说的心是指有无限寿命的个体的心智,这与物种的心智的聚合不同”。而且,除了必要的哲学假定之外,在哥德尔看来,回答“人心是否胜过计算机”这一问题还依赖于我们能否消除内涵悖论,还要取决于包括大脑生理学在内的整个科学的进展。
8. 超越图灵意义上的认知可计算主义研究纲领
哥德尔定理确实使我们思考这样的问题:由于人设计制造了计算机,人总能从外部观察和操纵机器。假定设计机器去解决某个问题集{a,b,c,…},那么,如果计算机等价于一个形式系统,根据哥德尔定理,在这个形式系统中将产生这台机器不能解决的问题(例如系统本身的一致性问题),但从外部观察,这个问题却是人的智能可解的。于是,为了解决问题集{a,b,c,……},又会产生新的计算机不能解决的问题集{x,y,z, …… }。
计算机是人类为了自身目的而设计制造的,这种制造者与被制造者之间的强关系将人置于一个面对面地统治机器的绝对优越地位,这种地位究竟是一种社会学意义上的优越,还是计算机和人的智能的本质特性所决定的?或者像哥德尔断定的,存在与物质相分离的心能超越任何计算机去发现和证明某些数学定理,至少在发现具有超穷性质的数学真理,提出数学公理、构造假说方面是任何计算机都无法企及的;抑或像彭罗斯断言的那样,人心具有一种特殊的能力,这种能力是建立在迄今未予发现的某些物理学规律的基础上,而且人心能超越任何计算机实现非算法的运算?这些都是我们需要深入探讨的问题。
我们无法确定“心不是计算机”的结论为真,而且,认知的本质为何?计算的含义应当是什么?人工智能是否存在某种不可逾越的逻辑极限?大脑和心的功能究竟为何?心是否有物质载体?这些问题需要更深刻的科学的进展。
我认为,现在一个更值得思考的问题是,我们以上的讨论都是建立在图灵意义上的可计算概念基础上的,目前人工智能领域也完全是在图灵意义上可计算概念基础上产生的“认知可计算主义”的纲领指导下工作。我们最初是从希尔伯特元数学方案开始考虑问题的,是想用有穷手段,用能行的方法建立一个没有内在矛盾的形式系统囊括所有的数学真理,哥德尔告诉我们,这样做不可能,但是我们仍然在追求一种严格一致的算法来模拟人的智能。即使不论用一个形式系统表达图灵机的方式不唯一,我们也应当考虑到,对于模拟人类智能的计算机,完全可以采用某种新型的形式系统,采用包含非古典逻辑的具有动态性质的形式系统。但是,同样不容忽视的一个问题是,这种形式系统至少应当保证紧致性定理成立,应当在原始递归的范围之内,这样一来,哥德尔不完全性定理就自然成立,因此仍然没有超出哥德尔所言的逻辑极限范围。
我们对世界的理解来自对我们经验规律性的发现和学习。规律或因果律有两种,一是可精确重复的或可以预期的,二是统计的。所有人工物都是按机械规则(精确重复性)被设计和制造的,我们尚无法制造一种东西,它的原理和行为指向是遵守统计性规律的。生命和智能服从统计性规律,所以许多理论称人是机器是极其荒谬的。量子效应虽然遵守统计性规律,但对于量子计算机我们尚未克服界面的困惑。依照罗林斯的说法,我们的计算机速度早已达到相当高的程度,重要的是人的想象力没有达到更高的水平,我们的软件程序员水平太低。1965年美国英特尔公司的创始人莫尔就预言,计算机芯片的运算速度将每18个月增加一倍(莫尔定律),我们的软件还没有跟上这个速度。据中国《2001年高技术发展报告》,2000年IBM公司宣布,已经研制出世界上运算速度最快的超级计算机,每秒速度达到12.3万亿次,这种计算机配有8192个铜微处理器,具有6万亿字节的存储能力,耗资1.1亿美元,主要用于核武器的模拟实验。
制造智能与制造生命是等同的。生物学虽然告诉我们什么是生命的本质,但无法让我们知道如何制造具有心智的生命,我们需要知道的是:生命与智能的物理过程!罗杰?彭罗斯断言,也许我们人类心智是遵从某种更深刻的规律,这种规律是靠迄今还没有发展起来的物理学阐释的。
那么能否构造新型的形式系统,它不是哥德尔构造不可判定命题的古典逻辑的形式系统?而且在这种系统中哥德尔定理不成立?更进一步,可计算性的概念是否可超越图灵机可计算概念的范围,我们是否可寻求某种非图灵机理论模型去模拟人类心智?系统的一致性是否是永远不可放弃的限制?这是我们关注的问题。
我们认为,人工智能,甚至整个认知理论正在面临着一场研究纲领的变革,基于图灵可计算概念的“认知可计算主义”研究纲领已经显示出其极大的局限,应代之以一种“认知的算法不可完全性”为核心的研究纲领。人类必将探索新的非图灵机概念来尝试解决人工智能更深层的问题,以摆脱在理论和实践上的困境。目前西方学者已经在探讨“超越(图灵机)计算”的问题,应当引起我们足够的关注。当然,解决这些问题,除了哲学思辩,确实需要依赖于科学的进展,也需要精细的逻辑应用的研究。
正如斯梅尔所说:解决人类智能的极限和人工智能的极限问题,除了与哥德尔定理有关外,还需要对大脑和计算机更精细的模型作更大胆的的研究,而且还需要将学习、问题求解、对策理论与实数论、逼近论、概率论和几何学知识结合在一起,探索其如何对问题的解起实质性作用。