怎样变聪明的

人工智能专家指出:计算机不仅应该去做人类指定它做的事,还应该独自以最佳方式去解决许多事情。比如说,核算电费或从事银行业务的普通计算机的全部程序就是准确无误地完成指令表,而某些科研中心的计算机却会“思考”问题。前者运转迅速,但绝无智能;后者储存了比较复杂的程序,计算机里塞满了信息,能模仿人类的许多能力(在某些情况下甚至超过我们人的能力)。

为了研究这个问题,许多科学家都曾耗尽了自己一生的心血。如第二次世界大战期间,英国数学家图灵发明了一种机器,这种机器成了现代机器人的鼻祖。这是一种破译敌方通讯的系统。后来,图灵用整个一生去幻想制造出一种会学习、有智能的机器。而在 1945 年 10 月的普林斯顿,另一位著名的数字家冯·奈曼却设计了一个被称为“人工大脑”的东西。他和自己的学生都是心理学和神经学的狂热迷恋者,为了制造人类行为的数学模拟机,他们遭受了多次失败,最后失去了制造“人工智能”可能性的信心。早期的计算装置过于笨重,部件尺寸太大,使得冯·奈曼无法解决如何用这些部件来代替极小极小的神经细胞这样一个难题,因为当时人类

的大脑被看作是某种相互联系的神经元编织成的东西,所以就可以把它想象成某种计算装置,其中循环的不是能量,而是信息。科学家们想到,如果接受这样的对比的话,为什么不能发明出一种使信息通过以后产生智能的系统呢?

于是他们提出了人工思维的各种理论。比如,物理学家马克便提出了企图使机器人用二进位或二进位逻辑元件进行思维的方法。这个方法被大家认为是非常简便的方法。1956 年科学家们召开了第一届大型研讨会,许多专家学者主张采用“人工智能”这个术语作为研究对象的名称。两位不出名的研究者——内维尔和西蒙提出了不同凡响的设想。他们研究了两个人借助于信号装置和按钮系统进行交际的方式。这个系统要把这两个人的行为分解为一系列简单动作和逻辑动作。因为在这两个研究者的工作地点装有两台大型计算机,所以他们俩常把自己的试验从脚到头倒着进行消遣取乐:把简单的逻辑规则输入计算机,使它养成进行复杂推理的能力。这真是一个天才的想法;计算机程序不仅进行工作,而且靠它帮助,发现了一个新定理,这个定理证明完全出乎意料之外,而且比以前所有的证明还要优美得多。内维尔和西蒙发现了一个奠定性的原则,即赋予机器人智能用不着非得弄懂人类大脑不可。需要研究的不是我们的大脑是怎样工作, 而是它做些什么;需要分析人的行为,研究人的行为获得知识的过程,而不需要探究神经元网络的理论。简单地讲,应着重的是心理学,而不是生理学。

从此,研究者便开始沿着上述方向前进了。不过,他们还一直在争论这样的问题:用什么方式使计算机“思维”。

有一派研究者以逻辑学为研究点,试图把推理过程分为一系列的逻辑判断。计算机从一个判断进到另一个判断,得出合乎逻辑的结论。象众所周知的三段论一样:“所有的动物都会死掉;小刺猬是动物,因此,小刺猬也会死掉。”计算机能否获得幼童一样的智力水平呢?关于这个问题, 科学家们有两种相反的见解。伯克利的哲学教师德赖弗斯带头激烈反对“人工智能派”。他说人工智能派的理论是炼金术。他认为,任何时候也无法将人的思维进行程序设计,因为有一个最简单不过的道理:人是连同自己的肉体一起来认识世界的,人不仅仅由智能构成。

他进一步举例:计算机也许懂得饭店是什么意思,但它绝不会懂得得客人是否用脚吃饭,不懂得服务小姐是飞到桌边,还是爬到脚边;总之, 计算机永远也不会有足够的知识来认识世界。但麻省理工学院的研究员明斯基却不同意德赖弗斯的观点,他认为机器人的智能是无限的。他对“人工智能”的解释是:这是一门科学,它使机器去做这样一种事情,如果这种事情由人来做的话,就会被认为是有智力的行为。明斯基同时是一位物理学家、数学家,还对心理学、社会学、神经学都有所研究。他指出,人工智能是心理学的一个新门类,这个门类用实验的方法,以计算机为手段

模拟人类思维的本性。他认为自己所研究的计算机,是一门全新的科学; 当然机器并不是人,它永远没有人的那种快乐或是痛苦的情感体验,只是热衷于掌握纯粹的知识。举个例子来说吧,人可以给计算机输入“水”的概念:水是一种液体,表面是平的;如果从一个容器倒入另一个容器里, 其数量不变;水可以从有洞的容器里漏出来,能弄湿衣服,等等。但是, 它获得有关水的最一般的信息之后,就尽力回答一个很重要的问题:“如果将盛满水的玻璃杯倾斜,那会怎样呢?”计算机在它的荧光屏上显示出了一只倾斜到水平位置的玻璃杯,尽管计算机知道引力定律,但它还是固执地在荧光屏上显示:玻璃杯歪倒了,可液体就是不外流。计算机永远不会从痛苦的、但却是有益的经验中体验到那种衣服被弄湿的人所感受到的不快心情。

所以有一个名叫申克的心理学家正领导一批学者从事这个令人感兴趣的课题的研究:让计算机学会阅读和概括读物内容,回答有关问题;让计算机学会几种人类语言,并互相翻译;让计算机学会对话、学习论证艺术、背单词⋯⋯