Chaospace

Reshape the world by engineering chaos


  • 首页

  • 分类

  • 归档

  • 站点地图

  • 公益 404

  • 搜索

当人类失去统治——影史十大经典机器人

发表于 2006-07-19 | 分类于 影视

当人类失去统治——影史十大经典机器人

(2004-12-12 10:17:36)

随着科幻电影《我,机器人》的热映,机器人与人的关系再度成为人们关注的焦点:机器人能否拥有思考能力?一旦它们拥有自主智能,是否应脱离人类的管辖?怎样才能避免人工智能的反叛?

现在人类对此还很难回答,但随着科学技术的发展,将来我们也许真的会面对这样的现实。MOV8 电影网日前由影迷投票评选出“影史上十大最成功机器人造型”,这些科幻影视作品中的机器人故事,或许会给我们带来启迪,甚至预示我们的未来。

第十名:机器章鱼 来自:《黑客帝国》

在《黑客帝国》这部超级经典科幻电影中,那令人不寒而栗的机器章鱼相信令每位观众印象深刻。这些机器杀手的特点是绝对服从机器大帝的指挥,对人类没有半点怜悯。

看过《黑客帝国动画版》的朋友都知道,机器暴动的起因是它们无法忍受人类肆无忌惮的“压迫”,人类甚至连平等谈判的机会都不给它们。于是机器人开始反抗了,人类在自己亲手建立的文明面前是那么不堪一击……

《黑客帝国》的成功之处就在于其突破性的想像力。电影中的虚拟世界 Matrix 是如此飘渺,其中的一草一物都是程序;而这个世界又是如此现实,人们“居住”其中却毫无察觉。

第九名:David 来自:《人工智能》

《人工智能》讲述的是一个名叫 David 的机器人,像匹诺曹一样想要成为一个真正的人类孩子的故事。它不断地探究怎样才能变成人,回到它的人类“妈妈”身边。在这个过程中,人类自身的各种缺陷甚至丑恶都暴露无遗。

然而现实是残酷的,人类始终不会把自己真正的感情投入到机器人身上。执着的 David 最后盯着一座塑像沉睡了不知道多少年,直到沧海桑田之后的一天,外星人降临到冰封的地球,它们用高科技和 David 手里的一缕人类头发复原它的“妈妈”,David 终于如愿地躺在妈妈身边。

机器人的出现是为了满足人类的需求,而这部电影的结局令我们不免思考:到底是谁满足了谁?

第八名:APU 来自:《黑客帝国》

还是《黑客帝国》。在影片中出现的人类用来对抗机器章鱼的 APU 也是非常经典的机器人形象。这种机器需要人类来驾驶,其本身并没有人工智能。

APU 的外表给人以非常强壮的感觉,而其材质和表面的光泽带来一种冷冰冰的金属质感。APU 的内部结构也是经过精心设计的,即使在现实中也具有很高的可行性。因此这个机器人形象无论从任何方面看都非常完美,不仅成为科幻电影史上的一个经典,也许在不久会成为某种新型机器人的原型呢。

第七名:Sonny  来自:《我,机器人》

机器人不能够伤害人类,也不能够因为自己的懈怠而令人类受到伤害;机器人必须听从人类的命令,除非该命令与第一定律相悖;机器人必须在不违反第一和第二定律的情况下维持自己的生存。

———阿西莫夫“机器人三定律”

在《我,机器人》中,这个不受“三定律”约束的机器人 Sonny 真的是太可爱了。它不同于以往科幻电影中那些要么很像人、要么完全冷冰冰的机器人,现如今一日千里的 CG 技术给了它介于人和机器之间的外表,而它的思想也同样是这样一个矛盾的结合体。

《我,机器人》中的人类主角其实也是机械技术的受益者,但他始终对“机器三定律”的可靠性心存戒心。他的担心并不是多余的,机器人技术并没有按照人类预想的方向发展,看似固若金汤的三定律终于一点点崩溃了……

第六名:阿童木  来自:《铁臂阿童木》

“铁臂阿童木”是日本著名漫画家手冢治虫上世纪 50 年代的经典漫画。1963 年,“阿童木”成为第一部真正意义上的日本本土电视动画系列片。在长达四年的播出期间里,创下了未曾有过的高收视率,后来也同样给中国孩子们留下了美好记忆。

有意思的是,手冢治虫生前一直反对将《铁臂阿童木》拍成动画片,主要是担心制作效果不能完美表达其构思。但显然他多虑了,这个可爱、勇敢的机器人形象已深深印在一代人的脑海之中。

第五名:C-3PO/R2-D2  来自:《星球大战》

“《星球大战》整整影响了一代美国人”,这句话一点都不过分,而其中的机器人形象也同样深入人心。

当年,很少有一部影片能像《星球大战》一样震撼人心,它开启了人们对未来世界的想像之门。当然,在科技迅速发展的今天回过头来再看,也许这一系列不再让人感到新奇。不过,影片中 C -3PO/R2-D2 这两个机器人却仍然令人难忘。它们是“忠实”的代表,对主人从无二心,而且屡次在危难中起到关键作用。

第四名:Murphy  来自:《机械战警》

Murphy 是一位优秀的警官,在一次执行任务时身负重伤,科学家为了挽救他的生命,把他的脑部移植到了机器人身上,从此他变成了一个所向披靡、除暴安良的机械战警。

这个机器人形象的特殊性在于他曾经有过身为人类的经历,而其他的机器人虽然可能有比他更大的力量和更强的火力,但是显然缺少人类的智慧的幽默感。

第三名:擎天柱  来自:《变形金刚》

“变形金刚,随时变形状……”相信这句歌词在很多 20-30 岁的年轻人的脑海里留下了深刻的印象。汽车人的老大“擎天柱”以其勇敢、坚毅的强者形象成为了很多男孩心目中的英雄,一点不比今天奥特曼的人气差。

不过这毕竟只是一部儿童动画片,其中那些机器人的智慧、思维方式和人类几乎是一样的,只不过换了个外表而已。近期《变形金刚》还发行了珍藏版 DVD,怀旧的朋友们可要注意了。

第二名:T1000  来自:《终结者 2》

《终结者 2》无疑是上世纪科幻片的经典之作,其中两个来自未来世界的终结者 T800 和 T1000 的形象塑造绝对堪称完美。

反派机器人 T1000 的引人之处在于它是一个可以在液、固两态之间切换的机器人,例如它在通过铁栅栏时能把部分身体变成液态,从而悄然无息地潜入任何地方。它的另一个看家本领就是能够变成任何它接触过的人和结构不太复杂的物体,并且随意变形的身体能够成为方便的杀人武器,中弹之后也能够立刻恢复原状。

但是 T1000 也同样有致命的弱点———液氮中的低温会令其凝固并变得易碎,但温度一旦升高它就会复原。另外它还惧怕高温,最后这个反派机器人终于在滚烫的钢水中被“终结”了。

第一名:T800  来自:《终结者 2》

阿诺·施瓦辛格扮演的 T800 被影迷评为影史上最经典机器人形象,世界健美冠军加上钢筋铁骨和坚毅的表情,在《终结者 2》中打造出一个正义和勇敢的机器英雄。

虽然《终结者 2》是一部动作科幻片,但难能可贵的是它拥有感人的剧情。这位 T800 型机器人从未来回来保护一个十几岁的孩子,对抗比它更先进的 T1000。

T800 的可爱之处在于懂得学习,如影片中竖起大拇指的动作,为影片中最震撼的一幕做好铺垫。

T800 还尝试理解人类的感情。影片最后,T800 为了毁自己身上可能危害人类的核心处理器,它的手放开铁链,缓缓竖起拇指,将自己沉入钢水之中。那一刻的感动令人久久不能平静。

《终结者 2》的特技效果拿了当年的奥斯卡奖,但再好的效果也只是外在的东西,而这一个镜头让《终结者 2》最终成为了一部经典。

(据大众软件)

!!! 居然没有 爱德华 和 塔奇科马 我要“补完”它

爱德华

来自:《剪刀手爱德华》

《剪刀手爱德华》像极了一个童话,一个冰雕般无瑕和脆弱的童话,在一个如蜡笔画出的美丽小镇旁边,有一个阴森孤寂的古堡,一个白衣如雪的美丽姑娘爱上一个来自古堡的怪人,一个注定连自己爱人都不能拥抱的半机器人,他叫剪刀手爱德华。

蒂姆·波顿以他天才的想象和对自己一生经历的感悟,写出了这个令人赞叹和绝望的故事,并亲自将他推上大银幕。于是这个剪刀手成了电影史上最令人难忘的形象之一。约翰尼·德普在这部影片里全凭眼神与姿态,就将一个面孔苍白,没有表情的机器人的痛苦内心展现无遗。

俯瞰山下的人世,仍是那孤寂的古堡中,满怀爱与悲愤的爱德华用他飞快的剪刀手刻出冰雕,那落下的雪花飘向房屋,飘向街道,小镇从此开始下雪……爱德华的爱是不朽的,因此也不属于我们这个世界。

塔奇克马

来自:《攻壳特工队》

一个机器人能让人感动到流泪,它的地位就是难以动摇的。

最后一米的带宽

发表于 2006-07-08 | 分类于 影视

不可能有比空气重的飞行器。 —— 凯尔文勋爵 我想全球市场也许只需要 5 台计算机。 —— 托马斯. 沃森 (IBM 创始人董事长)1943 对任何人来说,640K 的内存都应该够用了。 —— 比尔. 盖茨 1981

做预测是困难的,尤其是在计算机领域。有些时候简直是拿自己的信誉开玩笑。但是面对波涛汹涌的科技浪潮,许多人还是难以抵挡做预测的欲望。有一天,LZ 说要把以前看的好电影刻盘保存。我做了一个预测: 五年之后从网上下电影的速度比从光驱拷电影的速度还要快。大家都大呼不可能。其实:

52 倍速驱动器理论上的传输率应该是:150×52= 7800K 字节 / 秒 =7.8M 字节 / 每秒

DVD-ROM 单速的传输速率 1385kb/s,16X DVD-ROM 最大数据传输速率:16X1385=22.16Mb/s。这个预测应该不是太大胆。又说,刻电影主要是为了怕以后想看的时候不好找。又预测:五年之后,从搜索引擎输入电影名字找到想要电影的速度,比从 CD 包里面找到电影光盘,插入光驱的速度还要快。

信息技术的爆炸式发展,已经给我们的世界打来了翻天覆地的变化。为了看一部电影,开着 FlashGet 连下好几天的时代已经一去不复返了。每当我打开 5Q 的时候,我担心的,不是能不能找到我想要的东西,而是如果我下了这些东西,有没有时间把它们看完。80G 的硬盘已经不够用了。现在,从网络上的的信息到人们面前的电脑,信息的传输速率已经足够快了。信息传输的瓶颈,已经不再是网络设备了。最小的带宽,出现在电脑和人脑之间。最远不过一米,却像一道鸿沟,隔开了人和信息海洋。显然,纯粹的信息技术,已经无法建起跨越这一鸿沟的桥梁了。

功壳中的电子脑

发表于 2006-06-21 | 分类于 影视

《攻壳机动队》是一个相当、相当硬的科幻。漫画原作据说只有理工科学生能看懂,包括导弹弹道计算、计算机网络,计算机病毒、机器学习等专业问题。动画版的难度已经大大降低了,不过如果计算机网络知识不扎实的话,有些时候依然会云里雾里。

漫画里的故事发生在西历 2029 年,在这个时代,以光、电子和生化技术为基础的电脑、AI 和网络主导着每个人的生活。移动通讯向人体靠拢,从可移动通讯终端(就是手机之类的设备)开始,经由可穿戴通讯终端的阶段,逐渐发展到了可移植通讯终端的阶段。 技术的发展使得通讯终端直接植入人体成为可能,人类的躯体和思想从此可以直接与标准的计算机和网络互动。这些可移植的终端逐渐的替代了过时的可移动 / 可穿戴技术,最终的发展形态就是 Cyberbrain 原型。Cyberbrain 使得人脑和计算机网络融为一体。

在故事里, Cyberbain 已经成了普遍使用的安全又便宜的东西。Cyberbrain(电子脑)的流行,使得人脑与外部网络连接,人们开始处在脑部入侵的危险之下。最严重的脑部入侵犯罪就是“幽灵黑客”(”Ghost Hack”),在这种情况下整个人的人格,包括过去的回忆和某个人的身体判断都将受到黑客的支配(通俗的说,就是“人脑”这部超级电脑被黑客攻击了)。 人们采取不同的对抗措施,比如说开发无数的保护墙和屏障,以及通过法规来约束,当然还有在神经网络系统内部的安全系统的加强。另一方面,通过机械部件来代替身体器官的义体技术”Cyborg Technology”飞速发展,甚至“所有器官都是人造的”这种极端的情况也可以轻松做到。 于是,人类和机器融为一体,人和机器的界限也变得模糊。由于 AI 技术的高速发展,人和机器,似乎只能通过有没有“灵魂”(ghost)来区分。极端一点儿说,一个全人造的义体,用程序控制就是机器 AI,输入灵魂就变成了人,或者说是生化人。但是,“灵魂”究竟是什么呢?

Stand Alone Complex 2

发表于 2006-06-20 | 分类于 影视

一篇经典的攻壳文,经典到不转载的话,我觉得对不起作者。 被一篇文章严重吸引 转贴至下转帖]孤立集合体的广大意识形态—另一个角度的攻壳机动队 TV ecat2005-5-13, 03:29 AM 如果认为士郎的攻壳和押井的攻壳是两个

作为一个 TV 版动画,其商业化的气氛相对于漫画和剧场版都是更加浓厚的,其中人物的造型不断的细微变化着,尤其是素子的不同角度的作品,那么神山健治的 TV 版就是第三种角度的攻壳。师出押井门下的神山秉承了押井集团一贯的 “探讨”作风,不同之处在于他更加倾向于在已经存在的确实理论内部进行讨论,而不像押井总是从人文哲理角度出发提出现在还不存在、将来也未必会有的问题,最后却把悬念当球踢给观众。有悖于前两种风格的 TV 版因为无论在思路上还是剧情上都相对独立,而被定性为“发生在平行空间的故事”,甚至还会被说成是“同人”。外形更是不断的向着既苗条又丰满的方向发展,辅以其干练的作风与高超的能力,于是产生了一大批叫嚷着“素子 JJ”的家伙(我也这么叫过,所以,其实没什么不好啦,汗)。因此也许目前看来 TV 版在发烧友中的定位相对较低,但是却吸引了更多的眼球。也因为商业化更加彻底,TV 版相对前作更为易懂(当然只是相对而已,若拿去与其余的东西相比它仍然是不好懂的)。与漫画的专业,剧场的深邃相比,TV 版最另人印象深刻的莫过于其对悬念的整体把握。贯穿动画始终的主线要在最后才能清楚的捕捉到(就 SAC 而言),而在平时基本只是稍微露出点蛛丝马迹,那条主线看起来是若有若无的。

先来看被戏称为“从跳楼开始,以跳楼结束”的第一部 TV 版“Stand Alone Complex”,其剧情上的主线无非是通过“笑脸男人”高超的黑客技术与九课精湛的业务能力破获一桩权钱交易的犯罪行为。而隐藏在这桩案件背后的问题才是全剧所要表达的东西,这在 SAC 第 26 集中通过素子与笑脸男人的对话得到集中体现(采用了大量的文学、史学、心理学等等理论作为台词背后的依据,这便是攻壳的内涵之一了,感兴趣者不妨去研究)。

其实问题就隐藏在 SAC 这个标题当中。所谓 Stand Alone Complex,其解释是多样的,如“不存在的原创品产出了原创的拷贝”、“由特立独行的人组成的某种团体”、“独立复合体”、“孤客情结”等等,是一个极为意识流的词组。把这些解释整合到一起的话,我个人理解为“由孤立个体形成的集合体所体现的巨大意识”。这种巨大的意识是在人的自觉之外的,它无时无刻不在发挥着暗中引导人群的作用,同时又随着各个孤立个体所发生的改变而改变。

比如说 SAC 中进行权钱交易的政府官员们,作为个体的官员进行权钱交易无非是为自身牟取利益,但是若这种牟取行为发生了扩散,则可以解释为“牟取利益”这种想法其实是普遍存在于认可权钱交易的官员们之上的巨大意识作用,也就是说因为这群人都有一个内在的共同点“对自身利益的追求”,一旦有人把 “钱”送上门来要求交换“权”的时候,他们的行动就会超乎想象的默契;再比如那些崇拜以及模仿笑脸男人的普通民众,他们的行为看似杂乱无章,但是作用在他们之上的意识体仍然是存在的,就是说他们都有内在的共同点“对政府的不满以及不信任”,笑脸男人不过是一个催化剂,一个引发他们对这种不满和不信任进行宣泄的导火索;还有 TV 中其余各个看似独立的故事,其行为的出发点仍然可以解释为“巨大意识”的作用,具体的分析就免了,感兴趣的可以自己去仔细研究一下。

在 SAC 第 9 集“ネットの闇に棲む男 CHAT! CHAT! CHAT!”中以网络聊天的形式对笑脸男人事件的开端以及所获得的线索进行了总结,可以说是这部动画中最为难懂的一集。其实在讨论笑脸男人事件的同时,也暗示了“意识作用”的存在。剧中提及模仿笑脸男人现象时也有过类似“这究竟是什么原因”之类的一两句对话,甚至还怀疑所谓的笑脸男人不过是虚构(这里暗示得很明显了,虽然笑脸男人确实是存在,但是这样的怀疑正好符合了“意识作用才是主体”的主旨)。可惜只是稍微提了一下而已。。。当然过早的揭示了主题也就没有意思了,同样其构筑在悬念之上的信服力也会轻易失去。。。

最后笑脸男人与素子在图书馆中的对话也是一个重点部分。两人通过对一直以来所发生的种种现象的讨论,不约而同的把原因都总结到了“Stand Alone Complex”之上。不过这种种现象包含了一个绝对的前提:一个能够把这种意识作用最大化的合适触媒。

笑脸男人说自己对于此桩犯罪的接触始于在网络中接收到一份“由本来不存在的原创体发出的原创拷贝”,这话该怎么理解呢?所谓“不存在的原创体发出的原创拷贝”直接理解就是“无中生有”,但是道理很明显的摆在那里,没有前因何来后果?因此这句话应该理解为笑脸男人无意间接触到了由各方面情报所组成的复合体,这又回到了漫画中的情报论范畴。而所谓“情报复合体”,在 TV 版的设定下,或许可以理解为就是超出人类自觉的“巨大意识”的雏形(来自权钱交易的广大受害者的怨念,出钱者的怨念,出权者的怨念,等等)。来自各方面的情报综合到一起,就形成了一个没有固定来源的原创拷贝。因此与其说是“无中生有”,不如说是以人类现有的能力无法查清楚其所有的来源。。。

稍微剖析一下的话,笑脸男人的心态完全可以用一句笑脸图标上的英文来表达:“I thougth what I’d do was. I’d pretend to be one of those (blind) deaf-mutes, or should I?”,这其实反映了笑脸男人孤立于社会之外,但是又心有不甘的“孤立情结”。为了获取情报或者其余不可知的理由,笑脸男人把自己禁闭在一个巨大的图书馆内,一方面与现实世界几乎脱节,一方面又不得不保持与外部世界的联系(比如通过网络)。其实这也是 Cyborg-Technology 时代的一种通病。这种通病的存在使得由孤立体所组成的大众对情报的敏感程度上升到一定范围,由于笑脸男人的心态与普通大众的心态之间存在彼此类似的 point,于是通过这些 point 之间的相互联系与共鸣,建立出了“由不存在的原创体(笑脸男人外在的公众印象)发出的原创拷贝(模仿笑脸男人的行为)”的关系,从而实现了 “Stand Alone Complex”这种互动,进而继续放大到成为一个广泛的社会现象。

另外有人说 SAC 其实也是素子的生活形态。。。但不管怎么说,这是在科技发达到一定程度,信息高度共享的时代才会发生的事情。一个极其方便而且巨大到无处不在的网络才是其滋生的土壤。。。

关于 SAC 的麦田守望情结,我所能记忆住的也就是那个巨大的“笑脸麦田圈”。之前其实也看过某强悍至极点的相关研究文,但是因为太过复杂看过就忘记了。。。

然后来看又是以素子“跳楼大作战”开始的 TV 版动画第二部“S.A.C 2nd Gig”。在开始唧唧歪歪的说明我个人观点之前先怨念一个:与前作一样的一月两集的速度实在是让人好等,而其在翻译上的难度更加延迟了字幕版的推出速度(谁让我日语苦手呢)。但是冲着其精良的制作与精彩的内容,也只有继续这么怨念下去了。。。

在这里先放出 Gig 的 OP“rise”中部分英语歌词,算是向大神菅野洋子致敬(关于她和她的音乐的介绍太多了,俺不多嘴),虽然这与帖子内容的关系不大,但请原谅我的任性吧。。。

Save your tears

for the day

when the pain is far behind

on your feet

come with me

we are soldiers stand or die

Save your fears

take your place

save them for the judgment day

fast and free

follow me

time to make the sacrifice
We rise or fall

写得超级带劲的词呢,哇哈哈。。。

回到正题。现在 Gig 仍在正在播出中,因此总体的指出其内涵对我来说有那么点勉强,而剧情也只是刚刚进入高潮,所以要说剧情的话实在也没什么好说的。总之这次用来讨论的故事是发生在流入日本的难民与个别主义者之间的冲突。内阁情报部的长官合田一人目前看起来似乎是推动冲突升级的罪魁祸首。

在第 1 集中侵占中国大使馆的某一个恐怖分子曾宣称“我们是个别的十一人,就算我们在这里被打倒,个别的自我也会继承我们的意志;所以对我们来说,死是没有意义的”。这句话明显有上部 TV 版“意识作用”的痕迹,但是也有不同。

作品中的所谓个别主义者,其实只是一些极端的民族主义分子以及对国家难民政策不满的家伙。他们对于国外流入的难民不但占用了大量的政府预算,同时还与日本国民竞争本来就不多的工作机会深恶痛绝,因此群起发动恐怖主义事件,或警告或要挟,希望以此达到在日本根除难民的目的。放大来说,对难民的敌视其实是广泛存在于日本国民之间的,因此“在人类自觉之外的巨大意识体”是成立的;但是与“Stand Alone Complex”不同的是,这种“巨大意识作用”开始进化,对于“触媒”的要求开始变得不那么明显,而且个别主义者相互之间的信念也开始趋于同步。简单的说,就是某一种广泛开展的运动不再需要一个明显的导火索,而转变为一种建立在对某种事物的共识之上的自觉运动;当然没有了导火索不代表没有别的东西,看起来作为幕后 BOSS 的合田一人其实就是推动个别主义运动加速公开化激进化的催化剂。所以相比前作的笑脸男人,合田的作用被隐蔽化以及小化了。以往那种“由个体带动群体”的模式被“由群体带动群体,某个体进行推波助澜”所取代。

合田发觉了国民对于难民的广泛敌视情绪以及个别主义的苗头,意识到社会在经历了笑脸男人事件之后具备了更高的敏感度,所以暗中推动了个别主义行动(动机是什么还只能靠猜),凭借前人所作的革命文集作为其个人意识的载体,不用自己出面就做到了在人群中散播“个别主义”的效果(通过将作为载体的文集注入潜伏性病毒而驱使读者按照其设定好的路线行动,而这些文集在我的理解中本身就宣扬了“革命是对现状不满的自救行为”这种观点)。而那篇其实是子虚乌有的未收录文集“个别的十一人”,一来作为潜伏性病毒的触发条件,二来也宣扬了以牺牲个人生命要挟政府的恶毒观念(第 12 集中那些个别主义者们就在镜头前挥刀互相斩下对方的头部)。如此一来要挟政府的目的达到,也起到了让更多人因为对个别主义的兴趣或者对个别主义者的同情而加入个别主义行列的效果(其实就是广告)。

而目前所能看到最新的有字幕版是第 15 集,虽然离 26 集完结的距离还很远,但其恰恰起到了如前作第 9 集一般的效果。所不同的是上次以一堆人进行网络聊天为形式而暗示主题,这次就换成塔奇克马之间的互相讨论。其中有几句话是极其重要的。比如“个别主义者虽然强调个体,但其实挺没个性”,这说明作为自以为与众不同的个别主义者,他们的行为反而因为同样的“意识作用”而殊途同归,相反一直进行着同步化的塔奇克马们,却因为其本身之上不存在生命体特有的 “巨大意识”(也就是说其没有明确的“自我”,无需考虑“我”怎样之类的问题),反而能在允许范围之内逐渐产生出差异性(这么说吧,趋向某种形式的完善的个体都会是类似的,而从零起步的个体产生差异性的概率极大);再比如“人在个人和集团之外另有主体能决定集团意识”,这正是所谓的“巨大意识”,其产生于个体的意识,反过来又引导着个体的意识,两者同样引导着社会的运作;还比如“人类是具有最合理的主体和意识的最小单位”,则对由人构成的集团的行动的影响,无论在宏观层次来看(还是指的“巨大意识”),还是从微观层次来看(人本身的某种意识,以及规模更小但对个体意识能够产生影响的某些因素),其最终都是作用到“人”之上,因此都是等效存在的;而最重要的一句“脱离自身意识的无意识作为整体意识而形成”,正是我一直所说的“巨大意识”的最好注解。

当然这仍然是在科技和网络发达到一定程度之后才可能发生的情况。当人类可以做到随时随地使用整合式通讯装置接入信息极其丰富且高度共享的网络时,这种情况才会加速发生。若将这种由人类产生但是在人类自觉之外的广大意识形态认为是“神”,将这种意识对行为的引导作用认为是“神的指引”的话,是否就可以说其实所谓的“神”就是安装了电子脑的人类自己呢?用封神中的话来说,那便是历史的道标啊。。。

能说的就说到这里了,也不保证在后来的剧情中我所说的这套歪论会被全盘推翻,总之,我个人的理解就只能说到这里了。。。对了,差点忘记还有随 DVD 附送的特典性质动画“塔奇克马的日常生活”,现在有两部,第一部 26 集,每集一分钟左右;至于第二部由于只看了一集,所以其余的也说不出什么了。总之是搞笑+可爱,顺便有对 TV 内容的补完(不仔细看的话看不出来),整体而言是一部轻松的作品,因此也没什么好说的了。。。至于游戏,我还没玩过呢。。。

TV 版动画与前作的区别还在于对于九课其余成员的刻画更加丰满和到位,荒卷、巴特和特古萨这三个一直保持着高出镜率的人不提,石川、斋藤、帕兹等人也有一定的戏份,这样九课作为一个整体的感觉更加强了,其成员的个性以及团队的合作也更加突出。在漫画中这些成员的出场往往是“某某,把 XX 整理出来” 之类的一两句对话而已,到了剧场版中他们的戏份就更加少了,身为配角真是悲哀啊。不过这也能说明 TV 版在商业考量上更进一步,其可看性相对更高。。。

记得在 Gig 第 11 集放出之后,各大论坛立马哀鸿遍野(夸张了,总之引起很大反响就是了),因为素子的初恋情人出现了,而且也是全身义体化。。。那么,目前看起来同样是全身义体化的人只有那个刺杀首相的白头男。。。所以,莫非是他?而且 Gig 的 OP 中也有个素子和他独处的画面,莫非真的是他?我能理解广大一边喊叫着“素子 JJ”一边几乎控制不住要暴走的 Fans 的心情,其实我也有点不爽。。。不过这又说明了 Gig 相比前作更加商业化了,居然史无前例的把情感纠葛要素提高到这个地步。。。口胡,这逆天的情感啊,明明只要有素子与巴特之间暧昧的同事关系供我们 YY 就足够了。。。但是从这一集中也可以看出全身义体化其实并不是“高级”的代名词,因为被全身义体化而随着年纪的增长需要不断的更换适合的义体,每次更换完之后还得从头经历一次由头至脚的适应过程。其繁琐与高成本导致了部分义体化成为真正的潮流。这样也回答了为什么在义体科技如此发达的年代还会有人老化的问题,一来是因为部分义体化,身体的自然部分总是会老化的,对应的义体也得换装;二来是因为 GHOST,其控制着人的一切,因此 GHOST 老化了,躯体对应也就老化了。。。

最后说说这部作品的标题。S.A.C 当然不用说了,前面已经解释了很多;2nd 字面理解,要么是“第二阶段”,要么是“第二部作品”,我个人偏向于使用前面那个解释;最困难的就在于 Gig 是什么,因为官方没有给出解释,我在网上查了很久,结果查到的一个解释居然是 game in game,瀑布汗。。。也有说是 Ghost in Ghost 的,这种说法应该说还算合理,假如理解成因为 Ghost 的互相渗透而实现了无需导火索的同步互动的话,不过总觉得还是含糊和片面了点;另外的答案还有 Ghost inosculate Ghost(灵与灵的融合),此解释也比较合理,相比 Ghost in Ghost 的解释应该更为明确,正好可以作为 SAC 第二阶段的解释而存在;还有一个怎么看怎么扯谈的解释:Global Information Grid。。。最后无奈之下只好到 Production I.G 官方网站的论坛里面去求证,得到了一个这样的答案:

Well, it doesn’t have an official meaning like SAC does (Stand Alone Complex).

Dictionary.com defines it as:

A demerit given in the military.

A job, especially a booking for musicians.

A playful or wanton girl; a giglot.

这便是传说中的国际玩笑了吧。。。
PS: 不知道已经是多少次看关于 STAND ALONE COMPLEX 的作品以及相关评论了 只是每次总能看到更多的东西。

沉浸其中,几乎忘记了现实。

Stand Alone Complex

发表于 2006-06-19 | 分类于 影视

Stand Alone

曾经以为我对机器人的认识已经很深刻,看了攻壳以后才发现原来自己很幼稚。也许我会一直幼稚下去。突然想起那次点名”做过的最幼稚的事是什么?”也许就是认为自己不再幼稚了吧。那一天。 如果用一句话来形容“攻壳机动队”这部动画片的话,也许就是许多网友所说的“看完这部动画,发现其他的动画都那么幼稚。”我看的动画不多,不敢妄加评论。不过,这是唯一一部我看完之后写观后感的动画,而且几乎每集都写。想把它完全说明白,几乎是不可能的。下面仅仅引用两篇 Space 文章来佐证它的深刻。如果你感兴趣,请看原动画 + 剧场版。

两部动画的第十五集都写得很深刻,如果你只想看两集的话,这两集的收获一定最大。

两部动画的最后一集都看了两遍,一共哭了四次。所以不想再看了,怕再哭。

由于主题需要,以后将主要讨论动画中涉及的机器人技术及人工智能。尽管它们仅仅是动画的一小部分

Stand Alone

Stand Alone

Stand Alone

内生假说

发表于 2006-06-14 | 分类于 科学

高中学生物的时候经常做到的题目是:

下列细胞器中含有均含有 DNA 的是:()

A. 核糖体和中心粒
B. 高尔基体和线粒体
C. 线粒体和叶绿体
D. 叶绿体和溶酶体

答案:C

而于此相关的是蓝藻的特点:

蓝藻

蓝藻为原生生物,即核质与细胞质之间不存在明显核膜。蓝藻细胞具有明显细胞壁,无细胞器和细胞核,仅具原始核,故称为原核生物。在进化上比具有真核的细胞原始,因此蓝藻在植物进化系统研究上具有极其重要的地位。关键是课本上蓝藻的插图太特别了,细胞壁外厚厚的一胶质层。

让人不得不产生联想: 是不是因为蓝藻的细胞壁太厚了, 阻止了其他细胞器的产生? 有一天, 在综合楼的一份小报上, 看到了”内生学说”假说.

内生学说简介

最早提出内生说的是 A. F. Schimper,他在 1883 年发现绿藻和高等植物的叶绿体能够自行繁殖分裂,并发现它们在形态上与自由生活的蓝藻很相似,从而提出质体来自寄生的蓝藻的假说。这时的共生说还没有受到多少重视,主要是由于证据太少。20 世纪 60 年代以后,随着细胞超微结构和细胞生物化学研究的发展,共生说又逐渐流行起来。

线粒体和叶绿体起源于古代细菌内共生的证据如下: 线粒体和叶绿体都含有 DNA,这些 DNA 与细胞核中的很不同,却类似细菌的 DNA(环状及其大小)。 线粒体具有和真核宿主细胞不同的遗传密码,这些密码与细菌和古菌中的很类似。 它们被两层或更多的膜所包被,其中最里面一层的成分与细胞中其它膜的都不同,而更接近于原核生物的细胞膜。 新的线粒体和叶绿体只能通过类似二分分裂的过程形成。在一些藻类中,如眼虫 (Euglena),可以用药物或长时间缺乏光照来破坏叶绿体而同时不影响细胞。这种情况下,叶绿体不能够再生。

叶绿体
线粒体

  • 叶绿体的很多内部结构和生物化学特征,如类囊体的存在和某些叶绿素和蓝藻很接近。对细菌、叶绿体和真核生物基因组构件的系统发生树同样支持了叶绿体与蓝藻更接近。* DNA 序列分析和系统发生学表明了核 DNA 包含了一些可能来源于叶绿体的基因。

  • 一些核中编码的蛋白被转运到细胞器中,而线粒体和叶绿体的基因组相对于其它生物来说都小得多。 这和内共生物形成后越来越依赖真核生物宿主相一致。* 叶绿体存在于很多完全不同的原生生物中,这些生物普遍和不包含叶绿体的原生生物更接近。这表明了,如果叶绿体起源于细胞的一个部分,很难解释他们多次起源而互相又非常接近。

  • 细胞器的大小与细菌相当。

  • 细胞器的核糖体和细菌相似,都是 70S。

假说的意义

虽然目前还没有决定性的证据来证明这个假说,接受它人已经越来越多了。而这个假说的意义,已经不仅仅局限于对生物进化过程的解释了。

在南非的岩石中所发现的化石表明,距今 31-34 亿年前蓝藻类(蓝细菌)开始形成。蓝藻是能够进行光合作用的原核生物。最早的真核生物的出现大约在距今 14-15 亿前。真核生物的起源是生物演化史上的一个重大事件,因为伴随着真核生物的形成,染色体、减数分裂和有性繁殖开始出现。生物越来越快的进化历程和蓝藻的三十亿年如一日的不变, 这种对比, 给人以强烈的震撼。

不得不说,蓝藻是进化上相当成功的一个物种。在几十亿年前,就建立了一个稳定的结构。在随后的时间里,风云变换,沧海桑田,无数新的物种产生了,灭绝了。蓝藻能够存活下来,他那致密的保护层,一定功不可没。然而,这种保护,却永远的阻止了蓝藻的进化进程。不知道这是一种必然,还是大自然的讽刺。一些原核生物的细胞壁比较薄, 或者一些蓝藻发生了变异, 胶质层变得比较薄。这些细胞肯定更容易受到病毒的攻击,肯定有许多物种灭绝了。最终,有一些细胞完成了和线粒体、叶绿体的共生融合。从此,它们具有了更快的能量转化手段。越来越多的细胞器产生了,细胞核成型了。然后,多细胞生物产生了,自然进化进入快车道。一直到进化出具有高级智能的人类。

这再一次证明只有开放,才能进步。

封闭,一成不变,对于单个细胞,对于个人,对国家,都只能导致落后。许多人都认为,人类的自然进化已经基本停止了。

许多人都认为,人工智能的水平正在迅速的增长。

此消彼长,到底有一个怎样的未来在等着我们?

如果说,原核生物的进化仅仅是随机的偶然。

那么,具有高等智慧的人类,还要消极的等待大自然掷色子么?

也许,主动的开放,才是人类的正确选择。

也许,面对人工智能的挑战,人与机器的融合,才是人类的唯一选择。

现在,肢体有残疾的人可以移植机械手臂。

这些手臂已经能够与神经信号进行简单的交互。

全内置的人工心脏,已经有了存活一百多天的实例。

那么,到底人类能在这条道路上走多远,如果人机融合成为现实,又将产生哪些问题?也许,我们能从一部漫画(攻壳特工队)中得到一些启发。

《机器的征途》

发表于 2006-06-08 | 分类于 个人

在我高中时的某一天,我在科幻世界的广告上看到了萨根的 << 宇宙 >>. 久仰其大名, 决定邮购一本, 好像有一个买两本多打折的活动, 于是另外选了一本陪嫁–<< 机器的征途 >>.<< 宇宙 >> 仅仅扫了一眼插图就不知扔到哪里去了.<< 机器的征途 >> 确改变了我的一生.

整书的结构看起来有点乱。但是如果希望只通过一本书,就让人相信机器人可能会变得比人类更聪明,相信机器人可能会取代人类。几乎是 Mission Impossible。我看这本书之前,就相信机器人会更聪明的,所以不知道这本书能不能达到这个效果。但是有一点是肯定的,如果没有这本书,我选择自动化专业的可能性,几乎为零。 (这篇文章真的很难写,每次都刚打几个字就写不下去了,也许是太想把它写好了. 也许是因为这本书融入了我的思想, 盘根错节, 以至于已经无法区分出到底哪些是在这本书之前就有的想法, 哪些是这本书带来的. 思想本身也是”chaos”的吧, 这本书贡献了蝴蝶的一支翅膀. 所以,我唯一能做的,也许就是简单地描述一下,这本书之后,有了哪些想法) 比如第七章,讨论了一个问题:“人类是最优秀的吗?”。也许对许多人来说,这是无需置疑的。人类是地球上唯一的高智慧生物,唯一具有创造性,具有丰富的情感……机器的智能永远赶不上人类,许多人还不忘加一句“因为机器人是人类创造的”。

单纯的讲这种优秀,其本身就有问题。任何事物,都具有两面性。人在许多方面最优秀的同时,许多方面也最黑暗。许多时候,人并不能理性的思考问题,人类智慧突飞猛进之后,自然界的平衡越来越不稳定了。尤其是原子弹发明之后,地球有了瞬间毁灭的可能。在临界稳定点上,到底怎样做才能保持自然社会的长久发展?在这一点上,我有一些想法。我知道这些想法本身也是危险的,非理性的。每个人,都会有 Dark Side。也许黑暗本身并不可怕,可怕的是我们不知道如何面对它。扯远了…引用书中的一段话

“我们所思考的并不是在身体和智力上都是人类复制品的机器. 为了能够更好的观察我们面临的情况, 我们需要抛弃我们是人的想法, 要抛弃我们永远是最优秀的物种, 从我们这里再也不会进化出其他物种的想法. 是我们认识到具有意识的人类大脑并没有什么神秘可言, 人的大脑只不过是一个物质的实体, 我们就是这个样子: 是大脑和身体活动的一种状态. 我们只不过是进化链上的一部分.”

看完这本书之后, 在我的脑子里, 人工智能全面超过人类, 仅仅是一个时间问题. 所谓全面超过是指, 任何的智力活动, 人工智能都至少和人类同样优秀; 在相当多的智力活动中, 人工智能将远远超过人类. 在这个基础上, 人类几乎百分百被机器人统治, 或者说如果人工智能觉得人类无用的话, 人类就灭亡了. 后一种可能比较小, 因为现在人们已经认识到, 保持生物多样性是重要的, 那么, 智能比人高的机器人同样也能认识到这一点.
几乎任何人都不愿意成为机器人圈养的大熊猫. 所以书中也提出了一个问题”我们能够做什么来改变这种趋势吗?”机器的智能肯定会越来越高…那么把我们塞入机器的躯壳中, 让我们的生命在新的躯体和新的大脑中得以延续如何?”
“为了提高人类大脑的运作水平, 难道就没有可能将额外的内存或额外的处理功能–比如说以硅片的形式–直接联接到大脑上吗?…把硅芯片植入人的大脑是由吉布森小说中的构想而流传开来的想法, 这一想法看上去并不怎么明智. 人类大脑的尺寸已经进化得基本上可以应付需要它做的工作, 所以我们应该考虑向大脑外挂芯片, 而不是植入芯片. 这样, 不同的芯片可以做不同的工作.

在这一点上, 从心理上讲, 我是保守的人. 许多人劝我做准分子激光手术摘掉眼镜, 我想都不想就把它否定掉了. 即使是把眼角膜弄薄一点这种小手术, 我都无法接受. 植入一个芯片, 即使技术上完全可能的话, 也会有一个常人无法逾越的心理鸿沟.

但是, 有一天, 我的想法有了变化. 了解了线粒体, 叶绿体的”内生学”假说之后. 我在这本书的第一页上, 写下了下面一段话:

“统治–被统治

人与机器并非完全对立的, 假如这种对立存在(就像南北战争前的黑人和白人), 机器人运动就必然产生, 暴力不能解决问题–统治着的变更? 融合才是唯一的出路. 从原生藻与线粒体, 叶绿体的融合到人与机器人的融合, 这个世界又将天翻地覆.” 然后,在高考填志愿的时候,自动化几乎成了唯一的选择。

理性的局限

发表于 2006-06-07 | 分类于 科学

数学是纯粹的、显然的、不存在实体的抽象。“在纯粹的数学中,我们不知道自己正在说什么,也不明白我们所说的什么才是正确的”。数学,代表了绝对的理性。

笛卡尔就是一个理性主义者,认为人类应该可以使用数学的方法――也就是理性――来进行哲学思考。他相信,理性比感官的感受更可靠,所以对每一件事情都要进行怀疑,而不能信任我们的感官。而当人在怀疑时,他必定在思考,由此他推出了著名的“我思故我在”(Cogito ergo sum)。人需要从理性的原点出发,不依靠任何已有的知识来思考。笛卡尔相信人可以不依靠现有的知识,仅凭理性就可求真:用数学和物理就可以认识物资世界;凭沉思 (Meditation) 就可以达到精神的理解。 他的墓碑上刻了这样一句话:“笛卡儿,欧洲文艺复兴以来,第一个为人类争取并保证理性权利的人。”

于是乎,后来的数学人大都把用数学统一世界作为自己的理想。这个理想在希尔伯特身上达到极致,在 1900 年,他提出了著名的希尔伯特问题,共 23 条,包含了当时数学上悬而未决的主要难题。他希望人们花时间弄清楚它们,困难虽大,但这些难题破解之时,它们的光辉将照耀以之为基础的更广阔领域。

其中第二个问题,要证明算术公理的相容性,第十个问题,是判定问题,问题是设计一个过程,根据它可以确定是不是任何问题通过有限步都能得以解决。这是希尔波特最重要的两个难题,它们击中了数学哲学的心脏,以最直接的方式检验它的能力。因为悖论和无限的问题,当时的数学已经出现了危机。他希望用元数学解决数学危机,并启动了希尔伯特计划,以保卫古典数学 ,避免悖论。

对于判定问题,丘奇和图灵同时对其发起进攻。他们用不同的方法都给出了否定的答案。其中图灵发明了“逻辑计算机”也就是图灵机来进行证明。图灵机成为现在数字计算机的原型,《论可计算数及其在判定问题中的应用》则成为阐明现代电脑原理的开山之作,被永远载入了计算机的发展史册,照耀着现代电脑的前进方向。而冯. 诺依曼也亲手把“计算机之父”的桂冠转戴在这位英国科学家头上。

图灵也是人工智能的奠基人, 他相信机器可以模拟人的智力,也深知让人们接受这一想法的困难,今天仍然有许多人认为人的大脑是不可能用机器模仿的。而在图灵认为,这样的机器一定是存在的。在《计算机器与智能》这一划时代的论文中,图灵提出了人工智能的行为主义检验方式:图灵实验,成为当之无愧的人工智能之父。而图灵对判定问题给出的否定,似乎也说明:仅靠逻辑判断,机器是不能获得人的智能的。

对于希尔伯特第二问题,哥德尔同样给出了否定的答案。这一否定,给了希尔伯特计划最致命的打击。哥德尔定理成为 20 世纪逻辑学最漂亮的成就。在 1931 年的文章《论数学原理及有关系统中形式上不可判定的命题》中,哥德尔说明了在任何公理化的数学体系中,以系统公理为基础,都存在无法证明或者反驳的元数学命题。最终,数学是不完备的。这意味着存在无限个数学陈述,虽然它们有可能是真的,但是无法从给定的一套公理中推导出来。这就是纯粹理性的局限。

康德认为,人的大脑以某种方式进化,从而具备对自然数机器对应集合的处理能力。对这些概念进行简单的操作以及基本的逻辑,已经结构化的存在于大脑的神经网络之中。但是这不是大脑的唯一才能。任何人都不应该妄图以绝对的理性解释这个世界、指导自己的行动。因为理性的局限,总有一天,他会死得很惨。

“真理是纯粹的,但是从来不简单”。

自动化之路 之 一部电影

发表于 2006-05-31 | 分类于 个人

自动化之路

——一部电影,一本书,一个假说,一部动画

今天中午吃完饭就到 D 楼泛函教室,擦完黑板突然进来很多人,我正纳闷,系主任李少远进来了,原来这个教室正好被用来公布本科选专业结果。于是我问自己,为什么选择自动化专业,为什么选择机器人方向。我想到了许多许多, 但一路走来,其实只有几个具有决定性的意义。概括起来,大概就是一部电影,一本书,一个假说,一部动画。

一部电影

Money flow

在国外电影受严格管制的时代,正大剧场成为展示国外优秀电影的窗口。在这些电影之中,给我印象最深刻的,莫过于《霹雳五号》。

虽然与机器人有关的电影,动画片很多,阿童木、小叮铛、变形金刚都风靡一时,但是,这些机器人,给人的感觉就是:它们几乎永远都不能实现,它们只能永远存在于我们的想象中。而这部电影,第一次让我感到,一个智能的机器人,也许并不遥远。

一个生产军事武器的机器人公司,生产出了世界上最先进的攻击机器人。展示中,一队假想敌瞬间就被五个机器人消灭。但是这些机器人依然只能按照指令操作。在展示结束后,机器人五号意外的被雷电击中。机器人的电路发生短路(Short Circuit),并产生了变化,自我产生了,生命产生了。(由于不知道如何能够达到高级的人工智能,绝大多数硬科幻都采用这种偶然的手法,绝密飞行好像也无法在这一步有所创新。

机器人阴差阳错,离开了基地,在于外界的接触中,不断学习,不断适应,智能水平越来越高。学会了开车。学会了使用工具。

这里,机器人五号用眼睛夹起扳子,砸开了主电路开关,这一幕,让人震惊。必将成为 AI 电影中,永恒的经典。

而最让人惊讶的就是在最后才发现,五号居然用备用零件组装了一个机器人,上演了”金蟾脱壳“,这种峰回路转的感觉,永生难忘。

也许,看完电影不久,我就基本把它忘了。但是,如果真的要确定一个时间,把自己同机器人联系起来的话,那就是从看这部电影开始。

当我重新看了一遍这部电影的时候,又有了新的收获。

也许,这就是经典的价值所在。

计算机器与智能

发表于 2006-05-25 | 分类于 科学

A.M. 图灵

  1. 模仿游戏

我建议考虑这样一个问题: “机器能够思考么?” 要回答这个问题, 我们需要先给出”机器”和”思考”的定义. 我们可以用尽可能接近它们普通用法的方式定义这些词语. 但是这种方式是危险的. 如果使用这种方式, 我们很可能会用盖勒普调查那样的统计方式来得出”机器能够思考么”这个问题的结论及其意义. 显然, 这是荒谬的. 因此, 我没有尝试给出一个定义, 而是提出了另外一个问题. 这个问题和原问题紧密相关, 而且通过并不含糊的词语给出. 这个新的问题可以通过一个游戏来描述, 不妨称之为”模仿游戏”. 需要三个人来玩这个游戏. 一个男人 (A), 一个女人(B) 和一个询问人 (C) 男女皆可. 询问人呆在一个与另外两人隔离的屋子里. 游戏的目标是询问人判断出外面的人哪个是男人, 哪个是女人. 询问人用标签 X,Y 代表外面的两个人, 游戏结束时, 他要说出”X 是 A,Y 是 B”或者”X 是 B,Y 是 A”. 询问人 C 允许向 A 和 B 提出下面这样的问题:

C: X, 请告诉我你头发的长度.

现在假如 X 实际是 A, 那么 A 必须回答.A 在游戏中的目标是努力使 C 做出错误的判断. 他的回答可以是:

我的头发乌黑发亮,最长的一缕大概九英寸长. 为了排除声音帮助询问者得出结论, 问题的答案可以写出来, 打出来更好. 理想的安排是使得两个屋子又远程打印通讯. 也可以通过中间人传递答案. 而 B 在这个游戏中的任务是努力帮助询问者获得正确的答案. 她的最优策略可能就是给出正确答案. 她可以在她的答案中加入”我是女的, 别听他的.”这样的词语. 但是男人 A 同样也能做出相似的评论. 所以这并不能提供更多的帮助. 现在我们提出这样一个问题,”如果用一个机器担当 A 的角色”, 将会发生什么情况? 同与两个人玩这个游戏相比, 询问者判断错误的频率是否发生变化?

这个问题取代了原先的”机器能够思考么?” 这个问题.

2。对 新问题评析

你可能会问:”新问题的答案是什么?”。同样也可能问:”这个新问题真的有研究价值么?” 我们先解决第二个问题,因此不会进入一个无限的循环。 这个新问题的优势在于它把一个人的体力和智力完全区分开来。没有任何工程师或化学家宣称能够生产出和人的皮肤完全相同的物质。在未来的某天,这可能成为现实。但是尽管这样的发明是可能的,赋予一个”思维机器”人的皮肤对于让它更像人并不能提供更大的帮助。我们设置问题的方式考虑到了这个问题。因为我们让询问者无法看到,接触到或听到其它的游戏者。新的评判标准的其它优势在下面的样例问题和回答中显示了出来。 问: 请写一首以 Forth Brige (译注:1890 建成于英国,开现代桥梁建造的先河)

A: 我无能为力,我从来都不能写诗。

问: 34957 加 70764 等于多少?

A:(停了三十秒钟后给出答案) 105621。 问: 你玩象棋么?

A: 玩。

问: 我的 王 在 K1,没有别的棋子了,你只有王在 K6, 车 在 R1。 该你走,你走哪步?

答:(十五秒钟的停顿后) 车移动到 R8,将军。 这种问答形式几乎适用于我们想要包括的人类行为的一切形式。我们不希望因为一个机器不能在选美比赛中胜出就认为它无能; 正如我们不能因为一个人不能在和飞机赛跑的比赛中胜出就认为他无能一样。我们的游戏设定让这些无能变得无关紧要。只要参与者认为合适,他们可以吹牛。可以把自己描述成魅力无限,强壮无比,英勇无畏。而询问人无法要求他们做实际的展示。 对这个游戏的批评可能是: 机器在游戏的成败中占有了过多的比重。如果一个人试图假装成一个机器的话,他肯定是一个蹩脚的演员。他会由于算术方面的缓慢和不准确立即暴露。机器会不会解决了一些应该是思考的问题,其解决方式却和人的方式相差甚远? 这个反对意见确实很棘手。但是,至少我们可以说,尽管如此,机器可以被设计得可以很好的玩这个模仿者游戏。我们不需要对这个问题过分担心。 有一种情况是机器在玩模仿者游戏时的最佳策略是做别的事而不是模仿人的行为。这种情况是可能的。但是我认为这样的情况并没有付出多大的努力。 不管怎样,本文并不试图研究这个游戏的理论。我们假定机器的最优策略是努力提供和人一样的答案。

3. 游戏中的机器
在 1 中提出的问题只有当我们确定“机器”这个词的意义的时候才是确定的。自然,我们希望一切工程科技都允许使用在我们的机器上。我们同样希望有这样一个可能: 一个或一组工程师制造出一个可以工作,但是其工作方式却不能被它的建造者很好的描述,因为他们使用了一个基于试验的方法来设计它。最后,我们希望把通过生育诞生的人从”机器”的概念中排除出去。要让定义同时满足这三个要求是困难的。例如,你可能会要求这些工程师都是同一个性别,但是这实际上也是无法满足要求。因为通过单个人的一个皮肤细胞产生一个完整的个体不是完全不可能的。这将是生物科技的具有划时代意义的突破。但是我们并不希望把它成为”建造了一个思维机器”。这就要求我们放弃允许一切的科技的打算。我们更愿意这样,因为目前“思维机器”的研究热点集中在一种特殊的,通常被称为“电子计算机”或“数字计算机”的机器上。因此,我们仅仅允许“数字计算机”参加我们的游戏。 第一眼看上去,这个限制过于严格。事实上并非如此。首先我们需要简要的了解一下这些计算机及其它们的一些性质。 你可能会说: 万一数字计算机不能如我所愿,即不能在游戏中有所表现,把机器完全用数字计算机代替就只能令人失望,会像我们为”思考”定的评判标准一样。目前已经有许多数字计算机在工作,人们可能要问:”为什么不拿一台直接作实验?很容易就能满足游戏的要求。同时用许多的询问者参加游戏,然后统计出判断正确的概率。”对这个问题的简要回答就是: 我们并不是要问是不是所有的数字计算机都能在游戏中表现良好,也不是要问现在的计算机中有没有机器能够通过实验。而是要问: 是否存在一台想象中的机器能够通过游戏。这仅仅是一个简要回答,后面将从另一个角度考虑这个问题。 4 数字计算机 数字计算机可以被解释成可以执行一切计算人员能够进行的操作。一个计算人员应该严格遵守规则; 在一切细节上,都没有一丝偏离的权力。我们可以假设这些规则写在一本书上。每次被分配新的任务的时候,将会改变执行步骤。他有无限的纸进行计算,他可以用”算盘”进行乘法和加法运算,这并不重要。 如果使用上述解释定义数字计算机,我们可能陷入循环定义。为防止这种情况发生,我们列出期望结果得出的方式。一个数字计算机通常由一下三个部分组成。

(i)存贮器 (ii)执行单元 (iii)控制器存储器用来存贮信息,对应于计算员的纸。纸上既记录了他的计算过程,也记录了他所遵循的计算步骤。同样,如果计算员进行心算的话,一部分存储器将对应于他的记忆。 执行单元是一次计算中单个操作进行的场所。操作对象随着机器的不同而不同。通常一个相当长的操作可能是:“3540675445 乘以 7076345687”,但是一些机器可能仅能够执行“写下 0”一类的简单操作。 上面曾经提到计算员的“记录操作步骤的书”由机器中的一部分存储器代替。不妨把它们称为“指令列表”。控制器的职能就是保证这些指令按照正确的顺序得到正确的执行。控制器的设计使得这成为可能。 存储器上的信息通常被分为许多的小包存放。例如,在一个机器中,一个包由十个十进制数组成。每个存储信息的包都以某种系统的方式分配了数字。一个典型的指令可以是:

“把存放在 6890 的数加上存放在 4302 的数相加并把结果存入后一个存储位置。”显然,机器中的指令不会用英语标示。这个指令更有可能用 6809430217 这样的形式来表示。这里,17 指定在可以对这两个数进行的所有操作中的哪个被执行。这里的操作如上所示是”进行加法操作。。。 “请注意,这里的指令共占用了 10 个数字因此正好可以放在一个存储空间中,非常方便。控制器保证指令按照它们的存储顺序被执行,但是偶尔可能碰到下面的指令: “现在执行存储在 5606 的指令,并从那里继续执行。” 或者是

“如果 4505 位置是 0 ,那么执行存储在 6707 的指令,否则继续” 后面这种指令非常重要,因为它使得我们能够反复执行一段指令直到满足一些条件。要达到这个目的,在每次执行时不要改变指令,而是一遍一遍的执行相同的指令。可以用家庭生活情况做一个类比: 如果妈妈想让汤姆每天上学时都到修鞋匠那里看看她的鞋是不是修好了。妈妈可以每天都告诉他一遍。另一种方式是,在一个汤姆每天上学都能看到的地方贴各个便条告诉他到鞋匠那里去看一下,当汤姆拿回他的鞋的时候,撕掉那个便条。 读者必须接受计算机可以而且事实上正是按照我们所提出的原则建造的。这些计算机几乎能够完全模仿一个计算员。 上面我们提到的计算员要遵守的写在书上的步骤实际上仅仅是一个设想。一个实际的计算员总是能够记得他们需要做什么。如果一个人想让机器模仿计算员执行复杂的操作,他必须告诉计算机要做什么,并把结果翻译成某种形式的指令表。这种构造指令表的行为通常被称为”编程”。”给一个机器编程使之执行操作 A”意味着把合适的指令表放入机器以使它能够执行 A。 一个数字计算机的一个有趣变化是让其成为”带有随机元素的数字计算机”它们有特定的指令进行掷色子或者别的等价电子过程。例如其中一个是”掷色子并把结果存入 1000。”有些时候这样的机器被描述为具有自由意志。(尽管我自己并不使用这个表述) 通常并不能通过观察判断出一个机器有没有随机元素。因为一个相似的效果可以通过依据 Pi 的小数部分进行选择来产生。 绝大多数的数字计算机具有有限的存储空间。让一个计算机获得无限的存储空间并不存在理论困难。当然,在任何时候都只有有限的不分被使用。同样,只有有限的存储空间被建造。不过我们可以想象越来越多的存储空间可以根据要求添加。这样的计算机具有特殊的理论价值,将被称为无限容量计算机。 有关计算机设想的很早就产生了。 1828 至 1839 年担任剑桥大学的 Lucasian 数学教授的 Charles Babbage 设想了这样的机器,并称之为分析机。但是并没有完成它。尽管 Babbage 有了所有的关键思想,他的机器在那个时代却没有吸引人的前景。它能够达到的运算速度肯定比一个计算员要快但是仅相当于曼彻斯特机的百分之一,而曼彻斯图机也是现代计算机中相当慢的一个。分析机的存储全部由用轮子和卡片组成的机械实现。 事实上,全部由机械实现的 Babbage 的分析机帮助我们破除了一个迷信。通常我们对现代计算机是电子的这个事实给予相当的重视。同样,神经系统也是基于电的。因为 Babbage 的机器是没有使用电,而所以的数字计算机在某种意义上都是等价的。我们就会明白使用是否使用电理论上并不重要性。当然,当需要高的运算速度的时候,需要使用电气结构。因此,我们就会发现在这些地方使用电是理所当然的。在神经系统中,化学过程至少和电过程同样重要。某些计算机的存储器主要基于声学原理。计算机和神经系统都使用电仅仅是表面的相似。如果我们希望寻找这样的相似,倒不如对函数进行数学分析。 5 数字计算机的通用性 上一部分给出的数字计算机可以被归类为“离散状态机”。这类机器可以从一个确定状态向另一个状态突然跳变。为了不会有混淆这些状态的可能,它们之间要有足够的差别。严格的说,这样的机器是不存在的。一切事件实际上都是连续的。但是有许多种机器能够被看作离散状态机器。例如在照明系统中的开关,我们可以把开关看成只有开和关两个状态。它们之间肯定有转换过程,但是在绝大多数情况下可以忽略它们。作为离散状态机器的例子,我们可以考虑一个每秒嘀嗒 120 度的轮子,这个轮子可能因一个杠杆的阻挡而停下来,在轮子上有一个发光的灯。这个机器可以被抽象的描述为下面的形式。机器的内部状态 (通过轮子的位置来描述) 可以是 q1,q2 和 q3。输入信号是 i0 或 i1(杠杆的位置)。任何时候的内部状态可以根据上一次状态和输入信号由下表描述:

输出信号可以用下表描述,它是唯一能够被外部观测的内部状态指示器。

这个例子是一个理想的离散状态机。只要它们的状态是有限的,它们就可以用这样的表格描述。 可以看出,只要给出初始状态和输入信号,所有的未来状态都是可以预测的。这让我们想起了拉格朗日的观点。那就是,只要给出宇宙中任意时刻所有粒子的位置和速度,就能够预知未来的所有状态。我们考虑的预测和拉格朗日相比较更接近于实用性。因为”宇宙是一个整体”的系统,所以只要初始条件的一个很小的误差,就会引起系统在一段时间以后变得完全不同。某个时刻一个电子位置的亿万分之一厘米的偏移,将决定一个人会在雪崩中死去还是逃生。我们称为”离散状态机”的机械系统的一个核心性质就是,这样的现象并会发生。即使是考虑一个实际的物理系统,而不是理想机器,只要知道了某个时刻足够精确的状态信息,就可以足够精确的预测未来的一切状态。 正如我们所提到的,数字计算机属于离散状态机。但是这样的机器所能够达到的状态通常是相当大的。例如,现在在曼彻斯特工作的机器可以有 2^165000 个状态,也就是大约 10^50000。而在上面的嘀嗒轮的例子中,仅有三个状态。找到有如此多状态的原因并不困难。计算机具有一个存储器,对应于计算员的纸。这些存储器中应该能够写入任何能够写入计算员所用纸上的符号。为了简单起见,假设仅仅实用从 0 到 9 的数字作为符号。忽略手写体的差别。假如计算机具有 100 张每张 50 行,每行 30 个数字的存储空间。那么状态的数目就会是 10^(1005030)即 10^150000。这大约是三个曼彻斯特机状态的总和。状态数的基为 2 的对数通常被称为机器的”存储大小”。因此曼彻斯特机的存储大小是 165000 而上面例子中轮子的存储大小是 1。6。如果两个机器加在一起,他们的存储大小应该是原来存储大小的和。因此我们可以说”曼彻斯特机具有 64 个磁带存储器每个存储器的大小是 2560,还有 8 个电子管,每个容量为 1280。各种各样存储器加在一起大约是 300 个,总共 174380。 只要给出对应于离散状态机器的表格,就能够预测出机器将会做什么。这样的计算当然能够通过电子计算机进行。只要执行的足够快,电子计算机就能够模拟任何离散状态机的行为。这样,模范者游戏就变成机器作被问者 (B),善于模拟的计算机作 A,那么询问者就不能区分它们。当然,数字计算机必须有足够的存储空间,运行的足够快。而且它在模范不同的机器之前必须被重新编程。

数字计算机可以模拟任意离散状态机器的性质被表述为”他们是通用机器”。具有这样性质机器的存在带来的一个重要结果就是,不考虑速度,我们并不需要设计出不同的新机器来执行不同的问题。它们都可以用一个数字计算机来实现,只要根据没种情况进行适当的编程。可以看出,这表明所有的数字计算机在某种意义上是相互等价的。 现在重新考虑在 第三部分末尾提出的问题。暂时把问题“机器能够思考么?”用“是否存在假想中的机器能够在模范游戏中表现良好。”代替。 如果我们愿意,我们还可以问”是否存在能够表现良好的离散状态机”但是由于通用性,我们可以看出这两个问题都等价于”让我们把注意力集中在一个数字计算机 C 上。如果我们可以让它具有足够大的存储空间,足够快的计算速度,而且对它进行适当的编程。C 扮演模仿游戏中 A 的角色,人扮演 B 的角色,C 能不能在这个游戏中表现良好?”

6 主要问题的对立观点 现在,我们认为基础已经打好,并准备就“机器能否思维?”这个问题继续进行辩论……我们不能全盘摒弃最初的那个问题形式,因为在考虑代换是否恰当这个问题时,会有不同的意见,因此,我们至少必须考虑这方面必须说些什么。 我想要是我先就这个问题阐述一个自己的看法,那么,读者就会觉得问题会更简单一点。首先让我们来看看这个问题的更确切的形式。我认为在50年的时间里,计算机的信息存储量可达到大约 10^9,这样的话,计算机在模拟游戏中就会很顺利,一般的提问者在5分钟提问后,能准确鉴别的概率不会高于70%。原来那个“机器能够思维吗?”的问题我认为没有什么意义,不值得讨论。然而,我认为本世纪末,由于词汇用法会有较大的变化,普遍的学术见解也会改变,那时候人们又能重新谈思维机器而不会自相矛盾。我还认为,如果掩盖这些看法,决不会带来任何益处。人们普遍认为,科学家进行科学研究工作,总是从可靠的事实到可靠的事实,

从来不受任何未经验证的假设的影响。这种看法实际上是错的。假如能清楚地划分哪些是经过证实的事实,而哪些又是未经验证的假设,那也没有什么害处。假设往往是非常重要的,因为它们为研究暗示了有益的研究方向。 我现在谈谈与我的看法相对立的观点。 (1)来自神学的反对意见。思维是人的不朽灵魂的一种功能。上帝赋予每一个男人和女人以一颗不朽的灵魂,但从未将它赋予任何其他的动物或机器。因此,动物或者机器不能思维。 尽管我不能接受这种看法,但我试图用神学的语言来回答这个问题。如果将动物和人划为一个类别,我认为这个观点更有说服力;因为,在我看来,生物与非生物之间的差别远远要比人和其他动物之间的差别大得多。如果这种正统的观点出现在其他宗教社会里,它的主观武断性就更加明显了。伊斯兰教认为妇女没有灵魂,基督教对此有何感想?但是,现在暂不管这一点,让我们回到问题的焦点上来。在我看来,上面所引的论点对上帝威力的万能性有很大的限制。上帝对有些事情也是无能为力,比如,无疑他不能让1等于2;但是,我们难道不应该相信,要是上帝觉得合适,他完全可以赋予一头大象以灵魂吗?我们可以希望,上帝可以通过自己的威力造成变种,由于变种,大象有了一个较发达的大脑,可以用来满足灵魂的需求。同一形式的论点也可以用来解释机器。只是看上去也许有点不一样,因为“轻信”就不那么容易了。但这其实只能说明,我们认为上帝不太可能觉得这些环境适合于授予灵魂。关于环境问题我们将在本文的其余部分进行讨论。在企图制造这样的机器时,我们不应该无礼地篡夺上帝创造灵魂的权力,就像不应该剥夺我们生儿育女的权力那样;在两种情况下,我们其实都是上帝意志的工具,为他所创造的灵魂提供住所。 然而,这仅仅是猜想而已。不管能用神学的论据来证明什么,我仍不以为然。过去已经证明这样的论据是漏洞百出的。在伽利略的时代,就有人提出,“太阳一动不动地悬着……整天都不慌不忙,不想落下”(《约书亚书》,10。13)以及“他为大地奠定基础,叫它永远不动摇”(《诗篇》,105。5)这些经文正好用来驳斥哥白尼的理论。从我们今天的知识来看,就觉得提出这种论据是徒劳的。过去没有这样的知识,情况便大不一样了。 (2)所谓“鸵鸟政策”式的异议。“机器思维后果太令人恐惧了。但愿机器永远不会有思维。”这种观点不如上面的说法那样直言不讳。但它对我们许多人都有影响。我们都倾向于认为人类的某个微妙的方面比其他生物要优越。要是能证明人一定是高一等的,那再好不过了,因为那样的话,他高居一切之上的地位就不会有危险了。神学的论点那样流行,很明显是与这种情绪密切有关。这种看法在知识分子中会更普遍,因为他们比其他人更尊重思维能力,因此也就对人类思维能力的优越性更加深信不疑。 我认为这个论点不怎么重要,不值得一驳。安慰一下也许更合乎情理;这种安慰也许能在灵魂轮回说中找到。

(3)来自数学的异议。在数学逻辑里有一些结论,可以用来证明离散状态的机器的能力有一定限度。这些结论中最著名的是哥德尔定理,此定理声称,在任何一个足够有力的逻辑系统里,都能形成陈述,而所作陈述在本系统范围之内既不能被证明是对的,也不能被证明是错的,除非这个系统本身就不一致。丘奇、克利恩、罗瑟和图林等人也有别的在某些方面同哥德尔定理很相似的结论。图林的结论更容易考虑,因为它直接涉及机器,而其他人的结论相对来说是间接的:比方说,如要使用哥德尔定理,我们还需要某些附加手段,通过机器来描述逻辑系统,而要描述机器还需要再通过逻辑系统。这个结论涉及一种机器,它实质上是一台万能的数字计算机。即使是这样一台机器,它对有些事情也是无能为力的。如果计算机被设计成能在模似游戏中回答问题的话,那么对有些问题它是无法给予正确答覆的,而对另一些问题,不管你给它多长时间,它也答不上来。当然,尽管这台机器回答不了许多问题,但另一台机器却能给予满意的解答。我们现在只假定,对这些问题只要回答“是”或者“不是”就行了,不会出现像“你认为毕加索怎么样?”这类的问题。我们知道机器必定无法回答的问题是下述这类问题:“这台机器有以下特点……这台机器会不会对任何问题作出‘是’的回答?”这里省略的是对某台标准形式机器的的描述……如果所描述的机器与那台被提问的机器具有某些相对简单的联系,那么,我们就能知道,答案不是错了,就是压根儿没有答案。这就是数学的结论,此结论认定机器能力有限,而人类智能则没有这种局限性。 如果想对这个论点作一简要的答覆,我们就能指出,尽管它已经证明任何一台特定的机器都是能力有限的,但它并没有任何证据说,人类智能就没有这种局限性。但我认为这个论点不能就这么轻易了结。每当其中一台机器遇到一个合适的问题,并作出我们明知是错的回答时,我们无疑会产生一种优越感。这种优越感难道不会是错觉吗?这种感觉无疑是真实的,但我觉得这并没有多大意义。我们自己平时也经常对问题作出错误的回答,因此,就没有权利因机器犯了错误而沾沾自喜;当然,我们对付一台机器当然易如反掌,但我们无法同时对付所有的机器而且不出差错。一句话,有可能人比一台特定的机器聪明,但也有可能别的机器更聪明,如此等等。 我认为,那些持数学异议的人大多数愿意接受模似游戏作为讨论的基点。而持前两种反对意见的人不大会对什么标准问题感兴趣。 (4)来自意识的论点。这个论点在 斐逊教授1949年的李斯德演说中阐述得很明确,我摘引了其中的一段话:“若要我们承认机器与大脑是一样的,除非机器能够因为感受了思想与感情而不是符号的偶然涂抹写出十四行诗或协奏曲来。也就是说,它不仅写了,而且也应知道自己确实这样做了。任何机器都感觉不到(不只是属于简易发明之类的人工信号)成功的喜悦,也不会因困难而沮丧,因受奉承而沾沾自喜,因犯错误而闷闷不乐,因见异性而神魂颠倒,也不会因欲望得不到满足而暴跳如雷或一蹶不振。” 这个论点看上去否定了我们测试的有效性。按照这种观点的最极端形式,你若要肯定一台机器是否能思维,唯一的途径就是成为那台机器并且去感受自己的思维活动。这样的话,他就能够向众人描述他自己的感觉,当然,没有人会知道这些话是不是实话。同样,依照这个观点,要想知道某人是否在思维,唯一的途径就是成为那个特定的人。这实际是唯我论的观点。这也许是符合逻辑的,但若真是这样,那思想交流就太困难了。A会说,“A在想,而B不在想”。而B会说,“B在想,而A不在想。”我们犯不着为这个观点争执不休,我们不如客客气气地认为大家都在想。 我肯定 斐逊教授不愿意采纳这样一个极端的唯我论的观点。他倒有可能愿意把这个模似游戏当作一个测试。模拟游戏(省略了游戏者B)在实际中经常采用“口试”形式,来鉴定某人的真的理解了,还仅仅是“鹦鹉学舌”,让我们看一看这种“口试”的情形: 提问者:你的十四行诗的第一行是这样的,“我欲比君为夏日,如何?”要是将“夏日”改成“春日”,是不是也可以,或许会更好?证人:这样一改便不合韵了。提问者:改为“冬日”怎么样?这样也会合韵。[1]证人:是没问题。但是有谁愿意将自己比作冬日呢?提问者:你认为匹克威克先生会使你联想起圣诞节吗?证人:在一定程度上,会的。提问者:但是圣诞节是在冬天,我认为匹克威克先生对这个比喻不会在意。证人:我在想你也许在开玩笑。冬日的意思是指某一个典型的冬日,而不像圣诞节那样特殊的一天。 这里不再赘引。如果那台写十四行诗的机器在这场“口试”中能够这样对答,杰斐教授会作何感想呢?我不知道他是不是会认为,机器只是在“机械地通过发信号”而作出这些答复;但是,如果这些答复如上面所引那样令人满意,前后一致,我认为他不会再把机器当作“一个属于简易发明之类的人工信号”。所谓“属于简易发明的人工信号”指的是一架机器的一些设计功能,可以用来播放一个人念十四行诗的录音,只要拨动键钮,你随时都可以听到这段录音。 综上所述,我认为大部分支持来自意识的异议的人都可以经过劝说而放弃原来的主张,不致于陷入唯我论的困境。这些人因此也就有可能愿意接受我们的测试。我并不想给大家留下这样一个印象,即我认为意识并没有什么神秘之处。比方说。要想确定意识在人体中的位置,就是一个谜。但是,如果我们没有解决这些谜,还是能够回答这个与本文有关的问题的。 (5)来自种种能力限制的论证。这些论证一般是这样一种说法:“我担保,你可以使机器干任何你刚才提到的事情,可你永远也不能使一台机器有X类的行为。”这类行为包括许多特征。我在这里援引一例: 要和蔼、机灵、美丽、友好……富于首创精神、富于幽默感、善于明辨是非、会犯错误……会坠入情网,喜欢草莓和奶油……能使别人钟情于它,通达世故……措词得当,长于反思……像人一样行为多姿多彩,富于创新……

说这些话一般都用不着证明。我认为这些话都是以科学归纳的原则为基础的。一个人在他一生中看到过成百上千台机器。他由所见所闻得出一些普遍的结论。它们形态丑陋,应用范围狭窄,只要范围略有变动,它们就束手无策。此外,它们的行为方式也非常单一,等等,等等。他很自然地认为,这就是机器大体上的必备特征。大部分机器的能力限制与机器储存量太小有关(我在设想,储存量这个概念可以通过某种方式进行扩充,它不仅仅包括离散状态的机器,也包括其他机器。因为目前讨论还不需要讲究数学的准确性,所以定义准确问题并不要紧)。数年前,由于数字计算机在社会上还鲜为人知,要是你光说其特征而不提其构造,那么,你们就会以为你在信口开河。我想这也是因为人们使用了科学归纳原则的结果。当然,人们在使用这个原则时,大都是无意识的。一个小孩一朝被火烫,十年怕烛台,我认为他这就是在使用科学归纳(当然,我也可以用许多别的方式来解释这一现象)。人类的行为和习惯看上去不适合运用科学归纳。如果你想获得可信赖的结果,你就要对时空的大部分进行研究。要不然的话,我们会(就像许多说英语的儿童那样)以为世界上所有的人都讲英语,再去学法语真是傻透了。 然而,关于我们刚才提到的许多能力限制,还要特别说几句,说机器没有能力享受草莓和奶油,这种说法会使读者觉得有点轻率。我们有可能使机器喜欢这些美味,但任何强迫这样做的企图都是愚蠢的。值得重视的是,这种能力限制对解释其他能力限制也有影响。比如,难以使人与机器之间形成那种像白人与白人之间,或是黑人与黑人之间的友好情感。 认为“机器不会出差错”这种想法有点令人费解。我们不禁要反问:“它们出了错就更糟了吗?”让我们站在同情的立场上,看看这究竟是什么意思。我想我们可以用模拟游戏来解释这种说法,有人声称,在游戏中提问者可以向被试问几道算术题来分辨是哪个机器,哪个是人,因为机器在回答算术题时总是丝毫不差。这种说法未免太轻率了。(带模拟游戏程序的)机器并没有准备给算术题以正确的答案。它会故意算错,以蒙骗提问者。机器在做算术题时,由于对要出现什么样的错误作出了不妥当的决定,因而显示了机械的故障。我们对这种观点作这样的理解,其实也不太富有同情心。但是,我们对这个问题限于篇幅不可能进一步讨论。在我看来,这个观点的根源在于混淆了两个不同性质的错误。这两个错误我们称之为“功能错误”和“结论错误”。功能错误是由某些机械或电器故障引起的,这些故障导致机器不能够按照指令工作。在进行哲学讨论时,我们很容易忽视发生这种错误的可能性;这样的话,我们实际上是在谈论“抽象的机器”。而这些抽象的机器与其说是实在的物体倒不如说是数学的虚构。从定义上讲,我们完全可以这么说:“机器从不出差错。”当某一意思与来自机器的输出信号联在一起时,就会产生结论的错误。比方说,机器能够自动打出数学方程或英语句子。当机器打出一个错误的命题时,我们就认为这台机器犯了结论错误。很明显,找不到丝毫理由说,机器从不犯这类错误。一台机器有可能别的什么也不能做,只会连续打出“0=1”。举这样一个例子也许太过分了,我们可以换一个例子:机器会想办法通过科学归纳来得出结论。这种办法有时无疑会导致错误的结果。 有人说,机器不能成为它自己思维的主体。如果我们能证明机器的某些思维是有某些主题的话,我们就能驳回这种说法。尽管如此,“机器活动的主题”确实有点意义,至少对于研究它的人来说是这样的。比如,如果一台机器试图解 X2-40X-11=0 这个方程式,我们不禁会认为,这时,这个方式本身就是机器主题的一部分。从这种意义上说,机器无疑能够成为它自己的主题。这对编排它自己的程序,对预测因本身结构变化带来的后果都会有所帮助。机器能够通过观察自己行为的结果,修改自己的程序,以便更有效地达到某种目的。这并不是乌托邦式的空想,而是不久的将来可能办到的事。 有人批评说,机器的行为比较单一。这也就是说,机器不能够有很大的存储能力。直到最近,达到1000字节的存储量都很罕见。 我们现在这里考虑一些反对意见实际上是都是来自意识的那个异议的改头换面。通常,如果我们坚持认为,一台机器有能力做完其中的一件事,并对机器所能采用的方法进行描述。那么,不会给别人多深印象。人们会认为机器所使用的方法(不管是什么方法,总是机械性的)实在太低级了。请参见前面所引 斐逊演讲中括号内的话。 (6)洛夫莱斯夫人的异议。洛夫莱斯夫人的回忆录中曾对巴比奇的分析引擎作过详尽的记述。她这样写道:“分析引擎没有任何意图要想创作什么东西。它能做我们知道该怎样去指挥它做的任何事。”(重点为她所知)哈特里引用了这段话,并补充道:“这并不是说,就不可能制造能‘独立思考’的电子设备,(用生物学的话说)在这种设备里,我们能够引起可以用来作为‘学习’基础的条件反射。从最近的一些发展情况看,这种设想从原则上说是不是有可能,已经引起人们的极大兴趣和关注。但是,当时制造的那些机器并不具备这些特点。” 在这点上我完全同意哈特里的看法,我们会注意到,他并没有断言当时的机器还不具备这个特点,他倒是指出了,洛夫莱斯夫人所能获得的证明还不足以使她相信这些机器已具备了这个特点。从某种意义上讲,这些机器已具备了这个特点,这是极有可能的,因为,我们可以设想某些离散机器有这个特点。分析引擎实际上是一台万能数字计算机。因而,如果它的存储能力和速度达到一定水准,我们就能通过适当的程序使它模仿我们讨论的机器。也许伯爵夫人或巴比奇都没有想到这一点。无论怎么说,他们不必能提什么要求,便提什么要求。 洛夫莱斯夫人的异议还有另外一种说法,即机器“永远也不能创新”。这种说法可以用一句谚语“世上无新事”抵挡一阵。谁能保证,他的“独创性成就”就不是接受教育的结果,就不是因循著名的普遍原则的结果?这种异议还有另一个稍稍好一点的说法,即机器永远也不能“使我们惊奇”。这种说法有点直截了当,我能够针锋相对地加以反驳。机器经常令我吃惊。这主要是由于我对机器能做什么估算甚少,更确切地说是由于即使我做了估算,也匆匆忙忙,马马虎虎。我也许这样对自己说:“我认为此处的电压应与彼处相同;不管怎么样,就当是一样吧。”我自然经常出错,结果我大吃一惊,因为一俟实验完成,这些假设早被忘得一干二净了。我对自己的这些错误开诚布公,但在我证实了所惊讶的事时,人们也不会认为我在信口开河。 我的回答并不会使批评者就此缄口沉默,他也许会这样做,所谓大吃一惊都是因为我自己富于想象力的心理活动,与机器本身毫不相干。这样,我们重又回到来自意识的那个论证上去,而背离了吃惊不吃惊的话题。我们不得不认为这种论证方式是封闭式的,但是,也许值得一提的是,要将某物认作会使人惊奇的,则需要许多“富于想象力的心理活动”,不管这件令人吃惊的事件是由一个人、一本书、一台机器还是任何别的东西引起的。 我认为,那种认为机器不会令人吃惊的观点是由这样一个为哲学家和数学家特别容易犯的错误引起的。它是这样一个假设,即心灵一接受了某个事实,由此事实所引起的一切后果都会同时涌入心灵。在许多情况下,这种假设十分有用,但是,人们会情不自禁地忘了这是个错误的假设。如果照这样做的话,其必然结果就是认为,仅仅从数据和普遍原则得出结论会毫无效力可言。 (7)来自神经系统连续性的论证。众所周知,神经系统不像离散状态的机器。若是关于撞击神经原的神经脉冲规模的信息有误,那么关于外冲脉冲的规模的信息就会有很大误差。既然这样,就可以论证:我们不可能用一个离散状态系统去模仿神经系统的行为。 离散状态机器同连续机器肯定不大一样,这一点没什么问题。但是,如果我们严格遵循模拟游戏的条件,提问者就不可能从这个差别得到任何有利之处。如果我们考察一下其他一些更简单的连续机器,有些话就能够说得更明白。一台微分分析机就足以胜任了(微分分析机是一种用作非离散状态计算的机器)。有些这样的机器能打出答案来,所以可以参加模拟游戏。一台数字计算机不可能猜准微分分析机对一个问题究竟作何答覆,但是,它倒是有能力给出正确回答的。比如,如果你要它回答π的值是多少(实际上约等于 3。1416),它就会在 3。12,3。13,3。14,3。15,3。16 之间作随机选择,其选择概率依次分别为(比方说)0。05,0。15,0。55,0。19,0。06。这样的话,提问者就很难分辨哪个是微分分析机,哪个是数字计算机。 (8)来自行为变通性的论证。我们不可能总结出一套规则来囊括一个人在所有可想象的环境中的行为。比方说,我们可以有这样一条规则:行人见到红灯止步,见到绿灯行走,但是,由于某种错误,红绿灯同时亮了,那该怎么办?我们也许会这样决定,为安全起见最好止步。但是,这个决定还会有其他问题。要想总结出一套可行囊括一切人类行为的规则,哪怕是有关红绿灯的规则,看来都是不大可能的。对这些看法我全赞同。 从这一点可以得出,我们不能成为机器。我试图重新进行论证,但又恐怕做不好。似乎可以这么说:“如果每一个人都有一套行动规则来制约他的生活,那么,人同机器就会相差无几了。但实际上不存在这种规则,因此,人不能成为机器。”这里,不周延的中项十分刺眼。我想谁也没有这样去论证过,但我相信实际上用的就是这样的论证。有人将“行为规则”和“行为规律”混为一谈,因此使这个问题有点模糊不清。所谓“行为规则”我指的是像“见到红灯止步”这样的规则。对这类规则你能服从,并能意识到。所谓“行为规律”我指的是自然律,若用在人体上的话,就像“如果你拧他,他就会叫喊”这样的规律。如果我们将上面所引证中的“制约他的生活的行为规律”改为“他用以制约自己生活的行为规律”,那么,这个论证中的不周延的中项就不再是不可克服的了,因为,我们相信,不仅是,用行为规律来制约生活意味着人就是某种机器(尽管这种机器并不一定就是一台离散状态的机器),而且反过来说,如果是这样一台机器的话,那么,它就是由这种规律来制约的。然而,我们很难像否认完整的行为规则那样轻易地否认完整的行为规律。只有通过科学的观察,才能发现这种规律;无论在何种情况下,都不能说:“我们找得够久了,这种规律实际上不存在。” 我们可以找到有力的证据,证明这种说法是不正确的。因为,假定存在这种规律,我们肯定能够找到。对一台离散状态的机器来说,我们极有可能通过观察找到规律,预测其未来的行为,这要有一个合理的极限,比方说,在1000年之内。但事情并非如此,我曾在曼彻斯特计算机内输入了一个程序,这个程序用1000存储单元,这样,这个16位数的计算机就可以在两秒钟内作出回答。我绝对不相信任何人能仅从这些回答中充分了解这个程序,并预测对未试值的回答。 (9)来自超感官知觉的论证。我想读者都很熟悉超感官知觉的说法,熟悉它的四种方式即心灵感应、千里眼、先知和精神运动的意义。这些令人不安的现象似乎在与一般的科学观念作对。我们多么想怀疑它们!不幸的是统计的证据使人至少对心灵感应不得不信。人们很难重新调整自己已有的观念以接受这些新事物,我们一旦接受了这些事物,就离相信鬼怪精灵为期不远了。朝这个方向前进的第一步是相信我们的身体除了按照已知的物理学规律运动外,还按照未知的、但相近的规律运动。 这个论点在我看来十分有力。我们可以这样回答,许多科学理论尽管同超感知觉有冲突,但实际上还是可行的;事实上,我们要是对这些现象置之不理,依然能活得很好。这是一种甚为冷漠的安慰,恐怕思维这个现象与超感知觉有着特殊的联系。 基于超感知觉的更具体的论证大致如下:“让我做一个模拟游戏,让一个善于接受心灵感应的人和一台数字计算机作为证人。提问者可以想象‘我右手中的那张牌是哪个花色?’这样的问题。具有心灵感或千里眼的被问者在400张牌中可以答对130张。而机器只能随机猜对约104张,因此提问者就能作出正确的鉴定了。”这里有一个有趣的可能性。假使这台数字计算机有一个随机数字生成程序,那么,我们很自然就能用这个程序来决定给予什么回答。但是,这个随机数字生成程序又处在提问者的精神运动的能力作用范围之内。有了精神运动,计算机猜对的次数比概率计算还要高,因此,提问者就无法作出正确的鉴别了。而另一方面,提问者也能通过千里眼,不用提问就猜对。有了超感知觉,什么样的事都会发生。 如果允许心灵感应介入模拟游戏,我们就有必要严格规定测试方式。现在这情景就好比在模拟游戏中,提问者在自言自语,一个被问者正贴墙侧耳倾听。要是将被问者置入一间“防心灵感应室”,就能满足所有要求。

7 学习机器

读者可能会错误的认为我并没有令人信服的正面论证。否则,我就不花费那么多精力来反驳对方的观点。其实并非如此,下面我将给出这样的证据。

先回到 Lavelace 夫人的反对意见。她认为机器只能按我们的指示做事。你可以说,人给机器”注入”一个想法,机器以某种方式反应,最后又重新静止。就像一个被锤子敲击的钢琴弦一样。另一个比喻就是一个低于临界体积的原子堆:输入的想法就像从原子堆外部轰击的中子。这些中子会引起一些反应但是最后将逐渐消失。但是,如果原子堆的大小变的足够大的时候,中子产生的反应很可能会持续的增加,直到原子堆解体。思维中是否存在这样的现象呢?机器中呢?这样的现象在人脑中应该是存在的。绝大多数思想都处于”亚临界”状态,对应于处于亚临界体积的反应堆。一个想法进入这样的思想中,平均下来只会产生少于一个的想法。有一小部分思想处于超临界状态,进入其中的想法将会产生越来越多的想法,最终成为一个完整的”理论”。动物的头脑显然是处于亚临界状态的。由于这种相似性,我们不得不问:”一个机器能不能成为超临界的?”

“洋葱皮”的比喻很有用。研究思维的或脑的功能的时候,我们发现一些操作完全可以用纯机械的方式解释。它们并不对应于一个真正的思维,所以把它们像洋葱皮一样剥除。但是这时,我们发现仍然有新的机械思维需要剥除,一直这样下去。用这样的方式,我们是否能够达到真正的思维,或者最终发现皮里面什么也没有了?如果是后一种情况,那么整个思维都是机械的。

(但它不是一个离散状态机,我们已经做了说明)

与其说上面两段是有力的证明,倒不如称之为”为了产生信仰的背诵”。第六部分开始时提出观点的真正令人满意的证明,只能等到本世纪末出现能够通过实验的机器出现。但是我们此时此刻能够拿出什么呢?如果实验将来会成功,现在应该采取哪些步骤呢?正如我所解释的那样,程序的编写是关键。工程设计上的进步也是需要的,但是看上去让它们满足要求是完全能够实现的。估计大脑的存储能力在 10^10 到 10^15 之间。我倾向于比较小的数字,因为我认为只有一个很小的部分被用来进行高级的思考。其余的大部分可能用来保存视觉影像。如果进行模仿者游戏需要的存储容量超过 10^9,是令人惊讶的。(请注意–英国大百科全书的容量为 2*10^9。)即使立足于目前的技术,10^7 的存储容量也是非常实际的。也许根本就不需要增加机器的执行速度。一部分模拟神经细胞的现代机器的速度比神经细胞快 1000 倍。这提供了一个”安全余量”,用来补偿各个方面产生的速度损失。剩下的主要问题就是找到给这些机器编程的方法,以使它们能够完成游戏。现在我一天大概能编 1000 字节的程序,所以如果大约 60 个工人在未来 50 年稳定的工作,并且没有东西扔进回收站,就能完成这个工作。看上去需要更快速的方法。

在模仿一个成人思维的时候,我们必须考虑它是怎样达到当前状态的。

可以发现以下三点:

(a)思维的初始状态,也就是出生时的状态

(b) 它所接受的教育

(c) 它所经历的,不能被称为教育的事情

除了尝试设计一个成人思维的,为什么不试试设计儿童一样的思维。如果它接受正确的教育,它就可能成长为一个成人的大脑。一个儿童的大脑大概就像一个刚从文具店买来的笔记本。只有简单的机制,和许多空白的纸张。(机制和字在我们看来几乎是同义的)我们希望儿童脑中的机制足够少以使它很容易的被编程。我们可以假设对机器进行教育的工作量和教育一个人类儿童基本相当。这样,问题被分为两个部分。设计一个儿童程序和对它进行教育。这两者联系紧密。我们不可能一步就找到一个好的模拟儿童的机器。必须通过对它进行实验教学来研究它的学习效果。然后试验另一个程序并判断是否更好。

显然这个过程和进化是有联系的。因为:

儿童模拟机的结构 = 遗传物质

儿童模拟机的变化 = 变异

实验者的决定 = 自然选择

这个过程应该比进化快的多。只留下最适英者是一个较慢的度量优势过程。通过结合智能的实验将会加快这一过程。另一个重要的事实是并不需要局限于随机的变异。如果能够发现一些缺陷产生的原因,就可能发现通过何种变异可以改进它。教育机器和教育儿童的过程不大可能完全相同。例如,它没有腿,因此就不会被要求去给煤球炉加煤。它也可能没有眼睛。不管聪明的工程师采取何种方法克服这些缺陷,只要这样的机器被送进人类的学校,其他的学生肯定会嘲笑它。它必须得到专门地指导。我们不需要太注意腿眼等等器官。海伦. 勒女士的例子表明只要老师和学生能够以某种方式进行双向的交流,教育就能进行。

惩罚和奖励通常是教学的一部分。在这些原则下,就可以建造或编写简单的儿童机器。如果某个行动后很立刻遭到惩罚,机器要能做到不再重复这样的行动;而接受奖励的时候,产生这个奖励的行动以后更有可能发生。我对一个这样的儿童机器进行了一些实验,而且成功的教会了它一些东西。但是教育方法有一些不正规,因此这样的实验还不能称为成功。惩罚和奖励最好能作为机器教育过程的一部分。概略的说,如果老师没有其他的方式和学生交流,教给学生的信息不会超过奖励和惩罚所给信息的总和。一个儿童学要学会说“Casabianca”,一定会经历一个痛苦的过程。如果只能通过”二十个问题”的方法才能发现一个词,每一个”No”都将是一个打击。因此应该寻找其他的”非感情”的交流渠道。如果能够找到,通过惩罚和奖励就能让机器学会以某种语言给出的命令。这些命令通过”非感情”的渠道传输。这种语言的使用将会大大降低需要进行惩罚和奖励的次数。

对于什么样的复杂程度更适合儿童机器可能有不同的看法。可能会有人主张尽可能的简单以保持通用性。另一种方式是嵌入一个完整的逻辑接口系统。在后一种情况下,大多数存储空间将被用来存储定义和命题。这些命题可能具有各种各样的形式。例如,确定的事实,推测,数学上证明的定理,权威给出的判断,具有逻辑形式却没有确定值的表达式等等。一些命题可以被称为”命令”。机器应该能够在命令是确定的时候立即自动执行合适的动作。例如,如果老师对机器说”现在做你的家庭作业”。这将使”老师说’现在做你的家庭作业’”成为确定的事实。另一个事实可能是”老师说的一切都是对的。”这两个结合到一起将使”现在做家庭作业”成为确定的事实。而根据机器的建造规则,这意味着立即开始写家庭作业。效果还是令人满意的。机器的推理过程并不需要像这样遵守严格的逻辑。例如可能并没有类型体系。但这并不意味着出现类型谬误的几率会比我们从悬崖摔下的几率高。合理的命令 (在系统内部表达,并不是系统规则的一部分),比如’不要使用一个种类除非它是老师提到种类的一个子类’就和’不要他接近边缘’具有相似的效果。

一个没有四肢的机器人需要遵守的指令集中在智力层面,就像上面做家庭作业的例子那样。在这些指令中,最重要的是规定逻辑系统的规则以什么样的顺序执行。因为在使用这个系统的每个步骤中,都会有许多不同的步骤供选择,在遵守逻辑系统的规则的情况下,选择任意一个都是允许的。如何进行选择将区分聪明的推理者和一个傻瓜,而不是区分出一个推理是正确还是谬误。产生这样的命令的陈述可能是 “当提到苏格拉底的时候,使用芭芭拉的三段论” 者’如果有一个方法被证明比另外的方法快,不要使用慢的方法。’这些陈述可能来自权威,以可能来自机器本身,例如通过科学推理得到的。一些读者可能会感到学习机器的想法有些矛盾。怎样能够改变机器遵守的规则呢?这些规则应该完全决定机器应该做出何种反应,不管他的经历是什么,不管发生了什么变化,因此应该是时不变的。确实是这样。而对这个矛盾的解释是,在学习过程中改变的规则并不是永远不变的,这样的规则仅仅在一个短时间内起作用。读者可以用美国的宪法进行类比。

学习机器的一个重要特点是它的老师通常不关心其内部发生了什么变化,尽管老师能够在一定程度上预测他学生的行为。当被教育的机器是经过试验证实的好设计或编程的时候,更应该如此。这一点和使用机器进行计算形成鲜明的对比。在后一种情况下,我们需要清楚的明白在任意时刻机器的计算状态。要达到这个目标需要付出艰苦的努力。这样,’机器只能按我们的要求做事’的观点就会显得很奇怪。我们输入机器的大部分程序将引起机器执行一些我们无法完全了解的事,或者一些我们认为完全是随机的事。智能行为应该和完全服从命令的行为方式有区别,而这种区别也不能太大,不应该产生随机的行为或无限循环。通过教学的方式使我们的机器能够进行模仿着游戏的一个重要结果是:’人类的不可靠’的特点很可能被相当自然的忽略,也就是不需要专门的辅导。通过学习得到的行为并不应该是半分之百的,确定的结果;否则,这些过程就不会被忘记。

在一个学习机器中加入随机元素应该是明智的。一个随机的元素在我们寻找一些问题的答案时是相当有用的。例如我们想找到一个介于 50 和 100 的数,它等于各个数字的和的二次方。我们可以从 51,52 开始一直试下去直到找到满足条件的数。另一个方法是随机的选数直到找到满足条件的数。这个方法的缺点是一个数可能重复试两次,但是当有多解的时候,这一点变得并不重要了。系统化的方法的一个缺点是可能存在很大一段数中并不存在解,但我们需要先验证它。现在的学习过程可以看成寻找一个行为规则满足老师的要求(或一些其他的标准)。因为可能存在大量的可能解,随机的方法可能比系统的方法更好。请注意,这和进化过程是相似的。但是系统化的方法并不是不可能的。如何能够跟踪不同的基因组合而不产生重复呢?

我们可能希望机器能和人在所有的纯智力领域竞争。但是首先从哪里开始呢?这也是一个困难的决定。许多人可能会说一个抽象的行为,例如下国际象棋可能是最好的选择。也可能需要给机器最好的传感器。然后教它听懂英语。这将和教一个正常的小孩一样。它应该被指出并命名等等。我并不知道正确的答案,但是我想这些方法都应该试试。

我们的目光所及,只是不远的前方,但是可以看到,那里有许多工作要做。

We can only see a short distance ahead,

but we can see plenty there that needs to be done。

1…161718

Feng Chao

178 日志
14 分类
1 标签
RSS
GitHub E-Mail Twitter
© 2006 — 2018 Feng Chao
由 Hexo 强力驱动
|
主题 — NexT.Mist