斯皮尔伯格的《人工智能》已经成了一种标准,核心想法很亲切,“爱”让机器人有了“灵魂”。他没有要求观者跳出人本位的思维习惯去想象人工智能的各种可能性,所有人都可以愉快欣赏完并充分理解他的意图。我猜测,库布里克那么喜欢刨根问底,他曾经说过要做这个话题的影片,如果《人工智能》是他导的话,可能会不太一样。(为曾经是个标题党辩护,但不成功。2021修订)
我其实觉得所有人头脑中的工具没太大区别(达芬奇爱因斯坦也没成仙脱离苦海啥的),对着一个问题坚持思辨下去的话,可能抵达非常接近的结果。但大部分时候我们都不需要走那么远,就可以在舒适区内找到安放疑惑的锚点。被大家广泛接受的价值体系之所以成立,就是因为ta们缓解了问题的紧迫性,让人可以摆脱“无法解释”和“找不到答案”的不稳定感。而习惯持续追问的人,不一定受欢迎(想想苏格拉底),虽然追问的结果可能是拓宽了观念的舒适区,但是先指出我们可以走更远一点的人容易遭到排斥。但是说到底,我们的思考工具,大脑,有什么硬伤和限制,都是很难纳入我们大脑的思考范畴的(工具怎么修理工具?),而且逻辑本身就是个扭曲的机器吧?
说回“爱与灵魂”的因果关系,听起来很容易让人接受。如果说“爱让人称为人”,感觉太正确了。让人很难再去追问,“爱”究竟如何体现?是时间线上的持续联系?不断增强的反馈信息?付出甚至牺牲的动作?是一种乱码吗?是错位还是必然?一次性解决这些问题的方法可能是说,“如果不相信爱那还有什么问题值得费心思考”!所以我们大多可以接受,好的,起源是爱。如果我们抛开“爱”这个烫手的山芋,“灵魂”能聊吗?人在进化过程中从何时有了所谓的“灵魂”?那么进而,在机器的发展和演变中能否重复人的这个进化过程,而得到一个所谓的“灵魂”?我原本希望《人工智能》会探讨这样的一个问题。
设想,如果机器人会说出这样的一段话:“我是谁?我从哪里来?我要到哪里去?我或许只是在重复我过去在别处听到过的问题,而我并不知道这些问题的答案,于是也无法停止重复这些问题。”如果,机器人说出这样的话,那么他与人有什么区别?存在的问题对于机器人来讲如同Bug,对于人又何尝不是?
再说,记忆的筛选。遗忘,是人类相比机器人的缺陷(或优势)。记忆的筛选不是我们能够完全操控的,我们个人的记忆构成了我们对未来事件做反映的基础资料,而共同的记忆则构成了我们的文化环境。这些记忆的形成,很大程度上都不是我们通过思考而自主达成的。我们真真是不必把自主的“决定”看得太有效,其实我们不能掌控的“遗忘”过程对于构架所谓“自我”的影响应该是更绝对的。我们虽然没有机器人的超强记忆功能,但是我们并不能操控的“遗忘”功能对于文明发展的功效作用可能更关键。
艾柯说,文化就是从此消失的书和其他东西的墓园。他们在讨论的问题是,如果一切文字语言都通过电子方式记录下来而不再消失的话,那么文化会以什么样的形式存在呢?一个没有了有机(organic)的生长、衰败、过滤和消化过程的文化会是什么样子的?在人工智能影片里,可以思考的是,对于机器人来说,文化将是什么?机器人如果可以记录发生过的每一件事情的话,那么大概就没有什么事情比别的事情有更“深刻”的含义了。更关键的问题是,“爱”让我们不断向未来索要,因为过去只能靠记忆存储,而记忆又总是在删节和褪色,我们渴望拥有,而恐惧失去。于是,我们在不断的丢失记忆中的爱的同时,向未来索要更多的爱。但是,如果机器人拥有一份永不消减的清晰记忆的话,“未来”还那么重要吗?
“时间”这个概念对于机器人来说是什么样子的?如何感受?创新、创作、艺术、重复,这些概念会消失吗?愚蠢与谬误会消失吗?推动社会进步的动力又将是什么呢?机器人社会需要“个体”形式吗?人有些重要的能力,机器人不知道能否具备。比如学习的能力和选择的能力。学习就是自我修订,机器人能否修订自己的基础程序?选择也是放弃。如何在两个完全相同的苹果之间做出选择?这个问题对于人来说很简单,但是对于机器人来说类似的问题可能就很复杂。如果我们把熟悉的概念,通过机器人的视角审视一遍,想象这种拥有庞大储存能力和准确计算能力的系统,会如何处理我们所熟悉的问题?是否会得出我们所未见过的答案呢?
以上是我希望《人工智能》会触及的一些问题,我没有答案(其实很多问题也并不呼唤答案),但是库布里克不言而喻的手法会激发人的想象,就好像《太空漫游2001》最后“星童”的出现,让我们都非常激动。