从自我意识的角度看,作者主张的“大脑对抗基因论”会赢得我个人的认同,不过认同归认同,理性来看这个问题却可能不是那么简单就能认同或不认同。从工程的角度看,基因是一种制造生命的“蓝图”,蓝图如果制造出一个多功能或多意义的物品,就很难限制最后的成品只能用于原始设计的特定用途上。例如根据蓝图造的一把菜刀,它完全符合砍肉、切菜、拍蒜的用途,但它能不能用来当美工刀呢?虽然难用,但好像也没什么不可以。能不能用来挖土种菜?搅拌洗米?打乒乓球?似乎也都可行。这世界上本来为了某用途而诞生的某物,最后却转成他用的例子太多了。人类大脑完全有可能自己找到未来发展的用途,而脱离作为基因载体与复制子的宿命。逻辑上以及进化史上这都是可能的,而且可能性还不低。
但我马上想起的类比,是这几年各界先进对人工智能发展的忧虑,包括像史蒂芬·霍金等人所担忧的,一旦人工智能发展到取得自我意识,到时候恐怕就是人类末日到来的时刻了。因我们不确定“他们”会不会对人类保有适当的尊敬或友爱情谊。基因如果有意识的话,心情应该就像现在人类忧虑人工智能的发展一样。而人工智能学界有一个共识,那就是在发展超级人工智能的时候,应该先发展一个可以约制机器人消灭人类的某种“道德命令”,安装在机器人的系统底层。从这个角度思考,有没有可能基因在发展意识的时候,已经在意识底层先铺上了一层防止背叛的“保险”呢?
在认知神经科学研究中有一个案例,是关于一位丧失情绪欲望的建筑工人。他在一场工地事故中被钢筋贯穿头颅,经过抢救以后,奇迹似地存活了下来,只不过他丧失了情感好恶的欲望。没有了好恶,他就失去了欲望,无法决定何者是他想要或不想要的。他的日常逻辑分析能力都没问题,但就是无法决定什么是他“想”要的,什么不是。失去欲望能力的大脑,即使有完整的“能力”,也会变得无法行动。
人类的大脑是设计来回应物质世界外部条件的机器,哪里有水、有食物,哪里温暖,哪里没有毒蛇猛兽,物质条件经过感官读取之后,转换为神经脉冲,在大脑中计算,决定采取的行动。大脑虽然是信息处理器,但这个处理器底层,是对物质世界的侦测。如果意识脱离了物质世界,在这个处理器底层,过去人类仰赖物质刺激而建立的情绪好恶动机还会存在吗?
物质决定了人类从基本好恶的情绪模块到最高层次的社会结构和行为规范。“碳基”处理器真的能变身为“硅基”处理器吗?这中间的断层恐怕不是一个细胞一个细胞地置换就能够解决的问题。