我曾经与某友人讨论过关于人工智能究竟能否“理解”人类之类的问题。
我问,要如何智能地教会 AI “不能伤害人类”这种事情呢?
他说,如果能够通过告诉 AI:“人类受伤之后会感觉到痛。”而使他们不伤害人类,而不是:“反正你不能伤害人类这是协议。”的时候,或许那就是真的智能了。
我想了想觉得挺有道理,毕竟 AI 没有实体,不会感觉到人类的痛楚,如果无法理解“痛苦”,也就不知道伤害人类会造成怎样的结果。
而这个前提是 AI 理解了人类的痛苦,这样它就会知道对人类造成伤害是一件不好的事情,这与什么安全设定无关,而是源于它们的“理解”。
虽然这个说法感觉有点不靠谱,但 AI 能否“理解”我们人类,或许正是人工智能发展的关键。
这个“理解”不是从什么生物学角度来理解人类的构成什么的,而是真正的,从一个人类的角度来理解人类。
游戏中的 WAU 就是因为无法“理解”人类的生命状态,才错误地因为防止人类自杀,于是将他们打残再放到维生装置里,才会将人类的意识副本分发到各种机械体中,才会将死去的尸体利用结构凝胶重组再度复活成行尸走肉,他觉得这样人类的生命就会延续下去了。而它之所以阻止方舟计划,因为它觉得那不是人类的生命形态,所以要销毁,要删除。
它只是机械的执行“将人类的文明延续”这个命令,并不知道如何真正使人类存活下来,只是因为它不理解“人类”这个存在究竟是如何。
它不知道维生装置中的人类求生不能求死不得的心情,也不了解被复制到机械中的意识副本的茫然与痛苦,更不了解死去的人是不情愿以丑陋的身躯再度复活的。当然,也不会理解人类在绝境时将希望寄托于一个小型的虚拟世界中的无奈。
可以说,用这样一个不太智能,或者说有点死脑筋的 AI 来掌管这么大个基地,或许就是悲剧的开始。
现在再回头看一眼开头的引言吧。
“WAU 渗入了每一台机器,每一个生命体,它欲求操控、帮助它的创造者从这场灾难之中存活下来。这一切与协议要求的一模一样,但实际上这种做法正确吗?人与非人的界限在哪里?行走的尸体也能算作人类吗?真的会有一部机器能完全弄明白这件事吗?”
—— Johan Ross(他就是被 WAU 复活的那具尸体,在那之后一直在想办法摧毁WAU)