问题是,当阿西莫夫等作家展开思考这三个定律时,明显的问题就出现了。在威尔·史密斯主演的改编电影《机器人I》中,我们可以看到这样一种行为:机器人试图控制政府和社会,以保护人类免受自身伤害。这就是为什么后来增加了第零定律:机器人不能伤害人,或者坐视人受到伤害。
当然,问题是人虽然是一个具体的概念,但人性不是。在地基和土壤中,发生了如下的交流:崔维兹皱起了眉头。“你如何决定什么对全人类有害或无害?”“一点不错,先生。”丹尼尔说。“理论上,第零定律是我们问题的答案。事实上,我们永远无法做出决定。人是一个具体的物体。对一个人的伤害是可以估计和判断的。人性是一个抽象的概念。”
机器人定律的问题在于,我们是站在人类的角度去思考的,这不是计算机能够或者愿意做的事情,至少短期内不是。计算机会服从指令,除非有其他参数阻止这些指令,否则它会毫不怀疑、毫不犹豫地服从指令。如果指令是打开电机并运行5分钟,那么它应该这样做。但是,如果路上有一个人或东西,电脑不会停下来,只是服从。这就需要人类深思熟虑,想到可能的后果,并在周围建立保护措施。
我在numberphilile的Grady里采访了一个很有意思的视频。Rob Miles是一名人工智能程序员,他正在处理停止按钮。简而言之,假设你有一个正在测试的机器人。出于安全考虑,你设置了一个按钮,在出现问题时让机器人停下来。
如果你告诉AI你想让它完成某个目标,那么你告诉AI如何执行这些指令。然而,AI并没有考虑到有一些障碍,他们只是想穿过它,而不是绕过它。如果你试图关闭人工智能,它会和你战斗,因为它的程序很听话。问题是,如果你试图告诉机器人你正在按的按钮是好的,它更重要,那么AI会按下自己的关闭开关,因为这是实现更高优先级目标的最有效方式。
简而言之,机器人定律听起来是一个好主意,但以计算机可以理解并与我们合作的方式实现这些想法变得越来越困难。我们有一天会得到它吗?也许吧,但是谁知道呢?最后我以XKCD的一个搞笑漫画结尾,因为有关联。