上篇文章,我思考了机器人学三定律的一些漏洞。其实,从阿西莫夫发布三定律以来,很多人都意识到三定律的不完整,今天我们看看后来人又做了哪些补充。
第零定律
第零定律,即机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。据此刷新后的机器人三定律为:
第零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
但是,“人类的整体利益”同样存在概念边界的问题,即上次提到第2类漏洞,这种漏洞,人类本身都不一定能够逻辑圆满的表达,何况是一台执行人类程序语言的机器。因此,威尔·史密斯曾说:“《我,机器人》的中心概念是机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”
第四原则
保加利亚科幻作家Lyuben Dilov 在1974年在小说《Icarus’s Way》中提出第四原则:
第四原则:机器人在任何情况下都必须确认自己是机器人。
这个第四原则,其实是有助于解决我前边提到的漏洞1.
1989年美国科幻作家Harry Harrison在《Foundation’s Friends》中又提出另一个第四原则:
第四原则:机器人必须进行繁殖,只要进行繁殖不违反第一原则、第二原则或者第三原则。
我个人认为这个原则是会加剧漏洞1,我不认同。
保加利亚科幻作家Nikola Kesarovski在《The Fifth Law of Robotics》(1983年)中提出第五原则:
第五原则:机器人必须知道自己是机器人。
这个原则与Lyuben Dilov的原则四,比较类似,有助于解决漏洞1.
迄今为止,我所介绍的三定律,以及后来做的补充的几个原则,基本都是科幻作家们的思想。科幻作家是一个特殊的群体,他们有科学知识作为专业背景,又能够天马行空的进行幻想,还能够深入浅出逻辑清晰地讲清楚一个深奥的科学知识点,他们是我所崇拜的。但是,他们毕竟是科幻作家,那么,严肃的科学家们在对机器人伦理进行研究的吗,他们有什么不同的观点吗?后边几期,我尝试搜集和分享一下他们的研究成果,同时,也可能夹杂我的一些观点,因为我感觉到了我想表达一些自己的想法的冲动。



留下评论