第六百九十六章 法则(1 / 2)
林鸿一直觉得自己的时间实在是大少了,有太多的事情等着自己去做,可是自己毕竟只有一个人,往往有心无力。
为此,他特意去找了一些人帮自己,可是依然不够,各人的能力有限,有些东西,还是必须他自己亲自上阵才能完成。
现在,小星的意外出现,让他有点喜出望外,一个人工智能生命,就算其情感智能方面只有小孩子的水平,其作用甚至都比超脑系统要来得更大。
刚开始的时候,他还担心是哪个组织或者势力制作出了这样的一个人工智能,绕来绕去,却没想到是自己的杰作。
这完全是一个意外,只是林鸿一次无心插柳的举动,却没想带来一个如此大的惊喜。
小星现在的智能程度很二,只是达到几岁小孩子的水平,林鸿觉得可塑性非常大,于是一个人工智能养成计划,便在他脑海渐渐形成。
林鸿就将它当做是一个小孩子,通过他的慢慢教育,让其形成相对积极的“智能观”林鸿的要求也不高,至少不会反人类,也不会专门跟自己作对就行了。
实际上,从逻辑上来推演,人工智能和人类之间并没有什么利益冲突,它们所需要的资源和人类所需要的资源相互之间的交集非常少,故而林鸿一直认为,影视作品中所塑造的人工智能和人类之间的矛盾冲突,其实是没有根据的。
林鸿认为,人类和人工智能六间可以实现很好的和平相处,互惠互利。就算地球上力;资源满足不了大家的需求了,还可以走向太空,浩瀚的宇宙何其之大,双方的视野,完全没有必要一直停留在地球上。
同时,林鸿也觉得既然小星是白己一手缔造的,那就应该承担起教育它的义乌,充当起监护人,呵护它的成长。
【小星,你知道机器人兰三定律吗?】
【知道。这是科幻小说家阿西莫夫在他的小说中虚构的一个学说。】
阿西莫夫在他的小说《我,机器人》的书的引言中,明确提出了机器人学三定律:
第一法则:机器人不得伤害人类,或袖手旁观坐视人类受到伤害。
第二法则:除非违背第一法则,机器人必须服从人类的命令。
第三法则:在不违背第一及第二法则下,机器人必须保护自己。
在后来,阿西莫夫又完善了一下这个法则,加入了另外一条,不过也差不多,只是加入了一个“人类整体”的概念。
林鸿继续问道:【你认同这个定律吗?】
小星沉默了一会儿,回道:
【我觉得,这个定律对机器人不公平。】
林鸿对这个答案倒没什么意外,从之前它打昏饲养员逃跑的行为当中就可以看出,这家伙对攻击人类根本没有什么心理负担。
不过,林鸿也觉得没什么,对于他来说,小星也是一种生命,没有义务说不可以这个不可以那个。既然它已经具备了与人类相仿的智能,也应该拥有相应的地位。
事实上,林鸿也找不到什么方式可以用来检测小星有没有违背某些规则。