机械公敌

    阿西莫夫“机器人三定律”
1. 机器人不能伤害人类,或坐视人类受到伤害而袖手旁观。 
2. 除非违背第一法则,机器人必须服从人类的命令。 
3. 在不违背第一和第二法则前提下,机器人必须保护自己。

    人的逻辑的极限是什么,逻辑是不是使我们陷入了自己所制造的危险中?这是我看到这部电影所突然想到的,阿西莫夫的机器人三定律,这三条逻辑定律应该是很完 美的,但是在影片中却看出了一个可能性,这是人类自身发展所带来的可能性,也许这是阿西莫夫所没有预料到的,也许因为这个可能性,使这个机器人三定律出现 了裂痕,甚至是灾难性的。最终BOSS因为机器人三定律逻辑的错误而不自觉的绕过了“保护人类”的这个第一定律,又制造出了拥有第二系统可以破坏“机器人 三定律”的机器人,制造了灾难。

    这个逻辑的裂痕在哪里呢?那就是:如果人类的战争和对环境的破坏等等人类自身的行为活动达到了会危害人类自身的地步,那么机器人会不会依据第一定律,而漠 视人类的自由和命令,来把人类“圈养”起来?因为第二定律虽然有服从人类命令的条款,但是却不能违反第一定律。在这种情况下,就出现了逻辑的悖论,因为按 照人类的心理,非暴力性的限制自由是不是也是属于“伤害”了人类?虽然人类拥有在心理上被伤害这个特点,可是讽刺性的是机器人并不会知道这点,从而表面上 的遵循了“机器人三定律”,而又实际上的“伤害”了人类,又使得机器人不自觉的违反了第一定律。这个逻辑错误,使得机器人可能绕过阿西莫夫机器人三定律而 伤害人类。

    这个逻辑的裂痕的出现,又有怎样的可能解决?除了完善自身的逻辑,影片中也稍稍的给出了解答,那就是使机器人也获得情感,得到灵魂,正如机器人 “Sonny”的存在,也许如此,才能真正的能判断什么是对什么是错吧,人类和机器人的共存问题,只能留待后人解决了。~越修复Bug,也许会出现更多的 Bug~


0 评论:

发表评论