不同于如今的无人机由人类进行控制,未来的自主机器人可能会进行自主选择。
1月份在瑞士召开的达沃斯世界经济论坛上,专家们表示对自主机器人的担心,并认为人们根本不相信会建成有道德意识的机器人。
研究人员可按照具体的规则对其进行编程,防止他们任意行事。
例如,科幻作家艾萨克·阿西莫夫,曾在其短片小说中介绍用三种规则来管束机器人的行为。
˙机器人不得伤害人类或袖手旁观让人类遭受到伤害。
˙机器人必须遵守人类发出的指令,除非此指令内容与第一条规则相冲突。
˙机器人必须保护自己的存在,只要此种保护方式不与第一种和第二种规则相冲突。
即使他们能合法运作,但是自主机器人都会产生严重的道德和伦理挑战。最后,即使自主机器人合法并且有道德意识,他们可能还是会非常危险。机器人发生故障或者敌方黑客可能会导致很严重的后果。目前尚且还没有任何国家使用自主机器人,但是也有一些国家和地区在战区部署无人机。如果保护自主技术的安全系统被黑客攻克,可能会导致战场上的浩劫。
IHS简氏国际防务评论编辑Huw Williams表示:“可以致力于加强数据链路加密,保证与操作者互联的安全性。”而且随着系统变得更加自动化,无论平台是否由人进行操作,黑客风险也会随之增加。(文/Tina译)