战争机器人具有道德意识 恐怕不再是幻想

OFweek机器人网 中字

  不同于如今的无人机由人类进行控制,未来的自主机器人可能会进行自主选择。

  1月份在瑞士召开的达沃斯世界经济论坛上,专家们表示对自主机器人的担心,并认为人们根本不相信会建成有道德意识的机器人。

  研究人员可按照具体的规则对其进行编程,防止他们任意行事。

  例如,科幻作家艾萨克·阿西莫夫,曾在其短片小说中介绍用三种规则来管束机器人的行为。

  ˙机器人不得伤害人类或袖手旁观让人类遭受到伤害。

  ˙机器人必须遵守人类发出的指令,除非此指令内容与第一条规则相冲突。

  ˙机器人必须保护自己的存在,只要此种保护方式不与第一种和第二种规则相冲突。

  即使他们能合法运作,但是自主机器人都会产生严重的道德和伦理挑战。最后,即使自主机器人合法并且有道德意识,他们可能还是会非常危险。机器人发生故障或者敌方黑客可能会导致很严重的后果。目前尚且还没有任何国家使用自主机器人,但是也有一些国家和地区在战区部署无人机。如果保护自主技术的安全系统被黑客攻克,可能会导致战场上的浩劫。

  IHS简氏国际防务评论编辑Huw Williams表示:“可以致力于加强数据链路加密,保证与操作者互联的安全性。”而且随着系统变得更加自动化,无论平台是否由人进行操作,黑客风险也会随之增加。(文/Tina译)

 

声明: 本网站所刊载信息,不代表OFweek观点。刊用本站稿件,务经书面授权。未经授权禁止转载、摘编、复制、翻译及建立镜像,违者将依法追究法律责任。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存