杀手机器人 联合国可能在明年讨论禁止
2016-12-20 10:10:09 来源 : 网络中国国际警用装备网讯:近日在日内瓦举行的五年期审查会议上,《特定常规武器公约》的 123个国家同意在应对非人为操控武器对人类威胁这一问题上展开合作。此前,曾有专家指出,人类现在只剩 1 年时间可以阻止“杀手机器人”诞生。
图片:来自网络
阻止“杀手机器人”运动的联合创始人Steve Goose表示:“此次在日内瓦举行的会议对阻止杀手机器人发展迈出了重要一步,但人类所剩的时间已经不多了。一旦这些武器出现了,再想去阻止就不可能了。现在是该先发制人采取行动的时候了。”
此次五年期审查会议上,各缔约国同意在 2017 年日内瓦举行的联合国大会上就禁止致命性AI武器展开讨论。谈判将于明年 4 月或 8 月开始,已有 88 个国家同意派代表参加。
研究人员担心在未来,事关生死的决定将由机器做出,超出人类的控制之外。造成过度伤害,或错误把平民当成攻击目标的风险将会因此增加,而且还没有人可以被问责。
机器人缺乏真实的情感,特别是同情心,大量的决定将会在这种情况下做出。人类可以根据以往的经验和道德方面的考虑,逐个案例进行判断,做出相应的决定。但是想把这种判断方式复制到完全自主的武器上几乎是不可能的,预编程的机器无法应对所有场景。
把技术置于外交之上,将会带来可怕的、空前的人道主义灾难。
自主武器可以在陆地、空中或海上开展行动,武装冲突和执法行动的方式可能会产生翻天覆地的变化。支持的一方说,开发“杀手机器人”是必要的,因为现代军事行动非常迅速,让机器人作战可以防止士兵和警察遭受伤害。但它们对人类构成的威胁,可能会比它们在军事或执法方面带来的好处更多。
一些人指出,如果关于攻击目标的决定不再由人类来做,世界将会变得非常危险。鉴于完全自主武器在道德、法律和责任上的风险,它们的研发、生产和使用现在就需要加以阻止,不能等待。而化解这种威胁的最好办法,就是对无人操控的武器实施国际禁令。
一些国家已经在使用Reaper这样的无人机在战区开展任务。如果在激烈的战斗中,出现了机器人非法杀人的情况,那应该由谁来承担责任呢?人权观察组织今年早些时候发布了一份报告,得出了一个非常令人不安的答案:没有人。
该报告名为《杀手机器人问责机制的缺失》。该组织说,我们必须改变这种缺乏问责制的状况,禁止研发和使用“杀手机器人”。
有些人支持让机器人去打仗,以免人类在战场上送命。但去年,1000多名技术和机器人技术的专家——包括科学家霍金,特斯拉首席执行官伊隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克——警告说,这种武器可以在数十年,乃至数年内研制成功。
在一封公开信中,他们表示,如果任何一个军事强国推动自主武器的发展,“那么全球军备竞赛几乎是不可避免的,这种技术轨迹的终点显而易见:自主武器将成为明天的卡拉什尼科夫冲锋枪。”
总部位于伦敦的“禁止杀手机器人”组织表示:有些国家正在赋予作战武器更大的自主权,这些国家包括美国、中国、以色列、韩国、俄罗斯和英国。
今年3月,五角大楼的一名高层官员透露了几个不久前还属于科幻作品的项目,其中包括可以躲避导弹的卫星,自主飞行的F-16战斗机,以及机器人海军舰队。
尽管五角大楼不打算开发一种无需人类指挥就能开展杀戮行动的武器,但国防部副部长罗伯特·奥克暗示,如果用敌人研发出这样的武器,情况可能就会改变。
“如果我们的竞争对手更加愿意把生死大权下放给机器,随着竞争的开展,我们就不得不做出最利于我们竞争地位的决定,”他说。
奥克在五角大楼的工作之一是确保美军保持技术优势,在他透露的一个项目中,空军把一架F-16战机改装为一个半自主的无人战斗机,与一架载人的F-35喷气式战斗机一同飞行。
五角大楼的研究人员还正在开发一种小型炸弹,它搭载了摄像头和传感器,可以提高瞄准能力。其他项目还包括机器人舰队,以及炮弹时速高达7250公里的电磁轨道炮等。
新闻稿件欢迎直接联系:QQ 34004818 微信公众号:cpsjyzb
我要评论
0 条评论
- 还没有人评论过,赶快抢沙发吧!