会拒绝人类命令的机器人
2015-11-27 10:34:11 来源 : 环球科技
中国国际警用装备网讯:据美国财经资讯网站QUARTZ 11月25日报道,美国马萨诸塞州的研究者们试图做一件科幻电影里预言的场景,即指导机器人对某些指示做出相应拒绝。塔夫特实验小组也已提出相关策略,教会机器人识别特定情况,适时说“不”。
通常来讲,机器人是应该始终对人类的指示唯命是从的。当然,在汽车生产线上,对于一些对人类有潜在危险的工具,机器人是可以帮助进行游刃有余的进行操作。但是,每天我们也都在研究更新更加智能的机器人,让它们有能力来作出判断。这便带来了一个棘手的问题,怎样在程序中设置一项机器人的思维反应,可以让它们在不对自己和人类有害的前提下,作出正确的选择。
这也是美国塔夫斯大学人机交互实验室要研究解决的问题。他们也已经提出了相关策略来指导机器人智能应对人类指示。此种策略与人类大脑在接收到话语指示时的运行类似。在你要被指示做某事时,将会有一系列关于信任与道德的问题要思考。比如说,“我知道要怎么操作吗?”,“这件事是否在我工作范围内?”以及确认“要做这件事的话,我是否违背了正常的规则?”并且最后的关键的一点是,一定不要伤害人类以及相关财产安全。
塔夫特实验小组将人类的一些内心独白简化为一系列逻辑论证,内置于机器人相关软件中加以识别。例如,在试验中,当命令机器人直直的朝一扇墙走去时,他果断拒绝,因为它自己识别到了该指示会带来危险。这项进展也着实令人欣慰。
最近谷歌的自动驾驶汽车显示,机器道德越来越成为一个严重的问题。这些自动驾驶汽车都安装有机器人设备,在开阔道路上,如果它们盲目的遵循设定指示时,遇到复杂棘手的路况时,便会给乘客带来危险。
如果你有幸与塔夫特实验组一起工作,你就可以见证机器人是如何思考,并且目睹在指示不合常理,有望伤人的情况下,它们是怎样义正言辞的说出“对不起,我不能这样做!”
新闻稿件欢迎直接联系:QQ 34004818 微信公众号:cpsjyzb
我要评论
0 条评论
- 还没有人评论过,赶快抢沙发吧!