NoelSharkey在游说过程中争取对机器人武器的禁令。
如果你的使命是:说服全球军事工业园区放弃可能会改变21世纪战争的一种武器。你会认为这是堂吉诃德式的想法?NoelSharkey却不这么认为。在2007年《卫报》上的一篇充满挑衅性的专栏文章中,这位英国谢菲尔德大学的计算机科学家写道,不久以后,机器人武器将拥有决定哪些人是被杀害目标的权利。对许多人来说,该警告也许只会使他们想到小说中的机器人,但是对于一些人工智能专家来说,它体现了对那种只依靠算法区分战士与平民的自动武器的真实恐惧。
由于Sharkey和其他科学家的努力,自主杀人机器人的到来可能会被阻止。上个月在瑞士日内瓦召开的会议上,签署《特定常规武器公约》(CCW)的117国成员同意检查针对自动武器的相关规定。CCW已经在规定中禁止或约束埋布地雷、燃烧弹、集束弹药和致盲激光。将机器人武器加入到该名单“已经不再是幻想”,担任非政府间团体国际机器人武器控制委员会(ICRAC)主席的Sharkey如是说:“在阻止这些可憎武器的部署方面,我们已经迈出了重大一步。”
就像坦克、潜艇和原子弹重写了20世纪战争规则一样,自动武器系统是少数被称为21世纪战争规则改变者的技术之一。“军队正在研发更多的自动系统,并不是因为它们灵巧或者冷酷,而是因为人们看到了它们在战场上的优势。”美国华盛顿布鲁金斯学会21世纪安全和情报中心负责人PeterSinger表示。
政府的纵容
美国国防部(DOD)在2007年12月的一份报告中,提出了无人系统未来25年的发展愿景,其中包括呼吁开发机器人的自主定位和摧毁目标功能。令Sharkey和同事感到担忧的是,DOD在2012年11月发布了一项 政策指令,不仅确认了机器人武器可能会针对“物资目标”,还暗示如果国防部高层官员签署“正式开发指令”,人也会成为其目标。
“这件事并不高调,但世界因此有了第一份公开宣布开发杀手机器人的国家政策。”ICRAC的MarkGubrud在9月20日的《原子科学家公报》中写道,Gubrud是普林斯顿大学科学与全球安全项目的前研究员。2002年,Gubrud和其他观察人士首次提出警告,他和其同事——德国多特蒙德科技大学的物理学家JrgenAltmann呼吁推出针对杀手机器人的禁令,以防止未来的军备竞赛。Gubrud写道:“DOD的2012年指令实际上根本没有顾及到长期以来存在军队内部的阻力,并向开发商和供应商释放了五角大楼在认真对待自动武器的信号。”
美国和其他国家长期以来都支持无人系统,比如无人机,DOD和中央情报局(CIA)在数以百计的任务中利用它杀死塔利班、基地组织和其他恐怖组织的成员。不过,到目前为止,在大多数情况下,还是人类操作员起决定作用,而国防部对于允许机器人作杀人决定的问题一直持不冷不热的态度。
- 上一篇: 小小鼠标无极限:未来我们还需要鼠标吗?
- 下一篇: 全球最诡异的十大诅咒,不能触碰的禁忌物品
评论