观点 2020-05-26 08:05

人工智能驱动的杀手机器人是不可避免的吗?

郭道平 摘自 新美国安全中心网站

2020年5月19日,新美国安全中心(CNAS)网站转发wired网站题为“Are AI-Powered Killer Robots Inevitable?”的评论文章,作者是技术与国家安全项目主任兼高级研究员保罗·沙尔。报告指出,军事学者警告说,在“战场奇点”,人类再也无法跟上冲突的步伐。

在战争中,速度是致命的。抽签较快的士兵可以毫发无损地从交火中脱身;首先使敌船沉没的舰只可以免遭导弹的袭击。万一人类无法跟上现代冲突的步伐,机器就会介入。当火箭推进榴弹向装甲车飞奔时,甚至在车内人员还没有意识到的情况下,车载自动系统会识别和跟踪威胁并启动拦截它的对策。同样,装备有“宙斯盾”战斗系统的美国海军舰只也可以打开“特殊自动”模式,该模式会根据精心设计的程序规则自动击落来袭弹头。

这类防御系统已经存在了数十年,现在至少有30个国家在使用它们。在许多方面,它们类似于较新的汽车自动制动系统,仅在特定紧急情况下才进行干预。但是,像汽车制造商一样,军队也逐渐使机器更加自由自在。在去年的一次演习中,美国展示了如何在所谓的“杀伤链”中使用自动化技术:一颗卫星发现了一艘模拟敌舰,并指示一架监视飞机飞近以确认其身份;然后,监视飞机将其数据传递给空中指挥与控制飞机,后者选择由一艘海军驱逐舰对其进行攻击。在这种情况下,自动化系统会在杀伤链的末端为军官腾出更多的时间来做出明智的决定——是否向敌舰开火。

到目前为止,在完全自主武器方面尚未达成共识。将近30个国家支持全面禁止,但其中没有一个是军事大国或主要的机器人开发国。在联合国,自主武器每年都是辩论的主题,中国、俄罗斯和美国都阻碍了颁布禁令的努力(美国和俄罗斯完全反对,而中国在2018年提出了一项没有实际意义的禁令)。联合国面临的挑战之一是非政府组织与军队之间的拔河比赛,如“制止杀手机器人运动”组织以裁军为目标,而军队坚称除非自己能够证明其对手也会这样做,否则他们不会同意裁军。

自主武器对监管提出了一些独特的挑战。无法像核弹头(如150万吨级)那样观察和量化它们。自主性到底由什么构成,应该允许多大程度的自主性?如何区分对手的遥控无人机与配备终结者软件的无人机?除非安全分析人员能够对这些问题找到满意的答案,并且中国、俄罗斯和美国能够在相关限制上取得共识,否则自主化仍将继续推进。无论大国向处走,世界其它地区都将不可避免地随之跟进。

(欢迎转载,转载请标明引自“航空工业信息网”)

阅读 收藏

相关专题: