美国和其他大国正在抗拒一些国家呼吁的新法律限制,它们担心机器人战争的风险。就在这里,我们谈谈这个超科幻的事儿:自主寻找目标的杀手机器人群!美国、中国和其他几个国家正在快速发展这些技术,可能会改变战争的本质,让生死决定权交给配备人工智能程序的自主无人机。
不过,这事儿让很多国家都急了,他们在联合国提议,要对所谓的致命自主武器使用强制性法律规则。奥地利首席谈判代表Alexander Kmentt说这是人类历史上的一个重要转折点,关于人类在使用武力中的角色,这是个安全、法律和道德的大问题。
但联合国的讨论似乎不太可能很快产生具有约束力的新规定。美国、俄罗斯、澳大利亚、以色列等国都认为目前不需要新的国际法,而中国则希望将任何法律限制定义得非常狭窄,以至于实际效果很小。
最近,人工智能的风险讨论再次引起关注,特别是围绕OpenAI(可能是世界领先的AI公司)的控制权之争。中国和美国官员上周还讨论了一个相关议题:限制AI在决定使用核武器方面的应用。
现在的问题是,是否应该只让联合国通过非约束性指导方针,这是美国支持的立场。但这种大国的立场只增加了小国的焦虑,他们担心在达成使用规则之前,致命自主武器可能会在战场上变得普遍。
随着人工智能的迅猛发展和无人机在乌克兰和中东冲突中的密集使用,这个问题变得更加迫切。到目前为止,无人机通常依赖于人类操作员执行致命任务,但正在开发的软件很快将允许它们更多地独立寻找和选择目标。
但是,美国已经采纳了自愿政策,对人工智能和致命自主武器的使用设定了限制,包括今年修订的五角大楼政策“武器系统中的自主性”和相关的国务院“负责任使用人工智能和自主性的政治宣言”。
有些武器管制倡导者和外交官不同意,他们认为AI控制的致命武器如果没有人类授权单独打击,会改变战争的性质,因为它们在决定夺取生命时消除了人类的直接道德作用。
这些AI武器有时会以不可预测的方式行动,它们可能会在识别目标时犯错误,就像无人驾驶汽车会发生事故一样。新武器还可能使战时使用致命武力变得更加可能,因为发射它们的军队不会立即将自己的士兵置于风险之中,或者它们可能导致更快的升级。
奥地利外交官Kmentt承认,联合国在执行现有限制战争方式的条约方面遇到了困难。但他说,仍然需要制定一个新的具有法律约束力的标准。