AI武器化风险引发国际关注:联合国展开讨论(更新)

AI技术在军事领域的应用引发了国际社会的广泛担忧。自主武器系统(即'杀人机器人')的发展使得国际社会开始认真讨论如何监管这一技术。

联合国已经召开了多次会议讨论自主武器系统的监管问题。多个国家呼吁制定国际条约来限制或禁止完全自主的武器系统。

这一议题涉及到技术、伦理、法律等多个层面,国际社会仍在寻求共识。

自主武器系统是指能够在没有人类干预的情况下,自主选择和攻击目标的武器系统。目前,多个国家正在研发不同程度的自主武器,从自动防御系统到完全自主的攻击无人机。这些技术的发展速度远超国际监管框架的建设速度。

在伦理层面,自主武器引发了关于'机器能否决定生死'的根本性争论。反对者认为,将生死决策权交给算法是对人类尊严的侵犯,且算法错误可能导致无辜平民伤亡。

在国际监管方面,联合国《特定常规武器公约》框架下已召开多次专家会议。超过30个国家支持制定具有法律约束力的国际条约来限制自主武器。然而,美国、俄罗斯、以色列等军事大国对此持保留态度,导致谈判进展缓慢。

专家警告,如果国际社会不能尽快就自主武器的监管达成共识,这一技术可能在未来十年内广泛扩散,对全球安全格局产生深远影响。