人工智能 (AI) 在战争演变中的应用正在迅速推进。正如最近在乌克兰、阿塞拜疆、叙利亚和埃塞俄比亚发生的冲突所表明的那样,自主和半自主无人机正在成为攻击常规目标的廉价而简单的工具。无人机群淹没加拿大军事设施的威胁,以及对关键基础设施的网络攻击代表了越来越有可能的未来。
除了科幻小说中经常出现的夸张之外,重要的是要了解将 AI 应用于战场的内在危险。以军用无人机和机器人技术形式出现的致命自主武器系统 (LAWS)的扩散,以及中国作为世界主要大国的崛起,已经开始重塑全球秩序。加拿大和其他北大西洋公约组织 (NATO) 成员国积极参与有关监管军事人工智能的讨论,可能是管理这一不断变化的地缘政治格局的关键。
显而易见的是,我们正生活在两个时代之间的过渡时期:以美国主导为特征的工业时代和以多极全球秩序崛起为特征的新数字时代。自第二次世界大战结束以来,全球秩序一直由一系列以国际法为基础的公约、条约、专利和合同维系在一起。这种“基于规则的秩序”似乎正在逐渐结束。
确定军用人工智能开发中的“护栏”,对于管理这一新现实至关重要。与蒸汽机和内燃机一样,人工智能是一种通用技术,能够改变战争的节奏和规模。不幸的是,规范人工智能使用的战争法——无论是发动战争的条件,还是人工智能在战争中的行为,都尚未确定。
将人工智能作为战争武器进行监管的必要性是显而易见的:随着军用无人机和机器人技术变得越来越便宜和普及,它们将为一系列国家和非国家行为者提供获得致命自主武器系统(LAWS)的机会。事实上,今天的许多国家在部署致命自主武器系统(LAWS)方面已经很先进。尽管许多国家支持“禁止开发和使用自主武器的具有法律约束力的条约”,但主要军事大国都认为将人工智能武器化具有重要价值。
对于俄罗斯、美国等大国来说,缺乏相互信任仍然是达成集体军备控制协议的一大障碍。尽管如此,与未经控制的军事AI扩散相关的危险是显而易见的。事实上,目前推动儿童玩具、社交媒体、音乐流媒体、自动驾驶网络等世俗行业的算法,也促进了致命自主武器系统(LAWS)的发展。
人工智能仍然是一个移动的目标。与核扩散或基因改造病原体不同——核扩散或基因改造病原体的潜在破坏力很容易控制——人工智能本质上是软件。例如,“杀手机器人”不是特定类型创新的产物。相反,它更像是一系列技术的集合——由不断进步的软件算法编织在一起。
幸运的是,这并不是世界各国家第一次面临影响全球安全的新技术。尽管对人工智能及其武器化存在许多不同的看法,但过去关于大规模杀伤性武器的谈判可以作为未来条约的基础,特别是在确定战争规则方面。正如北约新兴和颠覆性技术咨询小组所观察到的那样,各个国家特别是主要大国之间,应寻求促进和建立多边对话,以建立全球人工智能发展和治理的全面架构。
在整个冷战期间,包括“定期对话、科学合作和共享学术成果”在内的建立信任措施,对于管理地缘政治紧张关系至关重要。第二次世界大战结束后,世界上最强大的国家——美国、英国、苏联、中国、法国、德国和日本——监督了核武器、化学制剂和生物战的全球治理。
当时与现在一样,世界必须采取集体行动,管理新一代高度先进的大规模毁灭性武器。
版权归原作者所有,如若转载,请注明出处:https://www.ciocso.com/article/463887.html