以俄罗斯入侵乌克兰为背景,联合国最近召开了一次会议讨论使用自主武器系统,一般称为杀手机器人。从本质上来说,这些武器是用来寻找一类目标,然后选择并攻击该类中的特定人物或物体,而人类几乎无法控制这些决定。

俄罗斯在这次讨论中处于中心位置,部分原因是它在这一领域的潜在能力,但也因为它的外交官阻挠讨论这些武器的努力,称制裁使他们不可能适当地参与。对于一场迄今为止进展太慢的讨论,俄罗斯的破坏甚至进一步拖了后腿。

七年多来,我一直在跟踪自主武器的发展,并参加了联合国关于该问题的讨论。俄罗斯的侵略正成为一个不幸的案例,测试人工智能(AI)推动的战争能够并可能如何进行。

这些武器系统背后的技术是不成熟的容易出错的此外,系统如何运作和做出决策的问题也不太清楚。这些武器中有一些总是会击中错误的目标,而竞争压力可能会导致部署更多不是这样的系统准备好了battelfield。

为了避免无辜生命的丧失和乌克兰及其他地区关键基础设施的破坏,我们需要作出最强有力的外交努力,在某些情况下禁止、在其他情况下规范这些武器及其背后技术的使用,包括人工智能和机器学习。这是至关重要的,因为当军事行动进行时,贫穷的国家可能会被诱惑使用新技术来获得优势。俄罗斯就是一个例子KUB-BLA闲逛弹药该公司拥有使用人工智能识别目标的能力。

输入到基于人工智能的系统中的数据可以告诉远程武器目标是什么样子的,以及在达到目标后该做什么。虽然与面部识别工具类似,用于军事用途的人工智能技术有着不同的含义,特别是当它们旨在摧毁和杀戮时,因此,专家们对将它们引入动态战争环境表示担忧。虽然俄罗斯可能成功地阻止了有关这些武器的实时讨论,但它并不是唯一一个。美国、印度和以色列都在对抗对这些危险系统的监管。

人工智能在中国的应用可能更加成熟和知名网络战,包括加强恶意软件攻击,或更好地模拟受信任的用户,以访问关键的基础设施,如电网。但是,主要大国正在利用它发展物理破坏性武器。俄罗斯已经在自主方面取得了重要进展坦克美国的机器可以在没有人工操作的情况下运行,而人工操作理论上可以消除错误,而美国已经展示了一些能力,包括弹药可以用。摧毁水面舰艇群无人机.人工智能被用于开发蜂群技术和巡逻弹药,也被称为神风特攻队无人机。与科幻电影中出现的未来机器人不同,这些系统使用了利用人工智能技术的现有军事平台。简单地说,几行代码和新的传感器就可以决定一个军事系统是自主运行还是在人类控制下运行。至关重要的是,将人工智能引入军队决策可能会导致对该技术的过度依赖,塑造军事决策,并可能导致冲突升级。

基于人工智能的战争可能看起来像一个电子游戏,但去年9月,据美国空军部长弗兰克·肯德尔表示,美国空军首次使用人工智能来帮助识别一个或多个目标。一个活生生的杀伤链据推测,这意味着人工智能被用于识别和杀死人类目标。

没有提供多少关于特派团的资料,包括所发生的任何伤亡是否为预定目标。使用了哪些输入来识别这些个人,在识别过程中是否可能存在错误?人工智能技术已经被证明是有偏见的,尤其是对女性和少数族裔社区的人。错误的识别对已经边缘化和种族化的群体造成了不成比例的影响。

如果最近的社交媒体之间的讨论人工智能社区有迹象表明,主要来自私营部门的开发人员正在创造一些军队已经部署的新技术,他们基本上没有意识到它们的影响。科技记者杰里米·卡恩对此表示赞同《财富》杂志,一个危险的脱节存在于开发者和主要军队之间,包括美国和俄罗斯,它们正在使用人工智能进行决策和数据分析。开发人员似乎不知道他们正在开发的一些工具的通用性质,以及军队如何在战争中使用它们,包括针对平民。

毫无疑问,从这次入侵中吸取的教训也将影响军队追求的技术项目。目前,美国处于领先地位,但只是一个联合国家声明俄罗斯和中国在2月初表示,他们的目标是“共同构建新型国际关系”,并特别指出他们的目标是塑造新技术的治理,包括我认为将用于军事的人工智能。

独立,美国及其盟友正在制定负责任的人工智能军事应用规范,但通常不会与潜在的对手对话。总体而言,拥有更先进军事技术的国家一直不愿接受任何对人工智能技术发展的限制。这就是国际外交至关重要的地方:必须对这类武器进行限制,每个人都必须同意共享使用这些技术的标准和透明度。

乌克兰战争应该是一个警钟,提醒人们在战争中使用技术,以及规范人工智能技术以确保平民保护的必要性。对人工智能的军事应用进行不加限制和可能仓促的发展,将继续破坏有关保护平民的国际人道主义法和规范。虽然国际秩序混乱,但解决当前和未来危机的方法是外交,而不是军事,联合国或其他组织的下一次会议需要迅速解决这个战争的新时代。