The Problem of Defining Autonomous Weapons Chinese | AI

但是了解武器系统能做什么,只是等式的一部分。在大多数系统中,人类仍然保持着不同程度的控制,而军方也经常声称人类总是处于“决策中”。也就是说,人类总是对系统有着某种意义的控制。但是这导致了另一个定义性问题:什么是有意义的人类控制?

罗夫认为,让人始终处于“决策中”的想法,不仅“没有帮助”,而且可能“阻碍我们思考自主系统存在问题的能力”。她提到了英国国防部称之为空机库问题:没有人希望走进军用飞机库,发现自主飞机可以自主决定开战。

罗夫f说:“这种情况不会发生,这些系统总是被人类使用,而由人类决定是否使用它们。”但她认为,思考在某种决策中的人类意味着把跟自主有关的任何困难都被推到了一边。

今年早些时候,关于“有意义的人类控制”一词,罗夫研究了第三十六条文章(Article 36),从而更清晰地定义这个词。他们发表了一份概念性论文《有意义的人类控制,人工智能和自主武器》,这篇文章为2016年CCW致命自主武器系统专家会议提供了指导方针。

在这篇论文中,罗夫和理查德 莫耶斯(Richard Moyes)概述了关键要素,如可预测、可靠性和透明技术、准确的用户信息,及时的人类行为和干预能力、攻击期间的人员控制等,用于确定AWS是否允许有意义人类的控制。

罗夫说:“你不能把你的道德义务转嫁给非道德媒介。这就是我认为关于有意义的人类控制我们需要研究的地方:人类指挥官在每次攻击中,都有道德义务来防范及对抗。”武器系统不能替人类做到这一点。

研究人员和国际社会刚刚开始解决AWS产生的伦理问题。对武器系统和人类将继续发挥作用的明确界定,是一个很严重问题的一小部分。罗夫将继续与国际社会合作,制定更明确的目标和指导方针。

她说:“我希望国际上能共同形成理论和讨论,自主志趣相投的状态实际上会生产规范,自主规范引导如何使用或不使用这种系统。

海瑟 罗夫在未来生命研究所(FLI)播客中也谈到了这项工作。

本文是AI安全研究基金的“未来生活”系列文章的一部分,该基金由伊隆 马斯克(Elon Musk)慷慨捐赠以及开放慈善项目的资助。

分享这篇文章

文明的大部分益处都来源于智慧,那么我们如何用人工智能来增强这些益处,而不会在就业市场上甚至各个领域,被取而代之呢?

You might also like More from author

Comments are closed.