新浪新闻客户端

人工智能(AI)武器化,为何俄罗斯研制多年,没在乌克兰进行实战

人工智能(AI)武器化,为何俄罗斯研制多年,没在乌克兰进行实战
2022年11月24日 18:41 新浪网 作者 陶唐氏

  我们知道,俄罗斯人一直在试验人工智能(AI)的武器化,但我们没有看到决定性的证据表明他们在俄乌战争中以任何有意义的方式使用它。

  这有几个潜在的原因。最有可能的是,他们还没有进展到足以信任人工智能在战场上的独立使用。最不可能的是,鉴于他们对乌克兰平民的残暴行为,以及他们相对不受阻碍地使用不分青红皂白的火炮和导弹打击,他们对使用这种技术的武器有任何道德上的顾虑。我们还知道,中国人和伊朗人正在研究人工智能的军事化问题,但关于这个问题的公开资料并不多。

  杀手级人工智能长期以来一直是科幻小说猜测的来源。“终结者”和“战争游戏”电影是对这种不受人类控制的武器的警示性警告。在《星际迷航》的一个著名情节中,人工智能被允许在一次军事演习中控制星舰企业号,并造成死亡和破坏,直到柯克船长和他的船员重新获得指挥。直到现在,这类问题还是推测性的。今天,技术上的进步正迫使我们真正解决这些问题。

  

  《终结者》这个经典形象和“天网”成为了美国形容失控人工智能的代名词

  西方国家,特别是美国,已经表现出不愿意让人工智能在没有人类成年监督的情况下在战场上独立运作。然而,如果对手对人工智能的使用显示出决定性的战术和行动优势,这种情况可能会改变。毫无疑问,人工智能可以比人类操作员更快地做出决定,但问题是,这些决定是否会更好?

  奥萨马-本-拉登2001年从阿富汗的托拉博拉山逃脱,主要归咎于美国中央司令部的目标定位小组的深思熟虑的决策过程,在那里,一个军官委员会没有同意开枪,直到预定目标消失在山洞里。海军陆战队的新兴威胁和机会中心(CETO)进行了一项实验,研究模拟的人工智能决策过程是否可以改善目标选择问题。两个小组得到了一套相同的20个瞄准问题,模拟装备有地狱火导弹的MQ-1“捕食者”无人驾驶飞机。这些问题从简单到非常复杂不等。有些问题涉及到平民与敌方战斗机的混合。

  

  MQ-1“捕食者”是美国陆军的固定翼无人机,也是最早投入实战的察打一体无人机,实际上他有自我识别攻击能力,但美国人没敢用

  第一个小组是由情报人员、业务律师和公共事务专家组成的人类瞄准小组,由一名经验丰富的行动官员领导--类似于托拉博拉局势中的决策小组。第二小组假设“捕食者”无人机上有 “开枪或不开枪”的AI决策。模拟人工智能的单一人类有一套严格的标准,以模拟计算机编程的方式做出决定。结果是非常有趣的。不足为奇的是,人工智能模拟的决策速度比瞄准小组快,但两者都有大约20%的时间做出了错误的决定。两者出错的情况普遍不同,但与实际作战一样,两者都无法避免战争迷雾的影响。

  这里最大的区别是问责制。人类团队可以对其决定负责,而且当无辜平民出现时,它通常会在安全方面犯错。人工智能受到的限制较少,被要求严格按照编程指令的限制行事。在一个案例中,它向一群武装叛乱分子藏身的街道遮阳篷开火,杀死了模拟露天市场中的一群购物者。诸如此类的情况引起了谁将对死亡负责的问题。会是为人工智能编程的人吗?会是制造商吗?我们总是可以让飞机退役,但这能解决什么问题?

  这里的真正问题仍然是道德问题。除了机器人对机器人的战斗情况,使用人工智能将要求机器人决定夺取人类的生命。如前所述,我们的潜在对手很可能不会被道德或法律问题所吓倒,而且这有可能给他们带来独特的战术优势。

  

  现在比起技术问题,道德问题才是主要的

  在某种程度上,我们今天在武器中使用有限的计算机决策。巡航导弹和其他“发射后不管”系统自己飞向目标,但最初的交战决定仍然是由人类做出的。如果无辜者被杀,就会有一个责任链。

  战争中总是会发生附带的平民损害,而且要对拯救的友军生命进行权衡,但这是人类的决定。将人类排除在循环之外,不应纯粹停留在技术考虑上。这是一个可能与地雷、化学武器和核武器一样严重的问题。如果战争太重要了,不能只留给将军们,那么我们需要问一问,我们是否希望战争掌握在机器人的手中。

  加里-安德森是海军陆战队新兴威胁和机遇中心的创始主任。本文首先出现在Military.com上。

特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。
来自于:北京
权利保护声明页/Notice to Right Holders

举报邮箱:jubao@vip.sina.com

Copyright © 1996-2024 SINA Corporation

All Rights Reserved 新浪公司 版权所有