2022年5月11日,兰德公司网站发布报告,题为《Exploring the Civil-Military Divide over Artificial Intelligence》,作者是詹姆斯·瑞瑟夫(技术分析师)和埃里克·兰德里等8人。报告要点如下:
研究的问题
(1)哪些因素会在美军人工智能(AI)潜在应用方面对软件工程师的感受产生影响?
(2)软件工程师对社会机构(特别是对国防部)的信任程度与其在为国防部构建人工智能应用程序的可接受性方面的看法之间是否存在相关性?
(3)软件工程师是否认为已被国防部确定为战略竞争对手的那些国家对美国构成重大威胁?
(4)软件工程师依赖哪些类型的新闻媒体和其它信息源来获知与国防部相关的事件?
人工智能预计将成为美军维持其军事主宰地位的关键能力。美国国防部与领先的高科技私营企业合作,而在其客户群中军方所占比例相对较小,这为实现尖端的人工智能赋能能力和获得领先人工智能软件开发人员和工程师提供了有价值的渠道。为了评估私营部门的软件工程师和其他技术人员对国防部人工智能潜在应用的看法,一个研究团队进行了一项调查,该调查提出了描述美军人工智能使用方式的各种想定,并且要求受访者针对这些人工智能的使用方式描述其感受。这些想定涉及几个变量,包括与战场距离的远近、行动的破坏性以及对人工智能算法的人工监督程度。这项调查的结果发现,大多数美国人工智能专家并不反对国防部的基本任务或人工智能的许多军事应用。
重要发现
(1)硅谷和国防部之间似乎不存在不可逾越的鸿沟
• 来自硅谷科技公司和拥有一流计算机学科的那些大学的受访者对人工智能的各种军事应用感到满意。
(2)对涉及使用致命武力的人工智能应用程序的感受存在显著差异
• 在3家接受调查的硅谷科技公司中,约有1/3的受访者对人工智能的致命用例感到不安。
(3)科技工作者对领导者的信任程度很低——他们相互之间甚至也不信任
• 软件工程师和其他技术工作者对担任领导职务的个人缺乏信任。
• 科技工作者对科技公司CEO的信任几乎与其对民选官员或联邦机构负责人的信任程度一样低。
(4)科技工作者最担心美国受到赛博威胁
• 在所有3个群体中,超过75%的受访者还认为中国和俄罗斯对美国构成严重威胁。
(5)科技工作者支持使用武力防御外国侵略
• 调查受访者强烈支持使用武力保卫美国及其北约盟国免受外国侵略,近90%的参与者认为在这种情况下使用武力是合理的。
(6)硅谷科技工作者与军方几乎没有个人联系
• 硅谷受访者只有不到2%曾在美国武装部队服役。
• 在国防承包商工作的软件工程师中,只有近20%曾在美军服役。
建议
• 应探索扩大国防部与硅谷公司之间合作的机制,共同应对赛博攻击所构成的威胁,赛博攻击是人工智能的潜在应用,硅谷工程师将其视为关键的全球威胁。
• 应探索扩大参与军事行动的人员、国防部技术专家和在技术岗位上工作的硅谷个人贡献者(非管理人员)之间的接触,以评估在各组织之间建立更大信任的可能渠道。
• 应探索国防部与硅谷工程师就国防部如何使用人工智能的一些细节进行合作的潜在好处;此外,阐述军方在微妙和复杂的情况下如何考虑使用人工智能。
• 应调查为国防部和硅谷员工提供参与共享价值观和原则之机遇的价值以及这样做的潜在益处。最近发布的国防部人工智能伦理原则表明,国防部本身对人工智能的一些潜在用途感到不安:这可以作为与硅谷工程师讨论如何应用人工智能的基础。
• 另一个可能富有成果的调查领域是评估收益并调整各类接触,以帮助最具创新性和经验的美国人工智能专家了解国防部如何完成其使命,并发现他们的才能和专业知识如何有助于解决国防部和国家的问题。