首页>报告>行业>正文
SIPRI发布《负责任的人工智能研究和国际和平与安全创新》
发布机构: sipri 发布人: sipri
发布时间: 2020-11 报告类型: 行业报告
关键词: 人工智能  创新  SIPRI  
起始页码: 1 结束页码: 48
页码: 1 总页数: 48
报告摘要:

报告探讨了如何通过采用和促进负责任的研究与创新(RRI)作为军备控制上游方法,减轻人工智能(AI)的开发、传播和军事使用所带来的风险。其主要发现和建议总结如下:

人工智能的军事和双重用途的开发、传播和采用是不可避免的;而是一种选择,必须在适当减轻风险的情况下做出选择。

军备控制界目前正在考虑其在确保解决AI技术带来的风险方面可以发挥的作用。仍然在争论标准的军备控制工具可以在多大程度上减轻军事上使用AI所带来的人道主义和战略风险。这种使用掩盖了复杂的技术现实,这一事实使有关该主题的讨论具有挑战性。AI是一种使能技术超越了通常以军备控制过程为中心的以技术为中心的孤岛,需要一定水平的技术专长,作为军备控制程序的中央参与者,它们可能无法充分、迅速地动员来理解和应对这一领域的快速发展。此外,人工智能已经成为大国竞争的对象,这为寻求军事控制以应对与军事使用人工智能有关的风险而对军备控制提出了地缘政治挑战。

在这种情况下,报告发现RRI作为一种技术治理方法可能有用,原因有:首先,它的目的是让所有相关的利益相关者参与其中,特别是学术界和行业界,他们对AI技术的发展、传播和军事使用可能带来的风险具有技术上的了解。第二,它为研究和开发的早期阶段提供了一个军备控制可能不容易掌握的治理框架。第三,RRI是预防性的,本质上是迭代性的。它旨在识别风险并在风险发生之前对其采取行动。此外,它不但要这样做一次,而且要在技术的整个生命周期中这样做。最后,由于RRI不一定要强加硬性规定,因此与正式的军备控制讨论相比,RRI的政治化程度可能更低。

与军备控制一样,RRI也有其局限性。这只是其中一种方法,缺乏统一的实施和执行机制。

同时,RRI制定的原则和自治工具可以帮助军备控制界在审议AI带来的风险治理方面取得进展。值得注意的是,RRI流程可以建立在现有负责任的AI计划、出口控制和内部合规系统的基础上。

近年来发起的许多举措都针对AI开发中RRI的原理和机制。尽管AI创新具有双重用途,但这些通常不会解决与军事使用AI有关的风险,尽管它们显然应该解决。在此背景下,报告探讨了通过RRIAI方面的现有努力可以将国际和平与安全考虑纳入主流。从人道主义和战略角度来看,都需要提高人们对人工智能研究和创新的第二和第三阶效应的认识。该报告讨论了AI研究人员和工程师如何通过多种方式评估和限制其工作的后果。其中可能包括:(a)遵守很高的道德和安全标准; b)发展技术影响评估和预见的机制和方法; c)设计故障安全机制; d)在发表研究结果时采取预防措施。大学,研究机构和公司已经通过遵守出口控制法规规定的义务并进行资助组织要求的风险评估,以负责任的方式传播了AI技术。内部合规计划(ICPs)已经提供了程序、培训和系统,可帮助研究人员和开发人员遵守法律规定。对于AI技术,该报告发现,将此类合规性系统与道德审查机制和健壮性检查联系起来,以便对这些方面进行全面思考是一种很好的做法。最终,RRI应该在创新和商业化流程中做出决定,以帮助预防或先发减轻与AI的开发,传播和军事使用相关的风险。


原文链接: https://www.sipri.org/publications/2020/other-publications/responsible-artificial-intelligence-research-and-innovation-international-peace-and-security
附件: