2018年6月14日,英国查塔姆研究所网站发布题为《Artificial Intelligence and International Affairs: Disruption Anticipated》的报告,作者是:M. L. 卡明斯,杜克大学人类与自主实验室主任;希瑟M.罗夫博士,牛津大学政治与国际关系部高级研究员,亚利桑那州立大学全球安全倡议研究员;肯尼斯·库基耶,《经济学人》数字产品高级编辑;雅各布·帕拉基拉斯博士,美国和美洲项目副主任;汉娜·布莱斯,该所国际安全部前任部长助理。报告认为,人工智能的崛起必须在短期内得到更好的管理,以降低长期风险并确保人工智能不会加剧现有的不平等。
报告考察了人工智能的发展和越来越多的应用可能引发的决策者面临的一些挑战。它汇集了人们对未来10-15年内人工智能在特定国际事务领域(从军事、人类安全和经济角度看)可能产生的影响的思考。
报告提出了一个广泛的框架来界定和区分人工智能在决策和国际事务中可能发挥的作用类型:这些作用类型被划分为分析性、预测性和操作性。
在分析性作用中,人工智能系统可能允许更少的人员做出更高层次的决策,或者自动执行重复性任务,例如为确保条约的履行而设置的监视传感器。在这些角色中,人工智能很可能会改变人类决策者理解世界的结构(在某些方面已经发生了变化)。但这些变化的最终影响可能会减弱而不是导致变革。
人工智能的预测性用途可能会产生更严重的影响,尽管这种影响可能在较长的时间内才能显现。这类用途可能会改变决策者和国家对具体行动方案潜在结果的理解。如果这类系统变得足够准确和可信,就可能导致配备这类系统与没有这类系统的那些行为者之间存在巨大的差距,并且会有显著的不可预知的结果。
人工智能的操作性用途在短期内不可能完全实现。完全自主化的车辆、武器以及个人助理机器人等其它物理世界系统在监管、道德和技术上的障碍非常之大,尽管在克服这些障碍方面取得了快速进展。然而,从长远来看,这类系统不仅可以彻底改变决策的方式,而且可以改变行为方式。
报告为各国政府和国际非政府组织提出以下建议,这些建议将在制定和倡导新的道德准则方面发挥特别重要的作用:
•从中长期来看,人工智能的专业知识不应只存在于少数几个国家——或者仅限于一小部分人口。全球各国政府必须投资发展和留住人工智能的本土人才和专业知识,如果这些国家要独立于现在一般集中在美国和中国的人工智能专长优势。这些国家应该努力确保在广泛的基础上培养工程人才,以缓解固有的偏见问题。
•企业、基金会和政府应该拨款开发和部署符合人道主义目标的人工智能系统。人道主义部门可从这类系统中获得重大益处,例如可能会缩短紧急情况下的响应时间。然而,因为用于人道主义目的的人工智能不太可能立即为私营部门赚钱,所以需要做出协调一致的努力,在非营利的基础上发展它们。
•了解人工智能系统的能力和局限性不应只专属于技术专家。应该尽可能广泛地提供更好的关于人工智能的教育和培训,而对于开发这些技术的人来说,理解基本的道德和政策目标应该是更高优先级事项。
•在公共和私营部门人工智能开发人员之间建立牢固的工作关系,特别是在国防部门,这一点至关重要,因为正在商业部门正在涌现许多创新。确保负责关键任务的智能系统能够安全、合乎道德运作,将需要不同类型的机构之间保持开放性。
•必须制定明确的业务守则,以确保可以广泛分享人工智能的益处,同时良好地管理共生风险。在制定这些行为守则时,政策制定者和技术人员应该理解管控人工智能系统的方式可能与规范军火贸易有根本的区别,但同时也要从军贸模型中汲取相关经验教训。
•开发人员和监管人员必须特别关注人机界面问题。人工智能和人类智能基本上是不同的,必须仔细设计并不断审查两者之间的接口,以避免可能因许多应用出现严重后果而产生误解。
在这份报告即将完成之际,公众的注意力已经越来越多地转向人工智能被用来支持假情报活动或干涉民主程序的可能性。我们打算在随后的工作中关注这一领域。