【据美国国防部网站2019年11月1日报道】,国防部国防创新委员会10月31日在研讨会上提出了发展人工智能需要遵守的原则:1)责任,人类需要具有适当的判断力,并对国防部人工智能系统的研发、部署、使用和结果负责;2)平衡,国防部需要慎重行动,平衡作战和非作战人工智能系统的研发和部署,以免不平衡在无意中对人造成伤害;3)追溯性,国防部的人工智能工程研发制度需要让技术专家能够适当了解国防部人工智能系统的技术、研发流程和使用方法,内容包括公开和可审核的方法,数据源,设计流程,文档;4)可靠,国防部人工智能系统应有明确的、详细规定的使用范围,在使用范围内,人工智能系统的安全性、保密性、鲁棒性需要在全寿期内测试和认证;5)可控,国防部人工智能系统需要在完成设计任务的同时具备探测和避免意外破坏或干扰的能力,并在出现意外时能人工或自动离线或停用。 国防创新委员会指出,这些原则仅用于解决国防部现有人工智能开发原则可能未涵盖的人工智能问题。联合人工智能中心主任,空军中将沙纳汉表示,国防创新委员会的建议将有助于增强国防部根据人工智能开发原则发展相关技术。 (中国船舶信息中心 周智伟) (责任编辑:鼎盛军事网) |