美国通过在武器中使用人工智能的伦理原则

据俄罗斯卫星通讯社sputniknews报道,美国五角大楼2月24日发表声明宣布,正式通过了在武器中使用人工智能的伦理原则。据悉,在经过为期15个月制定出作战机器的伦理原则后,这些建议于2019年秋季送交美国防部长马克∙埃斯珀。人工智能本身将在未来可能定义和执行作战任务的可能性正在引起美国国内外专家针对军方的激烈争议和批评。目前,五角大楼将遵循五项基本原则。人工智能应是“负责”(Responsible)、“公平”(Equitable)、“可追踪”(Traceable)、“可靠”(Reliable…

  据俄罗斯卫星通讯社sputniknews报道,美国五角大楼2月24日发表声明宣布,正式通过了在武器中使用人工智能的伦理原则。

  据悉,在经过为期15个月制定出作战机器的伦理原则后,这些建议于2019年秋季送交美国防部长马克∙埃斯珀。人工智能本身将在未来可能定义和执行作战任务的可能性正在引起美国国内外专家针对军方的激烈争议和批评。

  目前,五角大楼将遵循五项基本原则。人工智能应是“负责”(Responsible)、“公平”(Equitable)、“可追踪”(Traceable)、“可靠”(Reliable)和“可控”(Governable)的。

  五角大楼解释说,“负责”原则要求在作战机器研制时具有“应有的常理和谨慎水平”。五角大楼认为,“公平”是指作战机器“为最大程度减少意外偏差所需的步骤”。同时,“可追踪”的人工智能是指军方将拥有所需的技术和操作技能,并确保程序和文档记录的透明度。如果在开发和使用过程中赋予人工智能“明确描述的功能”以及对其不断测试,那么人工智能就应该是“可靠”的。美国军方将“可控性”原则称为,当人类操作员在任何情况下都保有关闭“显示实施计划外行为”的作战机器的能力。

  美国国防创新委员会制定了人工智能使用原则,该委员会除军方和官员外还采用了技术专家的意见。

作者: alvin

为您推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

返回顶部