跳转到主要内容

对人工智能RMF有效性的评估——包括衡量人工智能系统可信度底线改善的方法——将与人工智能社区一起成为NIST未来活动的一部分。

鼓励各组织和该框架的其他用户定期评估人工智能RMF是否提高了其管理人工智能风险的能力,包括但不限于其政策、流程、实践、实施计划、指标、测量和预期结果。NIST打算与其他机构合作,制定评估人工智能RMF有效性的指标、方法和目标,并广泛共享结果和支持信息。框架用户有望受益于:

  • 加强人工智能风险的治理、绘图、测量和管理流程,并明确记录结果;
  • 提高了对可信度特征、社会技术方法和人工智能风险之间的关系和权衡的认识;
  • 制定允许/不允许系统调试和部署决策的明确流程;
  • 为改进与人工智能系统风险相关的组织问责工作而制定的政策、流程、实践和程序;
  • 加强组织文化,优先识别和管理人工智能系统风险以及对个人、社区、组织和社会的潜在影响;
  • 更好地在组织内部和组织之间共享有关风险、决策过程、责任、常见陷阱、TEVV实践和持续改进方法的信息;
  • 更多的背景知识,提高对下游风险的认识;
  • 加强与有关各方和人工智能相关行为者的接触;和
  • 增强了人工智能系统的TEVV能力和相关风险。
本文地址

知识星球

微信公众号

视频号