Chinese, Simplified
对人工智能RMF有效性的评估——包括衡量人工智能系统可信度底线改善的方法——将与人工智能社区一起成为NIST未来活动的一部分。
鼓励各组织和该框架的其他用户定期评估人工智能RMF是否提高了其管理人工智能风险的能力,包括但不限于其政策、流程、实践、实施计划、指标、测量和预期结果。NIST打算与其他机构合作,制定评估人工智能RMF有效性的指标、方法和目标,并广泛共享结果和支持信息。框架用户有望受益于:
- 加强人工智能风险的治理、绘图、测量和管理流程,并明确记录结果;
- 提高了对可信度特征、社会技术方法和人工智能风险之间的关系和权衡的认识;
- 制定允许/不允许系统调试和部署决策的明确流程;
- 为改进与人工智能系统风险相关的组织问责工作而制定的政策、流程、实践和程序;
- 加强组织文化,优先识别和管理人工智能系统风险以及对个人、社区、组织和社会的潜在影响;
- 更好地在组织内部和组织之间共享有关风险、决策过程、责任、常见陷阱、TEVV实践和持续改进方法的信息;
- 更多的背景知识,提高对下游风险的认识;
- 加强与有关各方和人工智能相关行为者的接触;和
- 增强了人工智能系统的TEVV能力和相关风险。
发布日期
星期三, 二月 7, 2024 - 17:08
最后修改
星期三, 二月 7, 2024 - 17:08
Article
最新内容
- 1 week 5 days ago
- 2 weeks 6 days ago
- 3 weeks 2 days ago
- 3 weeks 2 days ago
- 3 weeks 5 days ago
- 3 weeks 6 days ago
- 4 weeks ago
- 4 weeks 1 day ago
- 4 weeks 1 day ago
- 4 weeks 1 day ago