摘要
在上一单元中,我们讨论了人工智能的社会影响,以及企业、政府、非政府组织和学术研究人员预测和减轻人工智能技术意外后果的责任。鉴于这一责任,组织发现有必要制定内部政策和实践来指导其人工智能工作,无论是部署第三方人工智能解决方案还是开发自己的解决方案。
在微软,我们已经认识到六项原则,我们认为这些原则应该指导人工智能的开发和使用:公平、可靠性和安全、隐私和安全、包容性、透明度和问责制。对我们来说,这些原则是负责任和值得信赖的人工智能方法的基石,尤其是随着智能技术在我们每天使用的产品和服务中越来越普遍。
指导微软负责任的人工智能开发和使用的六项原则,以图标为代表:公平(天平)、可靠性和安全(竖起大拇指)、隐私和安全(带批准勾号的盾牌)、包容性(两个人用等号隔开)、透明性(握手)和问责制(牵着一个人的手)。
微软的六大指导原则
公平
人工智能系统应该公平对待每个人,避免以不同的方式影响处境相似的人群。例如,当人工智能系统提供医疗、贷款申请或就业指导时,它们应该向每个症状、经济状况或职业资格相似的人提出相同的建议。
我们认为,减轻偏见始于人们理解人工智能预测和建议的含义和局限性。最终,人们应该用健全的人类判断来补充人工智能决策,并对影响他人的重大决策负责。
在设计和构建人工智能系统时,开发人员应该了解如何引入偏见,以及偏见如何影响基于人工智能的推荐。为了帮助减少偏见,他们应该使用反映社会多样性的训练数据集。他们还应该设计人工智能模型,使他们能够随着时间的推移学习和适应,而不会产生偏见。为了帮助他们开发公平对待每个人的人工智能系统,开发人员可以利用工具、方法、技术和其他资源来帮助检测和减轻偏见。
可靠性和安全性
为了建立信任,人工智能系统在正常情况下和意外情况下可靠、安全、一致地运行至关重要。这些系统应该能够按照最初的设计运行,对意外情况做出安全反应,并抵抗有害的操作。同样重要的是,能够验证这些系统在实际操作条件下是否按预期运行。它们的行为方式以及它们能够可靠和安全地处理的各种条件,在很大程度上反映了开发人员在设计和测试过程中预期的一系列情况和情况。
我们认为,在系统开发和部署过程中,严格的测试至关重要,以确保人工智能系统能够在意外情况和边缘情况下安全响应,不会出现意外的性能故障,也不会以与最初预期不一致的方式发展。在测试和部署之后,同样重要的是,组织在其使用寿命内正确运行、维护和保护其人工智能系统。如果维护不当,人工智能系统可能会变得不可靠或不准确,因此在每一次人工智能实施中考虑长期操作和监控至关重要。最终,由于人工智能应该增强和放大人类的能力,人们需要在决定如何以及何时部署人工智能系统,以及随着时间的推移是否适合继续使用人工智能系统方面发挥关键作用。人类的判断将是识别人工智能系统中潜在盲点和偏见的关键。
隐私和安全
随着人工智能越来越普遍,保护隐私和重要个人和商业信息的安全变得越来越重要和复杂。对于人工智能,隐私和数据安全问题需要特别密切关注,因为访问数据对于人工智能系统对人做出准确和知情的预测和决策至关重要。人工智能系统必须遵守隐私法,该法要求数据的收集、使用和存储透明,并要求消费者有适当的控制权来选择如何使用他们的数据。在微软,我们正在继续研究隐私和安全方面的突破(见下一单元),并投资于强大的合规流程,以确保我们的人工智能系统收集和使用的数据得到负责任的处理。
包容性
在微软,我们坚信每个人都应该从智能技术中受益,这意味着它必须结合并解决人类的广泛需求和经验。对于全世界10亿残疾人来说,人工智能技术可以改变游戏规则。人工智能可以改善获得教育、政府服务、就业、信息和其他广泛机会的机会。实时语音到文本转录、视觉识别服务和预测文本功能等智能解决方案已经为听力、视觉和其他障碍患者提供了支持。
包容性设计实践可以帮助系统开发人员理解并解决产品环境中可能无意中将人排除在外的潜在障碍。通过解决这些障碍,我们创造了创新和设计更好体验的机会,让每个人都受益。
微软包容性设计原则,以图标表示:承认排斥(坐在轮椅上的人)。解决一个,延伸到多个(男人和女人抱着两个孩子,一只狗站在他们旁边)。向多样性学习(两个人手牵着手走路,其中一个人还拿着拐杖)。
透明度
上述价值观的基础是两项基本原则,这两项原则对确保其他价值观的有效性至关重要:透明度和问责制。当人工智能系统被用来帮助为对人们生活产生巨大影响的决策提供信息时,人们了解这些决策是如何做出的至关重要。例如,银行可能会使用人工智能系统来决定一个人是否有信誉,或者公司可能会使用AI系统来确定最合格的候选人。
透明度的一个关键部分是我们所说的可理解性,或对人工智能系统及其组件的行为的有用解释。提高可理解性需要利益相关者理解其运作方式和原因,以便他们能够识别潜在的绩效问题、安全和隐私问题、偏见、排斥性做法或意外结果。我们还认为,那些使用人工智能系统的人应该诚实、坦率地说出他们选择何时、为什么以及如何部署人工智能系统。
责任
设计和部署人工智能系统的人必须对其系统的运行方式负责。各组织应借鉴行业标准制定问责制规范。这些规范可以确保人工智能系统不是影响人们生活的任何决策的最终权威,并确保人类对高度自主的人工智能系统保持有意义的控制。
各组织还应考虑设立一个专门的内部审查机构。该机构可以向公司的最高级别提供监督和指导,以帮助解决上述问题以及有关人工智能系统开发和部署的特别重要问题。它们还可以帮助完成任务,如在开发过程中定义记录和测试人工智能系统的最佳实践,或在敏感情况下使用人工智能系统时提供指导(比如那些可能拒绝为人们提供医疗或就业等后续服务、造成身体或精神伤害风险或侵犯人权的情况)。
我们认识到,每个个人、公司和地区都有自己的信仰和标准,这些信仰和标准应该反映在他们的人工智能之旅中。在您考虑制定自己的指导原则时,我们与您分享我们的观点。
接下来,让我们听听道明银行集团机器学习、企业数据和分析副总裁兼主管Matt Fowler的演讲,他描述了自己的业务如何接近负责任的人工智能。
最新内容
- 1 day 6 hours ago
- 1 day 8 hours ago
- 1 day 9 hours ago
- 4 days ago
- 4 days 8 hours ago
- 4 days 8 hours ago
- 4 days 9 hours ago
- 4 days 9 hours ago
- 1 week 1 day ago
- 1 week 1 day ago