编者按:这篇文章是微软副主席兼总裁Brad Smith为微软的报告《人工智能在欧洲:迎接整个欧盟的机遇》撰写的一章。2023年6月29日,他在布鲁塞尔举行的“欧洲数字化转型——拥抱人工智能机遇”活动上发表了主题演讲,阐述了这里表达的想法。
你可以在这里阅读全球人工智能治理报告:未来蓝图。
利用人工智能的力量为欧洲的增长和价值做出贡献有着巨大的机会。但另一个层面同样清晰。仅仅关注利用人工智能改善人们生活的许多机会是不够的。我们需要以同样的决心关注人工智能可能带来的挑战和风险,我们需要有效地管理它们。
这也许是从社交媒体的作用中得到的最重要的教训之一。十多年前,技术专家和政治评论员都对社交媒体在阿拉伯之春期间传播民主的作用赞不绝口。然而,五年后,我们了解到,社交媒体和之前的许多其他技术一样,将成为一种武器和工具——在这种情况下,其目标是民主本身。
今天,我们老了10岁,更聪明了,我们需要把这种智慧发挥作用。我们需要尽早、清醒地思考未来可能出现的问题。随着技术的发展,确保对人工智能的适当控制与追求其利益同样重要。作为一家公司,我们致力于并决心以安全和负责任的方式开发和部署人工智能。然而,我们也认识到,人工智能所需的护栏需要广泛的责任感,不应该只留给科技公司。简言之,科技公司需要加快步伐,政府也需要加快步伐。
当我们微软在2018年通过人工智能的六项道德原则时,我们注意到其中一项原则是其他一切的基石——问责制。这是确保机器仍然受到人们有效监督的根本需要,并且设计和操作机器的人仍然对其他人负责。简而言之,我们必须始终确保人工智能处于人类的控制之下。这必须是科技公司和政府的首要任务。
这与另一个基本概念直接相关。在民主社会中,我们的一个基本原则是,任何人都不能凌驾于法律之上。任何政府都不能凌驾于法律之上。任何公司都不能凌驾于法律之上,任何产品或技术都不应凌驾于法律之外。这导致了一个关键的结论:设计和操作人工智能系统的人不能承担责任,除非他们的决定和行动受到法治的约束。
5月,微软发布了一份白皮书《治理人工智能:未来蓝图》,试图解决我们如何最好地治理人工智能的问题,并制定了微软的五点蓝图。
该蓝图建立在多年工作、投资和投入的经验教训之上。在这里,我们将其中的一些想法与欧洲、欧洲在人工智能监管方面的领导地位以及在国际上推进人工智能治理的可行途径结合起来。
随着欧洲议会最近对《欧盟人工智能法案》的投票和正在进行的三语讨论,欧洲现在处于建立指导和监管人工智能技术模式的前沿。
从一开始,我们就支持欧洲的监管制度,该制度有效地解决安全问题,维护基本权利,同时继续推动创新,确保欧洲保持全球竞争力。我们的意图是提供建设性的贡献,帮助为今后的工作提供信息。与欧洲和世界各地的领导人和政策制定者的合作既重要又重要。
本着这种精神,我们希望在这里扩展我们的五点蓝图,强调它如何与欧盟人工智能法案的讨论相一致,并就在这一监管基础上发展的机会提供一些想法。
首先,实施和建立新的政府主导的人工智能安全框架
加快政府行动的最有效方法之一是在现有或新兴政府框架的基础上推进人工智能安全。
确保更安全地使用这项技术的一个关键因素是基于风险的方法,围绕风险识别和缓解以及部署前的测试系统制定了明确的流程。《人工智能法案》规定了这样一个框架,这将是未来的一个重要基准。在世界其他地区,其他机构也推进了类似的工作,如美国国家标准与技术研究所(NIST)开发的人工智能风险管理框架,以及预计将于2023年秋季发布的关于人工智能管理系统的新国际标准ISO/IEC 42001。
微软已承诺实施NIST人工智能风险管理框架,我们将实施未来的相关国际标准,包括《人工智能法案》之后出现的标准。在国际上调整这些框架的机会应继续成为正在进行的欧盟与美国对话的重要组成部分。
随着欧盟最终确定《人工智能法案》,欧盟可以考虑使用采购规则来促进相关值得信赖的人工智能框架的使用。例如,在采购高风险人工智能系统时,欧盟采购当局可以要求供应商通过第三方审计证明其符合相关国际标准。
我们认识到,人工智能的发展步伐提出了与安全保障相关的新问题,我们致力于与其他人合作,制定可操作的标准,以帮助评估和解决这些重要问题。这包括与高性能基础模型相关的新标准和附加标准。
其次,控制关键基础设施的人工智能系统需要有效的安全刹车
随着人工智能越来越强大,公众越来越多地围绕其控制权展开辩论。同样,对电网、供水系统和城市交通流等关键基础设施的人工智能控制也存在担忧。现在是讨论这些问题的时候了——这场辩论已经在欧洲进行,高风险人工智能系统的开发者将负责保证必要的安全措施到位。
我们的蓝图提出了新的安全要求,实际上,这些要求将为控制指定关键基础设施运行的人工智能系统创造安全刹车。这些故障安全系统将是系统安全综合方法的一部分,该方法将把有效的人类监督、弹性和稳健性放在首位。它们类似于工程师长期以来在电梯、校车和高速列车等其他技术中构建的制动系统,不仅可以安全地管理日常场景,还可以安全地处理紧急情况。
在这种方法中,政府将定义控制关键基础设施的高风险人工智能系统类别,并保证采取此类安全措施,作为系统管理综合方法的一部分。新的法律将要求这些系统的操作员通过设计将安全制动器构建到高风险的人工智能系统中。然后,政府将要求运营商定期测试高风险系统。这些系统将仅部署在获得许可的人工智能数据中心,这些数据中心将提供第二层保护并确保安全。
第三,基于人工智能的技术架构,制定广泛的法律和监管框架
在过去的一年里,我们在这项新技术的前沿对人工智能模型进行了研究,得出的结论是,为人工智能开发一个反映其技术架构的法律和监管架构至关重要。
监管责任需要根据不同参与者在管理人工智能技术不同方面的作用而定。那些最接近设计、部署和使用相关决策的人最适合遵守相应的责任并减轻各自的风险,因为他们最了解具体的上下文和用例。这听起来很简单,但正如欧盟的讨论所表明的那样,这并不总是容易的。
《人工智能法案》承认,通过其基于风险的方法来制定高风险系统的要求,监管复杂架构面临挑战。在应用层,这意味着应用和执行现有法规,同时负责任何新的人工智能特定部署或使用考虑事项。
同样重要的是,要确保将义务附加到强大的人工智能模型上,重点关注一类定义的高能力基础模型,并根据模型级别的风险进行校准。这将影响技术堆栈的两层。第一个要求对这些模型本身进行新的规定。第二个将涉及开发和部署这些模型的人工智能基础设施运营商的义务。我们制定的蓝图为每一层提供了建议的目标和方法。
不同的作用和责任需要联合支持。我们致力于通过我们最近宣布的人工智能保障计划,帮助我们的客户应用“了解你的客户”(KYC)原则。金融机构利用这一框架来核实客户身份、建立风险档案和监控交易,以帮助发现可疑活动。正如Antony Cook所详述的,我们相信这种方法可以应用于我们所称的“KY3C”中的人工智能:了解自己的云、客户和内容。《人工智能法案》没有明确包括KYC要求,但我们认为,这种方法将是满足该法案精神和义务的关键。
《人工智能法案》要求高风险系统的开发人员建立风险管理系统,以确保系统经过测试,尽可能降低风险,包括通过负责任的设计和开发,并参与上市后监测。我们完全支持这一点。人工智能法案尚未最终确定,这一事实不应阻止我们今天应用其中的一些做法。即使在《人工智能法案》实施之前,我们也会在发布之前测试我们所有的人工智能系统,并对高风险系统进行红队测试。
第四,提高透明度,确保学术和非营利组织获得人工智能
提高人工智能系统的透明度和扩大对人工智能资源的访问也至关重要。虽然透明度和安全需求之间存在一些固有的紧张关系,但仍有许多机会使人工智能系统更加透明。这就是为什么微软承诺发布年度人工智能透明度报告,并采取其他措施扩大我们人工智能服务的透明度。
《人工智能法案》将要求人工智能提供商向用户明确表示,他们正在与人工智能系统进行交互。同样,无论何时使用人工智能系统来创建人工生成的内容,都应该很容易识别。我们完全支持这一点。人工智能生成的欺骗性内容或“深度伪造”——尤其是模仿政治人物的视听内容——对社会和民主进程的潜在危害尤其令人担忧。
在解决这个问题时,我们可以从已经存在的构建块开始。其中之一是内容来源真实性联盟(C2PA),这是一个全球标准机构,拥有60多个成员,包括Adobe、英国广播公司、英特尔、微软、Publicis Groupe、索尼和Truepic。该组织致力于增强在线信息的信任和透明度,包括在2022年发布世界上第一个数字内容认证技术规范,其中现在包括对Generative AI的支持。正如微软首席科学官Eric Horvitz去年所说,“我相信,内容来源将在提高透明度和加强对我们在网上看到和听到的内容的信任方面发挥重要作用。”
未来几个月将有机会在大西洋两岸和全球共同采取重要步骤,推进这些目标。微软将很快部署新的最先进的出处工具,帮助公众识别人工智能生成的视听内容并了解其来源。在我们的年度开发者大会Build 2023上,我们宣布了一项新媒体出处服务的开发。该服务实现了C2PA规范,将用有关其来源的元数据标记和签署人工智能生成的视频和图像,使用户能够验证一段内容是人工智能生成。微软最初将支持主要的图像和视频格式,并发布该服务,供微软的两款新人工智能产品——微软设计器和必应图像创建者使用。《人工智能法案》中的透明度要求,以及可能与该法案相关的几个待制定标准,为利用此类行业举措实现共同目标提供了机会。
我们还认为,扩大学术研究和非营利社区对人工智能资源的获取至关重要。除非学术研究人员能够获得更多的计算资源,否则科学和技术研究将面临真正的风险,包括与人工智能本身有关的风险。我们的蓝图要求采取新的措施,包括我们将在整个微软采取的措施,以解决这些优先事项。
第五,寻求新的公私合作伙伴关系,将人工智能作为一种有效工具,以应对新技术带来的不可避免的社会挑战
近年来的一个教训是,当民主社会利用技术的力量,将公共和私营部门团结在一起时,它们往往能够取得最大成就。这是我们需要吸取的教训,以应对人工智能对社会的影响。
人工智能是一种非凡的工具。但是,与其他技术一样,它也可以成为一种强大的武器,世界各地也会有一些人寻求以这种方式使用它。我们需要共同努力,开发防御性的人工智能技术,创造一个能够抵御和击败地球上任何不良行为者行为的盾牌。
现在需要开展重要工作,利用人工智能保护民主和基本权利,提供广泛的人工智能技能,促进包容性增长,并利用人工智能的力量促进地球的可持续性需求。也许最重要的是,一波新的人工智能技术为大胆思考和行动提供了机会。在每个领域,成功的关键将是制定具体的举措,并将政府、公司和非政府组织聚集在一起推动这些举措。微软将在每一个领域尽自己的一份力量。
推进人工智能治理的国际伙伴关系
欧洲早期开始对人工智能进行监管,为建立一个以法治为基础的有效法律框架提供了机会。但除了民族国家层面的立法框架之外,还需要多边公私伙伴关系,以确保人工智能治理能够在今天产生影响,而不仅仅是几年后,而且在国际层面。
在《人工智能法案》等法规生效之前,这是一个重要的临时解决方案,但也许更重要的是,它将帮助我们朝着一套共同的原则努力,这套原则可以指导民族国家和公司。
在欧盟关注《人工智能法案》的同时,欧盟、美国、七国集团其他成员国以及印度和印度尼西亚也有机会在一系列共同的价值观和原则上共同前进。如果我们能在自愿的基础上与他人合作,那么我们都会更快地行动,更加小心和专注。这不仅对科技界来说是个好消息,对整个世界来说也是个好消息。
认识到人工智能和许多技术一样,现在和将来都会跨境开发和使用,努力实现全球一致的方法很重要。它将使每个人都能在适当的控制下,获得满足其需求的最佳工具和解决方案。
我们对最近的国际措施感到非常鼓舞,包括欧盟-美国贸易和技术理事会(TTC)在5月底宣布了一项新的倡议,以制定一项自愿的人工智能行为准则。这可以将私人和公共合作伙伴聚集在一起,为开发人工智能系统的公司实施关于人工智能透明度、风险管理和其他技术要求的不具约束力的国际标准。同样,在2023年5月于广岛举行的七国集团年度峰会上,各国领导人承诺“根据我们共同的民主价值观,推进关于包容性人工智能治理和互操作性的国际讨论,以实现我们值得信赖的人工智能的共同愿景和目标”。微软完全支持并赞同国际社会为制定这样一个自愿准则所作的努力。技术发展和公共利益将受益于原则级护栏的创建,即使最初它们是不具有约束力的。
为了使人工智能治理的许多不同方面在国际层面上发挥作用,我们需要一个多边框架,将各种国家规则连接起来,并确保在一个司法管辖区被认证为安全的人工智能系统在另一个司法辖区也能被认定为安全的。这方面有许多有效的先例,例如国际民用航空组织制定的共同安全标准,这意味着飞机从布鲁塞尔到纽约的飞行途中不需要改装。
我们认为,国际准则应当:
- 在经合组织已经完成的工作的基础上,制定值得信赖的人工智能原则
- 为受监管的人工智能开发人员提供一种手段,以证明这些系统的安全性符合国际商定的标准
- 通过提供跨境合规和安全相互承认的手段,促进创新和准入
在《人工智能法案》和其他正式法规生效之前,我们今天必须采取措施,为控制关键基础设施的人工智能系统实施安全刹车。安全刹车的概念,以及高性能基础模型的许可和人工智能基础设施义务,应该是签署国同意纳入其国家系统的自愿、国际协调的七国集团准则的关键要素。例如,与关键基础设施(如运输、电网、供水系统)或可能导致严重侵犯基本权利或其他重大伤害的系统有关的高风险人工智能系统可能需要更多的国际监管机构,以国际民用航空组织的模式为基础。
《人工智能法》为欧盟高风险系统数据库制定了一项规定。我们认为这是一种重要的方法,应该成为国际准则的一个考虑因素。开发一种连贯、联合、全球的方法对所有参与开发、使用和监管人工智能的人来说都具有不可估量的意义。
最后,我们必须确保学术研究人员能够深入研究人工智能系统。围绕人工智能系统有一些重要的开放研究问题,包括如何在负责任的人工智能维度上正确评估它们,如何最好地使它们具有可解释性,以及它们如何与人类价值观最佳一致。经合组织在人工智能系统评估方面的工作取得了良好进展。但通过促进国际研究合作,并通过参与这一过程来推动学术界的努力,我们有机会走得更远、更快。欧盟与美国合作,在这方面处于领先地位。
人工智能治理是一段旅程,而不是目的地。没有人知道所有的答案,我们倾听、学习和合作很重要。科技行业、政府、企业、学术界和民间社会组织之间强有力、健康的对话对于确保治理跟上人工智能的发展速度至关重要。我们可以一起帮助实现人工智能的潜力,成为一股向善的积极力量。
最新内容
- 1 week ago
- 1 week ago
- 1 week ago
- 1 week ago
- 1 week ago
- 1 week 6 days ago
- 2 weeks ago
- 2 weeks 2 days ago
- 2 weeks 2 days ago
- 2 weeks 2 days ago