上海品茶

您的当前位置:上海品茶 > 报告分类 > PDF报告下载

人工智能治理之旅:发展与机遇(2022)(24页).pdf

编号:72303 PDF 24页 2MB 下载积分:VIP专享
下载报告请您先登录!

人工智能治理之旅:发展与机遇(2022)(24页).pdf

1、2022 年年 5 月月 9 日第日第17期总第期总第 536 期期人工智能治理之旅:发展与机遇人工智能治理之旅:发展与机遇【译者按】【译者按】2021 年 11 月,世界经济论坛发布了人工智能治理之旅:发展与机遇 。报告指出,人工智能技术取得飞速发展,但相关的治理能力和框架却没有及时跟进。近几年,各方对治理人工智能提出了很多伦理道德原则,但如何在不扼杀创新的前提下管控风险并推动人工智能治理由原则向实践转化才是最关键的。为此报告提出若干政策建议,呼吁多利益攸关方采取“灵活治理”的方式,共同参与人工智能治理。赛迪智库政策法规研究所对该报告进行了编译,期望对我国有关部门有所帮助。【关键词】人工智能

2、治理多利益攸关方【关键词】人工智能治理多利益攸关方一、背景一、背景在过去五年,人工智能治理取得了迅猛发展,构建人工智能监管生态系统的速度大大提高,但如何以负责任的方式推动人工智能的应用和实践依旧是当前面临的迫切挑战。人工智能有独特的风险,简单照抄现有政策工具并不能处理好这些问题,社会必须考虑在应用人工智能时完善相关手段和措施,以此来化解先进决策系统带来的潜在风险。这些手段和措施应当包括国际合作及跨部门合作,现在比过去 任 何 时 候 都 更 有 必 要 推 广 “ 多 利 益 攸 关 方 参 与 ”(Multistakeholder Approaches)的方式,同时在人工智能治理设计方面也要

3、采取更灵活的方法。要以负责任的方式对人工智能应用进行治理,确保人工智能技术能保护并惠及每位社会成员。二、人工智能发展历程回顾二、人工智能发展历程回顾历次工业革命既创造机遇,也带来挑战,迫使社会重新审视当时的治理结构能否有效维持监管与创新之间的平衡。人工智能是推动第四次工业革命的引擎,围绕人工智能及其安全防护措施将会出现诸多挑战。对其历史发展进程进行总结回顾十分重要,只有通过回顾过去,才能把握未来的发展方向。(一)(一)2010 年以前:人工智能的冬天与解冻年以前:人工智能的冬天与解冻早在人工智能发展初期,大家都认为人工智能发展到可以承担权责的程度时,就有必要认真考虑治理方面的问题。即使是处于历

4、史学家认为的“人工智能冬天” (即人工智能及公众兴趣走低的时期) ,人们对人工智能带来的后果和治理效果也抱有担忧和恐慌。另外,人工智能的潜在应用范围极广、社会影响深远,这势必引发人们对隐私、安全、偏差、公正等议题的担忧。因此,在制定政策时必须从多领域的现有框架中汲取经验,包括国际法、公共政策、数据治理与伦理道德规范等领域。(二)(二)2010 年到年到 2016 年:人工智能加速发展带来的挑战年:人工智能加速发展带来的挑战2010 年以后人工智能的发展开始提速, 主要源于三方面的突破:一是计算能力提升,二是云计算渠道增加,三是数字化数据量激增。同时,人工智能在深度学习方面也取得了明显进展。人工

5、智能的快速发展及应用的确鼓舞人心,但同样也引发了公众对数据使用和侵犯隐私等多方面的担忧。在获取或开发深度学习技术的热潮中,亟需防范的主要是涉及决策类的应用,如执法、人力资源和金融等敏感领域的应用。此外,人工智能系统对特定社会群体的不公正对待现象及宏观层面的关切也时有报道。对那些希望快速从人工智能发展中受益的人来说,重点是如何在安全和创新之间保持平衡。人工智能开始加速发展,治理不到位自然也就成了“速度问题” (法律法规无法跟上技术进步) 。(三)(三)2016 年到年到 2019 年:发布原则与指南年:发布原则与指南到 2016 年,公众越发意识到如果不对人工智能进行适当的监管和引导,将会干扰公

6、众生活,扩大社会不平等,加剧现有偏见,并破坏隐私,而所有这些都会削弱公众对人工智能的信任,从而使人工智能造福社会的潜力消失殆尽。政府和业界的最初反应是制定或修改某些原则。2017 年,在美国阿西洛马(Asilomar)举办了一次“有益的人工智能会议” ,会上提出了一套原则来帮助公众了解政府和业界一直大力推动的概念和观念,包括隐私、公正、非歧视、透明、安全与问责等。在这之后,世界各地的其它组织纷纷围绕人工智能主题发布各自的原则和主张。围绕人工智能造福社会的话题也兴起了多个组织和倡议,比如 2015 年成立的“开发人工智能学会” 、2016 年成立的“人工智能合作伙伴”和 2017 年发起的“人工

7、智能伦理与治理倡议” 。(四)(四)2019 年至今:持续加速与治理创新年至今:持续加速与治理创新普及人工智能原则与道德指南有助于揭示人工智能跨国治理的关键要素。从 2019 年开始出现两个转折点:一是指明了实施上的差距,二是就原则转化成可操作的治理机制问题点明了未来的努力方向。努力的目标基本上是“柔性”治理机制。尽管存在更传统的治理形式(如直接禁用某些应用,或通过算法对立法倡议进行问责) ,但在规范的实际制定过程中仍以“柔性”治理机制为主。各主体对这一课题的日益关注,说明公众普遍认为现有制度和规则已无法确保人工智能以负责任的方式向前发展。三、从原则到实践:在不扼杀创新的前提下管控风险,推动人

8、工智能道德实用化。三、从原则到实践:在不扼杀创新的前提下管控风险,推动人工智能道德实用化。截至 2020 年,各国政府、倡议机构、国际组织、私营企业等已颁布了 100 多条人工智能指导原则,人工智能方面的国际合作已经取得了长足进展。但仍有许多企业在“技术冲击”面前手忙脚乱,人工智能治理自身的不确定性也开始增大,这一切都对原则向实践的转化构成了压力。德勤事务所最近的一项调查显示,多数受访企业目前正在试图通过内部治理和正规的框架来解决问题,争取在不扼杀创新的前提下管控风险。(一)人工智能治理是实现负责任的人工智能的必经之路(一)人工智能治理是实现负责任的人工智能的必经之路虽然面临巨大风险,人工智能

9、带来的机遇仍是许多机构考虑的头等大事。最近提出了“负责任的人工智能” (ResponsibleAI)一词,描述的是一套确保人工智能应用不会“背叛”人类的办法。这套办法的核心是“创新型治理机制” ,而“创新型治理机制”正迅速成为利用人工智能的公司之间的关键竞争差异。许多企业都承认在防范措施缺失的情况下,人工智能可能造成伤害,因此都强调在制定人工智能战略时,防护范围不应仅限于法律和风险管理领域,负责任的人工智能治理的目标是要通过行业规范来防止出现危害性的人工智能生态系统。人们的意识虽然越来越强,但要把意图转化成政策和实践对许多企业仍是挑战。对于该做什么、何时做和怎么做等问题,业界还需要通过实践进行

10、探索。(二)采用风险法来识别和消除治理差距(二)采用风险法来识别和消除治理差距私企和公共部门面临的最大问题之一都是缺乏优先级。人工智能会给不同行业带来巨大冲击,但由于其技术仍在持续发展中,且人们对其能力和影响力还处于不断认识中,其影响的程度和时间范围都无法确定。近期至未来很长一段时间,人工智能的直接和间接影响将被大家逐渐认识,这也会进一步增加系统治理的复杂性。通过有效的治理框架找出人工智能的风险并加以管控,有助于各国制定未来的行动计划。最终呈现的治理形式可能是多种多样的,例如,德国数据伦理委员会提出一个五级风险监管系统,这个系统对无害的人工智能应用不设监管,而对最危险的应用则完全禁止。这些框架

11、有助于领导人们更好地了解风险,指引他们迈出关键的第一步。第一步可以是了解人工智能系统的应用领域,也可以是加大对人工智能风控团队的投资。在近期德勤事务所的一份报告中对人工智能风险的分类以及当前和未来的治理差距进行了评估,报告把所有风险放入同一个网格,按“风险级别”和“时间跨度”两个维度分别评估(见图 1) 。图 1:新出现的治理差距的时间跨度和风险级别图 1:新出现的治理差距的时间跨度和风险级别(三)推动公众了解和信任人工智能(三)推动公众了解和信任人工智能在过去十年中,一些潜在的人工智能治理手段逐渐出现,主要是强化消费者对人工智能产品的消费意识,具体包括认证、标签、奖励等手段。通过这些手段,提

12、高产品透明度来影响购买行为,再通过市场、声誉和品牌的力量以及人工智能产品公司之间的竞争,促进消费者有效参与人工智能道德与责任决策。1.发放标签与认证发放标签与认证标签可向消费者传达信息,帮助消费者了解哪些企业处理数据和人工智能的方式是值得信任、符合道德规范且安全可靠的。欧洲委员会在其人工智能应用白皮书中建议对高风险之外的各类风险自愿发放标签。比如,2019 年,丹麦工业联合会、丹麦商会、丹麦中小企业协会和丹麦消费者协会联合推出了“数据道德印章” (Data Ethics Seal) ,主要发放给那些符合虚拟空间要求且以负责任的方式处理人工智能数据的企业。2.奖励奖励通过奖励机制可对合乎道德、以

13、负责任方式设计的人工智能进行表彰,鼓励业界朝积极方向进化。具体的例子包括:智能玩具奖:由世界经济论坛发起的“智能玩具奖”旨在鼓励企业选手参与智能玩具竞赛,该奖的评判标准由论坛和多利益攸关方群体联合制定,并于 2021 年 4 月筛选出获胜者,同年五月直播颁奖典礼。3.算法审查算法审查可通过第三方对算法进行审查的方式来化解风险。对复杂系统进行外部测试可有效保证市场安全,同时也会鼓励算法审查这一新兴行业的发展。对人工智能实施客观的审查可有效约束人工智能,有助于降低错误算法外流的风险。但上述方案面临一个共同挑战,即可信度的确立,缺乏可信度会增强追责的难度和效力。对此,有人呼吁用专业化的方式来解决问题

14、,但这需要有适当的认证、实践标准和纪律处分程序。只有在这些严苛标准的支撑下,审查、认证和标签发放等人工智能原则实用化工具才能充分发挥作用。(四)政府主导的人工智能治理(四)政府主导的人工智能治理宏观层面上,很多政府部门已经开始围绕人工智能采取有效措施, 在制定有效人工智能规则和规范方面, 压力和迫切性并存。经合组织的跟踪调查表明:一些政策源于国家级人工智能战略(如立法提案、跨国合伙关系、贸易协定条款等) ,另一些则是在较为柔性的规范定义法基础上制定的,旨在化解风险,以此推动人工智能解决方案的出台。1.监管行动监管行动美国已开始在多个层面推动立法,要求对高风险自动化决策系统的冲击进行法定评估;与

15、此同时,美国多个城市禁止在执法过程中使用人脸识别技术。欧洲委员会则完全采纳了以风险为依据的方法论,但同时也承认人工智能系统风险具有语境性特征。要求对高风险人工智能应用采取更严厉的措施,对无风险的领域降低监管,以此鼓励创新活动。欧洲委员会的草案把人工智能应用划分为四大风险级别:(1)不可接受的风险:此类人工智能应用被严厉禁止(如社交评分)(2)高风险:需要对其进行特定审查的人工智能应用,包括需要接受品质管理和合规评估(如人工智能招聘工具、人脸识别等)(3)有限风险:要承担最起码的透明性义务的应用(如聊天机器人)(4)最低风险:对该类别的应用无需制定额外的限制性规定(如垃圾邮件过滤应用)2.国际合

16、作提速国际合作提速与此同时,各国政府意识到如果各国各自为战,全球治理体系将受到影响,进而会削弱人工智能的潜力,因此有必要优先开展国际合作,推动道德准则的跨国统一。区域强国在尝试创建统一战线方面尤其活跃,如七国集团(G7)早在 2017 年就创建了一个单一机构来鼓励大家统一认识、统一行动。此后于 2020 年又在此基础上发起了“全球人工智能合作伙伴计划” (GPAI) ,包括 18 个国家和欧盟,并由有 37 个成员国的经合组织(OECD)担任秘书处。在全球层面,联合国在平衡技术进步和社会进步方面发挥着领导作用,处于最前沿的当属国际电信联盟(ITU)举办的“为善的人工智能”全球峰会。联合国其它机

17、构也通过推动研发和鼓励对话来推动人工智能治理,如国际劳动组织的工作主要针对人工智能对工作和职业的影响,联合国教科文组织也举办了针对人工智能道德伦理的对话。近几年随着国际合作范围的扩大,公众对人工智能原则的看法也开始逐渐统一。但是,要想从原则转向政策再转向实践,最大的挑战是如何进一步澄清治理方法和操作指引并达成更广泛的共识。英国在这方面取得了一定进展:2020 年围绕“让人工智能变得可以解释”这个课题,英国颁布了一份指导性文件。文件指出:根据一般数据保护条例 (GDPR)第 22 条之规定,完全自动化且会对消费者产生法律影响的系统(如批贷、招聘等)必须是“可以解释的” 。英国信息委员办公室还向企

18、业提供了详细的操作手册,以帮助企业更好地理解这条规定。与此同时,需要重视如何避免不同管辖区因责任冲突而影响跨境研发和阻碍创新。虽然各国颁布的具体规则有差异,但要尽可能保持各国规则具有交互操作性,大方向上保持一致。图框 1:新冠肺炎疫情图框 1:新冠肺炎疫情新冠危机的爆发迫使企业必须拥抱人工智能,进一步加剧了人工智能治理的不确定性。一方面,为满足远程和非接触的应用场景需求,人工智能技术可以为大家提供急需的高效解决方案。新冠期间,各国都开始使用人工智能追踪算法向市民发布个性化的文字短信,指导他们在接触病人后自行隔离。另一方面,疫情揭示了人工智能发展的制约因素。尽管危机中公众对新技术的信任感有所提高

19、,但公众对隐私暴露就非常忧虑。基于人工智能的追踪干预也可能面临抵制。可见,数据的匮乏和人们对隐私的担心会限制人工智能的发展,同时也为人工智能治理提供了正当理由。四、多利益攸关方参与的方法论四、多利益攸关方参与的方法论鉴于人工智能系统彼此交融的性质,各方如果单打独斗,注定将失败。反之,多利益攸关方共同参与治理,有助于提升全球范围内开发“负责任的人工智能”的能力。只有多利益攸关方共同参与才能获取公众和社会的认可,最终赢得大众的信任。许多案例都充分证明:只要通过与跨区、跨界、跨业的利益攸关方建立建设性关系,并以此为基础创建和维护负责任的人工智能治理机制,就有可能赢得公众的信任。而要建立这些关系,就必

20、须与人工智能的受众进行开诚布公的对话,无论这些受众是客户还是公民。(一)利益攸关方的参与(一)利益攸关方的参与“多方参与”涉及的一个关键问题是各行为体的贡献内容和贡献方式。每个利益攸关方都有自己独特的视角,每个群体也都会坚持各自的利益。1.业界业界分享全球可信人工智能的最佳实践,在此基础上构建和扩大人工智能治理的创新模式是当前业界面临的巨大机遇。根据波士顿咨询集团和麻省理工学院联合发布的调查报告,有 90%的机构目前正在制定或完成了相关战略以促进算法公正、降低决策偏差。其中有 72%的机构发现这些战略可提高财务收益,有 62%的机构报告运营风险有所下降。企业可采取下列措施来支持多利益攸关方参与

21、的机制:(1)参与“监管沙盒” (Regulatory Sandbox)随着对治理框架需求日增,对受控环境下的测试和实验也提出了更高要求。通过这类尝试,可将真实世界部分地纳入测试框架,从而为企业提供治理人工智能的未来机会。(2)提供其它相关技术或专业管理知识临时调派技术人员填补技术短板,开展治理框架设计。(3)提供免费的技术工具很多企业可充当人工智能专业技能的载体,为其它机构提供专业工具,并协助评估人工智能模型。2.政府政府在政府利用人工智能提供更好的服务之前,必须首先征求全社会的许可。政府可采取下列措施来支持多利益攸关方的行动:(1)发展“监管沙盒”(Regulatory Sandbox)政

22、府需要集中在新治理理念部署、测试和迭代加速发展的领域制定政策,发挥关键作用,确保人工智能在对外公布前尽可能地在真实环境中得到测试和验证。(2)提供公共政策或行政管理专业知识调派既能填补公共政策知识短板又懂得政府工作实际难点的人员支援多利益攸关方。(3)设立人工智能卓越中心围绕人工智能治理设立国家级或次国家级的机构,从业界、政界、学界和社会招收人员,采用跨学科协作的方式,利用人工智能和算法针对政府的运行方式提出建议。3.学术界学术界学术界可利用其处于各行业交叉点的独特地位,借助其中立而客观的视角吸引各方加入对话。采取下列措施来支持多利益攸关方的行动:(1)提供研究的机会在政策制定和测试过程中,通

23、过效果评估来对新方法进行测试。(2)推动人工智能跨学科研究把涉及人工智能的道德影响研究的多个人文学科纳入相关的讨论。(3)协助推广、扩大有前景的人工智能治理机制把多利益攸关方形成的实践和行为纳入全球教学课程。4.公民社会公民社会公民社会作为第三方代表,可为多方对话带来平衡感和新视角, 有助于消除盲点, 缓和那些担心人工智能失控的人的恐惧感。公民社会可采取下列措施来支持多利益攸关方的行动:(1)缩小参与度差距通过把全球的弱势群体纳入到同一个国际讨论框架,有助于缩小参与度的差距, 获得更多元、 更具代表性的数据集合的支持。(2)召集各类行为体共同组建共同体公民社会和学术界一样,可担任各类行为共同体

24、的召集者(3)与人工智能卓越中心开展合作在设有人工智能专门咨询机构的国家和地区,公民社会可组织和鼓励民众与咨询机构开展更广泛的沟通和交流,以确保政策的多元化和包容性。(二)灵活治理(二)灵活治理多利益攸关方的思路若与灵活治理的方法相结合,就会容纳更多人参与决策流程,并可通过快速迭代来满足每个人的需求。最终,决策将变得更具包容性,也更加以人为本。图框 2:灵活治理图框 2:灵活治理灵活治理作为一种有效手段可确保治理与技术进步保持同步。前提是及时试验和决策,同时坚持公私治理流程所规定的义务和原则。 灵活治理:重新构想第四次工业革命的决策对灵活治理的方法论进行了完整描述。世界经济论坛与加拿大、日本、

25、新加坡等国开展合作,共同发起了“第四次工业革命灵活规则”项目。近期,该项目基于全球各地的最新证据和实践发布了一份战略指导文件,倡议以灵活方式应对创新和挑战。下面的例子展示了多利益攸关方群体基于现有通用原则对特定背景和特定用途的框架进行设计和测试的方法。图 2:聊天机器人报告图 2:聊天机器人报告卫生医疗行业的聊天机器人:鉴于新冠疫情期间聊天机器人的使用率大增,日本三菱化学和印度信实工业等企业联合印度政府、世界经济论坛和众多聊天机器人开发商、平台、卫生部门、公民社会、学界和卫生监管机构等共同设计了一个医用聊天机器人监管框架,目前已有部分试点项目正在实施。(三)全球人工智能行动联盟(三)全球人工智

26、能行动联盟2020 年 5 月全球人工智能理事会批准了加速合作的提议, 以推动全球合作,快速推广人工智能监管工具和实践。世界经济论坛也于 2021 年发起了“全球人工智能行动联盟” (GAIA) 。该联盟以世界经济论坛的全球多利益攸关方共同体为基础,成员包括很多活跃在人工智能领域的顶级企业、政府和公民社会组织,这些机构在过去三年针对人工智能技术的开发和应用成功推出了多种交互操作式监管机制。此外,联盟还与论坛下设的“工业行动小组”和“通用数据倡议” (DCPI)密切合作,旨在推进全球各行业实现交互式操作。五、未来之路(一)更多工具与最佳实践五、未来之路(一)更多工具与最佳实践鉴于目前人工智能监管

27、的形式多表现为加强干预,因此尝试更多工具和实践是必要的。很多机构意识到人工智能风险的分布是广谱的,但他们仍希望于弄清楚风险的界线和发生领域。即搞明白哪些情况下可自我调节?哪些情况必须参考标准合同条款?哪些情况下非果断干预不可?全球人工智能理事会建议未来应对下列事项予以额外关注:(1)制定负责任的人工智能框架及所依据的参考标准,以及用于评估偏差、公正度和相关技术细节的测量标准(2)人工智能系统的评估流程与工具,以及提升政府行政意识、理解力和相关排序的工具(3) 针对某些必须通过公共干预和协调才能解决的道德问题(如虚假信息、深层欺诈、大规模人脸识别、人工智能监控等)的相关解决方案(4)人工智能治理

28、领域的行业可操作化案例研究(5)有助于缩小研究差距、促使人工智能研究人员反思研发影响及研究方向的相关激励措施(6)积极借鉴其它高风险技术的治理经验(二)人工智能、就业与不平等(二)人工智能、就业与不平等人工智能在就业和不平等方面也存在很多问题。其中一项挑战是机器抢占人类工作的问题,据麦肯锡 2017 年报告估算,到2030 年被人工智能替代的人类工作岗位将高达 4 亿到 8 亿个。与此同时还面临不平等问题。人工智能将取代某些类型的工作和职业,导致很多人下岗,但另一些人却可能因为工作性质不同而免于被淘汰。在这种情况下,如不制定更好的政策来缩小差距并普及技能培训,那失衡势必会加剧。就连最乐观的经济

29、学家也预测:未来世界里越来越少的工作会和现在一样得到别人的赏识,很多人会感到迷茫,从而质疑人生的价值。毫不夸张的说,或许未来一两家大企业会独霸全球经济。为避免这种结局的出现,有必要给已出台的政策杠杆补充所谓的“意外之财条款” ,即要求人工智能企业在快速致富时必须承诺将利润的大部分捐献于公共利益,以促进人类整体的公平与福祉。(三)人工智能与碳排放(三)人工智能与碳排放我们任需围绕人工智能的下游效应进行大量思考,并开展相关工作。毋庸置疑,人工智能可在气候变化等全球性问题上发挥引领作用,但这绝不应成为忽视人工智能基础设施碳排放问题的理由。(四)未来的差距(四)未来的差距目前,量子计算在提高计算能力方

30、面展示出巨大的优势,其对世界改良的作用是巨大的。但和人工智能一样,随着全球量子生态系统的出现,依赖量子计算的内在风险也逐渐呈现。量子计算是否会放大现有基于算法的社会所面临的风险和收益?公众能否信任那些自己既搞不明白也无法验证的技术?量子计算能否打破现有加密标准?新技术最后会掌握在谁的手里?目前,这些问题所引发的讨论已如火如荼地展开。六、结论六、结论随着人工智能的加速发展,传统监管已赶不上人工智能的发展脚步。为此,全球各地的公私机构纷纷出台相关措施来弥补监管短板,这使得监控生态系统的发展速度在过去五年大幅加快。随着越来越多自动化系统进入人们的生活,想方设法对这些系统进行监控是非常重要的,因为只有

31、这样才能确保人工智能最终会造福人类,而不是危害人类。过去两年所出台的一系列令人眼花缭乱的监管框架对各位领军者来说至关重要,这些框架可帮助大家更好地理解人工智能所涉及的众多问题,包括公正与非歧视问题、影响差异化问题、彼此关联的透明与问责问题等。要想赶上人工智能系统的发展和应用速度,只有在人工智能治理方面进行更多创新才行,必须本着“一加一大于二”的理念,群策群力地对治理框架进行联合设计和联合开发。译自:The AI Governance Journey: Development and Opportunities,November 2021 by World Economic Forum译文作者:赛迪工业和信息化研究院王夙联系方式:电子邮件:编 辑 部:赛迪工业和信息化研究院通讯地址:北京市海淀区紫竹院路 66 号赛迪大厦 8 层国际合作处邮政编码:100048联 系 人:蒯佳佳联系电话: (010)88559658传真: (010)88558833网址:电子邮件:报:部领导送:部机关各司局,各地方工业和信息化主管部门,相关部门及研究单位,相关行业协会报:部领导送:部机关各司局,各地方工业和信息化主管部门,相关部门及研究单位,相关行业协会

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(人工智能治理之旅:发展与机遇(2022)(24页).pdf)为本站 (渔人也) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
会员购买
小程序

小程序

客服

专属顾问

商务合作

机构入驻、侵权投诉、商务合作

服务号

三个皮匠报告官方公众号

回到顶部