上海品茶

您的当前位置:上海品茶 > 报告分类 > PDF报告下载

人工智能伦理:问题和倡议(26页).pdf

编号:72851 PDF   DOCX 26页 708.71KB 下载积分:VIP专享
下载报告请您先登录!

人工智能伦理:问题和倡议(26页).pdf

1、- 0 -2020 年年 10 月月 26 日第日第31期总第期总第 463 期期人工智能伦理:问题和倡议人工智能伦理:问题和倡议【译者按】【译者按】2020 年 5 月,欧洲议会研究中心发布了人工智能伦理:问题和倡议。该报告定义了关于人工智能的一些基本概念,分析了人工智能对社会、人类心理、金融系统、法律体系、环境和地球、人工智能信任等领域产生的不良影响,可能会引发伦理困境和道德问题,为构建人工智能伦理框架和制度,报告提到了国际社会已经发起的伦理倡议及其危害与问题,并对各国制定的新兴人工智能标准与法规、关于人工智能的国家或国际战略进行了总结,报告最后针对人工智能对各领域的潜在影响,提出了新兴伦

2、理倡议。赛迪智库产业政策法规研究所对该报告进行了编译,期望对我国有关部门和企业有所帮助。【关键词】【关键词】人工智能伦理危害 倡议战略人工智能伦理危害 倡议战略扫描二维码阅读本刊- 1 -一一、人人工工智智能能相相关关基基本本概概念念(一一)人人工工智智能能欧盟委员会发布的人工智能通讯对人工智能的定义为:人工智能(AI)是指“显示智能行为的系统”,它可以分析环境,并行使一定的自主权来执行任务。基于人工智能的系统可以是在虚拟世界运行的纯软件型系统,例如语音助手、图像分析软件、搜索引擎、语音和人脸识别系统,也可以是嵌入人工智能的硬件设备,例如高级机器人、自动驾驶汽车、无人机、物联网应用程序。对于智

3、能,可以简单直接的定义为,智能行为是“在正确的时间做正确的事”。简单来说,智能是“获取、使用知识和技能,与其所在环境进行互动的能力”。具有三个共同特征:一是一种智能体,可与自身所处的环境进行交互;二是与智能体成功实现某种目标或目的的能力有关;三是取决于智能体适应不同目标和环境的能力。一般认为智能包含适应、学习、理解等元素。用最简单的话来说,智能是获取、使用知识和技能,与其所在环境进行互动的能力。“机器学习”指的是有能力学习自身环境的人工智能或有能力适应自身环境的机器人。机器学习通常可分成两种类型:监督- 2 -式学习和非监督式学习。监督式学习系统通常使用人工神经网络(ANN),通过向人工神经网

4、络提供输入信息(例如动物图像)并对人工神经网络进行训练。每条输入信息都会被标记为一条输出信息(例如长颈鹿、狮子、猩猩)。这套输入信息以及与之相匹配的输出信息被称为训练数据集。训练之后,即使该图片未出现在训练数据集中,人工神经网络也有能力识别向其呈现的图片中所包含的动物(例如狮子)。非监督式学习不使用训练数据,人工智能(或机器人)必须自行(通常通过试验和误差)设计出完成某一特定任务的方法。“深度学习”通常指拥有大型(多层)人工神经网络和大型训练数据集的监督式学习系统。机器学习可以用于人工智能的问题,是实现人工智能的一种方法,而深度学习是机器学习的一个重要技术方向。(二二)“道道德德”和和“伦伦理

5、理”伦理是人类行为或活动所适用的道德原则。如,对每个人报以尊重就是一项伦理原则。人工智能伦理的范围包括现有人工智能系统的数据隐私和偏见问题引发的担忧,未来中短期人工智能和机器人对就业和工作场所影响所引发的担忧,以及未来长期人工智能系统达到或超过人类能力(即所谓的“超智能”)所引发的担忧。- 3 -当前,智能手机和人工智能驱动型应用程序越来越普遍,其中许多应用程序是人们日常生活必需的。与此同时,人工智能对各行业(包括工业、医疗、警务、司法、交通、金融、休闲等)的影响越来越大,各国出现了人工智能“军备竞赛”的苗头。为此,提出了一些人工智能倡议,非政府组织、学术界、产业界、专业机构和各国政府都参与了

6、这些倡议的制定。这些倡议公布了许多适用于机器人和人工智能的伦理原则(自 2017 年 1 月以来,全球至少公布了 22 套伦理原则)。英国标准协会和电气与电子工程师协会等也推出了新的伦理标准。二二、人人工工智智能能应应用用引引发发的的主主要要伦伦理理困困境境和和道道德德问问题题(一一)对对社社会会的的影影响响对对劳劳动动力力市市场场产产生生不不利利影影响响。据预测,在未来 20 年,人工智能及其相关技术可能造成大量失业。近期一份报告认为,新兴信息技术在不久的将来会导致众多职业的就业率大幅下滑。自动化已经对“蓝领”工作产生了冲击,随着人工智能在金融、太空、先进制造、运输、医疗卫生等领域的广泛应用

7、,很多工作岗位将会被淘汰。造造成成不不平平等等问问题题。人工智能存在的最大问题是不平等。人工智能和机器人技术将帮助企业简化业务,改善业绩。但是,有人- 4 -认为这将牺牲企业员工的利益。这意味着企业的收入被少数人瓜分,进而加剧社会的不平等。人工智能驱动型企业的所有者将获得与其贡献不成比例的高额回报。涉涉及及隐隐私私、人人权权和和尊尊严严问问题题。未来十年,人工智能将对人类隐私产生深刻的影响。设计服务机器人、护理机器人和陪护机器人时必须考虑人工智能用户的隐私和尊严。机器人在用户的家中工作将参与高度私密的场合(例如洗澡和穿衣)。易易受受偏偏见见的的影影响响。用于训练系统的数据或者系统开发人员和用户

8、的价值观可能引发系统性偏见。最容易导致这一问题的情形是,训练机器学习应用程序时所使用的数据只体现某些人群的状况或存在社会偏见。许多加剧社会偏见的案件已经引起人们的关注,而人工智能系统会复制或自动强化社会偏见。此外,对民主会产生影响。技术、经济和政治资源集中在少数几个特大型企业,可能导致这些企业对政府产生过度的影响。人工智能的应用还可能以其他方式影响民主。(二二)对对人人类类心心理理的的影影响响未来,机器人将承担护理、家务、照顾老人儿童、教学等各类社会角色。不仅为人类服务,还可能成为人类伴侣。这些机器人可以像人那样具备“看”和“说”等行为。未来人们可能与机器人产生感情,甚至爱上它们。如果这些成为

9、现实,将对人际关- 5 -系和人类心理产生不利的影响。(三三)对对金金融融系系统统的的影影响响市场很好地适应了自动化。市场现在几乎完全以电子化的方式运行,快速生成海量数据,这些数据需要通过算法来消化。市场参与主体必须及时对信息进行响应,使得人们慢慢退出决策链。最为明显的是有效的交易决策可能带来丰厚的回报。所以,企业会对人工智能技术进行大量投资。也就是,算法交易产生利润的速度和频率是人类操盘手无法匹敌的。虽然目前,自主应用程序的能力和自主性相对有限,但会对人类产生影响。(四四)对对法法律律体体系系的的影影响响人工智能机器的发明和应用对刑法和民法产生巨大影响。当前,复杂和重要的决策由算法处理。现有

10、的法律框架可能无法应付这种情况。未来短期内与人工智能有关的最重要的法律问题是,人工智能参与的侵权、犯罪和违约行为如何归责。对对刑刑法法的的影影响响。如果机器人有充分的意识,它们就可能作为刑事犯罪的直接实施者承担责任,或者对过失犯罪负责。如果我们承认机器人有自己的想法,像人一样拥有自由意志、自主性或道德感,整个法律体系必须进行重大修改。这种可能性成为现实的概率不大。但是,机器人可能以更加微妙的方式影响刑法。对对侵侵权权法法的的影影响响。如,未来几年,随着公路上开始出现自动- 6 -驾驶汽车,侵权法将受到高度关注。自动驾驶汽车事故涉及两类法律问题:过失以及产品责任。如果事故是由车辆缺陷所引发的,情

11、况更为复杂。因为自动驾驶汽车的硬件故障、 设计故障或软件错误 (计算机算法的缺陷)均可能引发事故。当前,如果是计算机程序的错误或缺陷引发撞车,制造商须按产品责任原则承担责任。该原则要求提供产品的制造商、经销商、供应商、零售商和其他主体对产品所造成的伤害负责。如果事故是由软件错误引发的,则需要通过“风险-应用测试”:如果卖方采用合理的替代设计可以减少或避免产品可预见的风险,而产品因卖方未能采用替代设计而缺乏合理的安全性,则认定产品存在缺陷。(五五)对对环环境境和和地地球球的的影影响响增增加加稀稀土土等等自自然然资资源源的的使使用用。电动汽车和智能手机中常用的锂电池需要使用镍、钴、石墨等材料。这些

12、材料的开采已经对环境造成了破坏。人工智能的应用可能会增加对这些材料的需求。随着材料供应量的减少,操作人员可能被迫在更复杂、对人体有害的环境中开展工作。这将使采矿和金属提取活动的自动化程度进一步提高, 进而提高稀土等的产量和消耗速度, 加剧环境恶化。产产生生污污染染和和废废物物。 电子产品在生命周期结束后通常会被丢弃,这会导致重金属和有毒物质在环境中不断积聚。- 7 -增增加加能能源源消消耗耗。人工智能技术(尤其是机器学习)的应用意味着需要处理越来越多的数据,需要消耗大量的能源。如,在美国,数据中心的用电量占全国总用电量的 2%左右。据估计, “阿尔法狗”消耗的能量是人脑的 5 万倍。帮帮助助人

13、人类类造造福福地地球球。人工智能也可以帮助人们管理废物和污染问题。例如,使用自动驾驶车辆可减少温室气体排放,其燃油消耗降低约 20%,温室气体排放量降低 20%左右。(六六)对对人人工工智智能能信信任任度度的的影影响响建立人工智能的信任机制,可以通过信任、公平、透明、问责和监管等来实现。信信任任。数字技术无处不在,信任数字技术对维持社会的合理运转至关重要。对制定决策所使用的机器学习算法进行持续监督需要耗费大量的时间和资源,进而导致数字技术的应用丧失可行性。但我们分配给数字技术的任务与人类息息相关,如果完全不接受监督,我们的安全以及社会赖以生存的权利和价值观将受到严重的威胁。公公平平。公平与公正

14、是人工智能获得信任的前提。随着越来越多的决策权被赋予人工智能,人们必须确保人工智能的决策不包含偏见和歧视。人工智能应用于面试中的简历筛选、大学招生、贷款公司信用评级、再犯罪风险评估等场景。无论人工智能用于- 8 -哪种场景,其制定的决策必须是公平的,而且应避免加剧社会不平等问题。透透明明度度。几年前,美国的一个电脑程序对休斯顿教师的工作业绩进行了评估。一些教师认为,该程序在没有正当理由的情况下给他们打了低分,但他们无法检查该程序是否公平、是否存在缺点。这些教师后来向法院提起诉讼。联邦法官裁定,该程序侵犯了这些教师的民事权利。这一案例突出体现了透明对于人工智能构建信任的重要性。自主系统制定某一具

15、体决策的原因应始终具有可追溯性,尤其是在该决策产生危害的情况下。问问责责机机制制。问责机制可以确保人工智能犯错或者对某人造成危害时有人(设计人员、开发人员或出售人工智能产品的企业)能承担责任。问责机制可能在自动驾驶中发挥重要作用,明确责任承担者。 例如, 2016 年, 一辆配备雷达和摄像头的特斯拉 ModelS 汽车将附近的一辆卡车误认为是天空,引发了一起死亡事故;2018 年 3 月, 优步在自动驾驶车辆的试验中使用的一辆汽车撞死了美国的一位女性。监监管管。人们对“超智能”观点产生了恐惧,他们认为,随着人工智能超越人类的能力,它可能控制人类的资源,在与人类的竞争中胜出,进而导致人类灭绝。由

16、此产生恐惧心理,如果精心设计的智能体的目标与人类需求相一致,智能体可能以实现非预- 9 -期的子目标为目的进行自我发展。尽管大多数研究人员认为“超智能”不太可能出现,但为了维持公众对人工智能的信任,人类必须对人工智能进行全面监督。三三、人人工工智智能能领领域域的的伦伦理理倡倡议议信息技术可能会被滥用。人工智能可能会出现过度人格化和人性化现象,从而使人机之间的界线越来越模糊。人工智能的不断发展将带来新的“数字鸿沟”,也将对生物圈和环境产生影响。(一一)国国际际伦伦理理倡倡议议尽管国家层面的伦理倡议较少,但国际社会已发起诸多独立倡议,以探索解决伦理困境。如,德国的人工智能伦理研究所,提出以人为本的

17、课题,重点是人工智能快速发展的文化与社会定位,涵盖哲学、伦理学、社会学、政治学等学科。英国的人工智能与机器学习伦理研究所提出“负责任机器学习”的八项原则,授权所有行为体(从个人到整个国家)开发人工智能,这些原则涉及人类控制保持、对人工智能影响的适当补救、偏见评估、可解释性、透明度、可重复性、减轻人工智能自动化对劳动者、准确性、成本、隐私、信任和安全等问题的影响。美国未来生命研究所发布的阿西洛马人工智能原则,主- 10 -要是确保公共职能的发展对人类有益,重点关注安全和与人类存在有关的风险:自主武器军备竞赛、人类对人工智能的控制,以及先进的 “通用/强大的”人工智能或超智能人工智能的潜在危险。美

18、国的人工智能伦理与治理倡议旨在确保以能够证明公正、人类自主、正义等社会价值的方式研究、开发和部署自动化及机器学习技术。美国电气与电子工程师协会发布的人工智能设计的伦理准则(第 1 版),为保持人工智能和智能系统以人为本、服务于人类的价值观和原则制定社会和政策指南。在设计和开发过程中,重点确保对所有相关方进行教育、培训和授权,能够优先考虑人权、福祉、问责制、透明度、滥用意识等伦理因素。日本人工智能学会发布的伦理准则,主要是确保人工智能研发始终对人类社会有益,确保相关研发符合伦理和道德准则。欧洲某论坛发布的美好人工智能社会的伦理框架,就是主要应对人工智能的社会影响,以及构建“美好人工智能社会”的基

19、础原则、政策和实践。(二二)倡倡议议旨旨在在应应对对的的伦伦理理危危害害与与问问题题上述倡议均认为应以道德的方式研究、开发、设计、部署、监管和使用人工智能,但每项倡议的侧重领域存在差异。上述倡议提出了很多关键问题,这些问题可大致分为以下几类:- 11 - 人人权权与与福福祉祉:人工智能是否符合人类和人类福祉的最大利益? 情情感感伤伤害害:人工智能是否会降低人类情感体验的完整性,或者是否会造成情感或心理伤害? 问问责责机机制制与与责责任任制制:谁应该负责建立人工智能体系,以及谁应该对人工智能做出的行为承担责任? 安安全全性性、隐隐私私性性、可可访访问问性性与与透透明明度度:我们如何在可访问性和透

20、明度与隐私和安全性之间进行权衡,尤其是数据和个性化方面? 信信任任度度:如果公众认为人工智能不可信,或者人工智能的行事方式会威胁自身或他人安全,这将阻碍人工智能系统的完善。 社社会会危危害害与与社社会会正正义义:如何确保人工智能足够的包容性,没有偏见和歧视,且符合公共道德与伦理标准? 金金融融损损害害:如何控制人工智能对经济机会和就业产生的负面影响(如抢占人类劳动者的工作、减少就业机会和质量等)? 合合法法性性和和正正义义性性:如何确保以公正、公平、合法的方式使用、处理和管理人工智能及其收集的数据?如何确保人工智能遵守相关政府治理和法规?何为适当法规?是否应将人工智能当成“人类”? 对对人人工

21、工智智能能的的控控制制和和符符合合伦伦理理地地使使用用(或或滥滥用用):哪些人- 12 -工智能的使用不符合伦理,以及如何防止这种情况发生?随着人工智能的不断发展和“学习”,如何确保人类能够完全控制人工智能? 环环境境危危害害与与可可持持续续性性:我们如何防止与发展和使用人工智能相关的潜在环境危害?如何以可持续的方式发展人工智能? 合合理理使使用用:需要采取哪些措施确保公众接受相关教育,充分了解人工智能的使用以及与人工智能的互动? 生生存存危危机机:如何避免人工智能军备竞赛?如何预先缓解和控制潜在危害?如何确保先进的机器学习既可稳步发展,又可予以管理?总体而言,这些倡议旨在确定并构建伦理框架和

22、制度,将人类福祉放在首位,优先考虑对人类社会和环境的利益,并减轻与人工智能相关的风险和负面影响,重点在于确保人工智能是负责任的和透明的。四四、人人工工智智能能标标准准与与法法规规随着对人工智能和机器人技术的伦理、法律和社会影响的进一步了解,新一代伦理标准也逐渐出现。某些标准已存在,但相关公开信息有限,仍处于完善中。机器人领域最早的明确道德标准或许是机器人和机器系统- 13 -的伦理设计和应用指南(BS8611)(也称英国标准 BS8611)。该标准是关于设计人员如何确认潜在伦理危害、如何对其机器人或人工智能进行伦理风险评估,以及如何减轻已发现的伦理风险的指南。该标准是基于 20 种不同的伦理危

23、害和风险制定的,这些伦理危害和风险可分为四大类:社会类、应用类、商业与金融类,以及环境类。英国标准 BS8611 就如何缓解每种风险的影响提出了相关建议。例如,社会危害包括失去信任、欺骗、侵犯隐私、成瘾、失业等。另外,伦理风险评估还应对可预见的滥用、导致压力和恐惧的风险(及其最小化)、控制失效(及相关心理影响)、重新配置、与职责相关的更改以及与特定机器人应用相关的危害加以考量。该标准尤其关注会学习的机器人,以及机器人因此增强而带来的影响,该标准认为,与使用机器人相关的伦理风险不应超过人类进行相同活动带来的风险。英国标准 BS8611 假定人身危害即为伦理危害,并将伦理危害定义为影响“心理和/或

24、社会及环境福祉”的危害。该标准还意识到,应在用户身体和情感伤害与预期收效之间进行权衡。电气与电子工程师协会通过其“自主与智能系统伦理”的全球性倡议,发布了一项标准。该倡议将“人类福祉”作为核心准则,旨在将机器人技术和人工智能重新定位为改善人类境况的技- 14 -术,而非单纯的经济增长工具。通过对人工智能/机器人相关方进行教育、培训和授权,以使其“优先考虑伦理因素,从而使这些技术为人类造福”。目前,其正在起草 14 个标准,如,自主系统透明度、数据隐私流程、算法偏见问题、自动化面部分析技术的包容性与应用标准、新闻来源可信度坚定与评级流程标准等。五五、关关于于人人工工智智能能的的国国家家或或国国际

25、际战战略略(一一)欧欧洲洲2018 年 4 月,欧盟委员会发布了人工智能通讯。之后发布的人工智能协调计划中详细列出了 7 个目标,包括为初创企业提供资助、对多个“卓越研究中心”投资 15 亿欧元、为人工智能领域的硕博学位提供保障,以及创建通用的欧洲数据空间等。该计划的目标之一是制定“具有全球视野的伦理准则”。2019 年 4 月,这一准则最终发布,提出了人工智能要获得信任必须满足的关键要求。之后,欧盟人工智能高级专家小组发布了人工智能的投资指南,其中包括保护人类,促进私营部门采用人工智能,提升欧洲对人工智能的研究能力,以及开发符合伦理的数据管理实践等一系列重要建议。欧洲理事会于 2019 年

26、9 月成立了人工智能特别委员会(CAHAI)。该委员会将根据理事会关于人权、民主和法- 15 -治的基本原则,对开发和应用人工智能的法律框架的潜在要素进行评估。欧盟委员会为不仅制定欧盟层面的人工智能政策,也鼓励各成员国制定自己的国家战略。芬兰、丹麦、法国、德国、瑞典等国家均已宣布国家级人工智能倡议。例如,芬兰发布的芬兰的人工智能时代、人工智能时代的就业,以及丹麦发布的国家人工智能战略。(二二)北北美美2017 年 3 月, 加拿大发布了世界上第一个国家级人工智能战略泛加拿大人工智能战略,包括四个主要目标:增加加拿大人工智能研究人员和毕业生人数;在埃德蒙顿、蒙特利尔和多伦专专栏栏:欧欧盟盟“可可

27、信信赖赖人人工工智智能能”的的七七个个要要求求:人的能动性和监督能力技术稳定性和安全性隐私和数据治理透明度多样性、非歧视性和公平性社会和环境福祉问责机制来源:欧盟委员会人工智能高级专家小组,2019 年- 16 -多建立科学卓越中心;在人工智能的经济、伦理、政策和法律影响方面确立全球思想领导地位;为国家人工智能研究群体提供支持。2019 年 2 月,美国发布美国人工智能倡议,包含五个关键领域:投资研发、释放人工智能资源(即数据和计算能力)、制定治理标准、建立人工智能员工队伍,以及参与国际合作。2019 年 5 月,美国通过人工智能倡议法案(AI InitiativeAct),旨在“建立协调一致

28、的联邦倡议,以促进人工智能的研究和开发,增强美国的经济和国家安全”,承诺建立国家人工智能协调办公室,制定人工智能评估标准,并资助 5 个国家人工智能研究中心。为美国国家科学基金会提供资金,用于研究人工智能对社会的影响,如数据偏见、隐私权和责任制,并扩展由能源部领导的基于人工智能的研究工作。2019 年 6 月,美国发布了国家人工智能研发战略计划,确定了多项战略重点:对人工智能研究进行长期投资;开发人类与人工智能合作的有效方法;开发共享的公共数据集;借助标准和基准评估人工智能技术;以及了解和应对人工智能的道德、法律和社会影响等。(三三)亚亚洲洲2017 年 3 月,日本发布人工智能技术战略,涉及

29、健康和- 17 -出行方面的重点领域,以应对日本人口老龄化问题。日本针对人工智能设想了一个三阶段开发计划,最终将形成一个可供所有社会领域使用的、完整连接的人工智能生态系统。2017 年 5 月,新加坡发布了“新加坡人工智能计划”,为期五年,旨在增强本国的人工智能能力,其中包括四个关键主题:工商业、人工智能框架与测试平台、人工智能人才与从业人员,以及研发。次年,新加坡政府又针对人工智能治理与伦理宣布了其他倡议,包括建立人工智能与数据伦理使用咨询委员会。2019年 1 月通过“人工智能治理示范框架”,以提供指导性伦理原则。2017 年 7 月,中国发布了新一代人工智能发展规划。之后,制定了“促进新

30、一代人工智能产业发展的三年行动计划”,该计划的四个主要目标是:关键人工智能重点产品规模化发展;人工智能整体核心竞争力显著增强;深化发展智能制造;以及人工智能产业支撑体系基本建立。2018 年 6 月, 印度发布了 人工智能国家战略 (AI forAll) ,旨在利用人工智能优势促进经济增长、 社会发展和 “包容性增长” ,重点关注如何使公民有能力找到质量更高的工作。(四四)南南美美墨西哥是唯一发布人工智能战略的南美国家。其战略包括五项关键行动:开发适当的治理框架以促进多部门对话;分析行业- 18 -需求;提升墨西哥在人工智能领域的国际领导地位;发布建议并征询公众意见; 与专家和公众合作, 实现

31、人工智能计划的连续性。(五五)国国际际组组织织七七国国集集团团的的人人工工智智能能未未来来的的共共同同愿愿景景。2018 年,七国集团领导人提出了 12 项人工智能原则:促进以人为本的人工智能及其商业应用,继续推动采用中性的技术伦理途径;增加对人工智能研发的投资,以对新技术进行公开测试,支持经济增长;为劳动力接受教育、培训和学习新技能提供保障;在人工智能的开发和实施中,为代表性不足群体(包括妇女和边缘化群体)提供保障,并使其参与其中;就如何推进人工智能创新促进多方相关者对话,增进信任,提高采用率;鼓励可提升安全性和透明度的倡议;促进中小企业使用人工智能;对劳动力进行培训;增加对人工智能的投资;

32、鼓励以改善数字安全性和制定行为准则为目的的倡议;保护开发隐私和进行数据保护;为数据自由流动提供市场环境。经经济济合合作作与与发发展展组组织织的的人人工工智智能能原原则则。2019 年 5 月 22日,经合组织发布了人工智能原则,这是首个国际标准,主要包括:人工智能应促进包容性增长、可持续发展和福祉,以使人类和地球从中受益;人工智能系统应尊重法治、人权、民主价值观和多样性,且应包含适当的保障措施,以确保社会公平;人- 19 -工智能应保持透明,以确保人们了解相应的结果,并能够应对相关挑战等。世世界界经经济济论论坛坛。2019 年 5 月,世界经济论坛成立了一个全球人工智能理事会,负责制定政策指南

33、,解决治理方面的空白,并推广成功的人工智能政策。2019 年 10 月,世界经济论坛制定国家人工智能战略的框架, 包括四个主要阶段: 评估长期战略重点,设定国家目标,制定基本战略要素计划,制定实施计划。还宣布了开发“人工智能工具包”计划。六六、新新兴兴伦伦理理倡倡议议本文重点关注人工智能对社会、心理、金融、法律和环境领域的潜在影响。新兴伦理倡议中提出了应对的不同方式。此外,相关标准和法规也在制定当中。然而,现有的许多人工智能战略都侧重于技术发展,各战略之间存在明显差距。(一一)通通过过国国家家和和国国际际战战略略应应对对伦伦理理问问题题各国的人工智能战略有几个共同主题,其中,产业化和生产力最为

34、突出。所有国家/地区都制定人工智能产业战略,尤其是东南亚新兴经济体。大多战略都认为人工智能对商业竞争力很重要,德国、韩国、中国台湾和英国的战略,宣布为以人工智能为核心的初创企业提供额外资金和专门的孵化器。- 20 -重重视视研研发发。几乎所有战略都承诺将增加研究经费,且许多战略,如加拿大、德国和印度的战略,都指出将建立专门的人工智能研究机构。加加大大对对人人才才和和教教育育的的投投资资。对人员和教育进行投资也是大多数战略的一大重点。英国宣布将通过“图灵奖”为探索计算方法的新学者提供资助,德国至少额外提供了 100 名从事人工智能的教授,这两项举措都是在欧盟承诺培训、吸引和留住人才的框架下执行的

35、。韩国承诺开设六个新的研究生课程,培训 5000 名人工智能专家,中国台湾承诺到 2021 年使人工智能人才增加一倍。对对劳劳动动力力进进行行培培训训。大多数战略还考虑了人工智能革命对无技术傍身的劳动力的影响,因为他们可能成为自动化浪潮下第一批失业者。尽管涉及伦理考虑,一些策略仍对重新培训计划做出了实际承诺,以帮助受影响者找到新工作。欧盟计划的主要目标之一就是“调整我们的学习培训计划和系统,使社会为迎接人工智能做好充分准备”,也是其成员国计划的主要目标。例如,英国将启动一项超过 7000 万欧元的再培训计划,以帮助人们获得数字化技能,德国宣布了“国家进一步培训策略”。墨西哥的策略强调了计算思维

36、和数学在终身教学中的重要性,包括帮助公民进行再培训;印度承诺促进非正式培训机构的发展,并为员工学习新技能创造经济激励。- 21 -促促进进部部门门之之间间以以及及国国家家之之间间的的合合作作。例如,印度采用共享方法,其战略提出的“人工智能库”概念意味着由印度开发的基于人工智能的解决方案可推广至面临相似问题的发展中经济体。美国有关人工智能的行政命令则旨在“促进有利于美国人工智能的国际环境”,同时保持美国相对于“外国对手”的技术优势。而欧盟成员国的战略更倾向于跨国合作。例如,瑞典表示有必要与其他国家特别是欧盟国家发展伙伴关系和合作;丹麦战略强调要与其他欧洲国家展开紧密合作。促促进进包包容容性性和和

37、社社会会发发展展。技术民主化有望减少社会不平等现象,因此,包容性和社会发展是许多国家级人工智能倡议,尤其是发展中经济体的倡议的重要目标。如,印度战略的重点在于提高更好地获取医疗保健资源的可能性,促进先前被排除在正规金融产品之外的群体的经济增长,以及利用数据为规模较小的农民提供帮助。墨西哥战略的主要目标包括包容性、生产力民主化、促进性别平等等。法国致力于发展“具有包容性”的人工智能,以探索可降低社会和经济不平等性的策略。责责任任划划分分。确定谁应对人工智能的行为举止负责非常重要,然而不论是从伦理还是法律上这都具有挑战性。当前,最有可能的方法是将人工智能视为相关人类行为者的法律责任,即开发人员、用

38、户、供应商等人手中的工具。然而,这一框架无法应对由- 22 -人工智能带来的特殊挑战,且存在很多灰色区域。例如,一台机器会进行学习,并通过多次迭代变得与初始编程有所不同,而这可能会造成更难将其行为责任划分给程序员。(二二)应应对对人人工工智智能能治治理理的的挑挑战战目前,关于人工智能治理有两个主要的国际框架,即欧盟框架和经合组织框架。2018 年 4 月,欧盟委员会发布的人工智能战略,包括全面的投资计划、如何应对复杂的社会经济变化,并提出一套单独的伦理准则。2019 年 5 月,经合组织发布的人工智能原则,当时有 42 个国家采用。经合组织框架对使用人工智能提出了五项基本原则,并为政府实施这些

39、原则提出了建议。上述框架在不同程度上解决了本报告指出的道德和伦理困境,但彼此之间也存在明显差异。关关于于环环境境问问题题。 经合组织提出发展可为地球带来积极影响 (包括保护自然环境)的人工智能,但并未提出实现目标的方法,也未提及任何需要考虑的具体环境挑战。欧盟的人工智能通讯并未讨论环境问题。但是,其附带的伦理准则是基于伤害预防原则制定的,其中包括对自然环境和所有生物的伤害。社会和环境福祉(包括可持续性和“环境友好型”)是欧盟对可信赖人工智能的要求之一,其评估清单上包括对环境或动物风险的明确考量。- 23 -另外,欧盟还就如何实现这一目标提供了具体范例(例如,对整个供应链中的资源使用和能源消耗进

40、行严格评估)。关关于于对对心心理理的的影影响响问问题题。两个框架均未考虑人工智能对社会心理的影响。但是欧盟提出了要考虑社会福祉的要求,这确实涉及“社会影响”,包括可能出现的社会关系变化、社会技能的丧失等。欧盟的伦理准则也指出,必须“认真监管和考虑”此类影响,且与人类互动的人工智能必须清楚地表明其社交互动是模拟而来。关关于于对对劳劳动动力力市市场场影影响响问问题题。经合组织发布的人工智能原则中第一项原则(包容性增长、可持续发展与福祉)规定,人工智能的开发应能减少经济、社会、性别及其他不平等现象。经合组织的第二项原则一定程度也涵盖这一点,该原则指出,人工智能系统应尊重多样性,并包含确保社会公平的保

41、障措施,但并未详细指出如何实现这一目标。欧盟的伦理准则更为全面包含有专门的多样性、非歧视性和公平性要求,详细指出,平等是可信赖人工智能的基础,并指出人工智能应接受代表不同群体的数据培训,以防出现输出偏差。以以人人权权和和民民主主价价值值观观为为主主要要宗宗旨旨,包包括括隐隐私私权权。经合组织强调以人为本的价值观,欧盟伦理准则详细说明了数据治理和数据获取规则的重要性。经合组织现有的数据保护准则中也涵盖有关- 24 -隐私权的问题。关关于于民民主主问问题题。经合组织只是简单提到了人工智能对民主的影响,并未论述目前各国政府所面临的特定问题。欧盟未提及民主威胁, 但社会和民主准则指出, 人工智能系统应

42、用于维护民主,而不应破坏“民主进程、人类审议或民主投票制度”。人人工工智智能能时时代代必必需需进进行行法法律律制制度度变变革革,包包括括与与人人工工智智能能不不当当行行为为相相关关的的责责任任问问题题。欧盟的人工智能通讯和伦理准则均明确论述了责任问题。其中的一项关键要求是确保有适当的法律框架,包括有关产品责任的指南,以及对安全和安保问题的研究。随附的伦理准则也讨论了此类问题,包括就如何确保法律合规性为开发人员提供指南等。人工智能政策与投资建议书探讨了法规方面的相关变化,研究了欧盟现行法律的潜在变化,以及对新监管权力的需求。经合组织发布的原则为政府创建有关人工智能的“有利政策环境”提供了指南,并

43、对审查和调整监管框架提出了建议,但并非犯罪责任问题。关关于于问问责责机机制制。经合组织将问责机制列为一项关键原则,并指出“开发、部署或使用人工智能系统的机构和个人应对系统的正常运行负责”。问责是欧盟伦理准则的核心原则,该准则在对可信赖人工智能的评估清单中提出了十多项问责条例。关关于于公公平平、透透明明。经合组织指出,人工智能系统应确保“社- 25 -会公平和公正”。透明度和可解释性是经合组织的核心原则,重点强调应使人类能够理解和应对人工智能系统。经合组织原则提供的背景信息较少,且并未考虑能够确保这一点的实际方法(如算法审核),欧盟的伦理准则考虑到了这一点,并考虑了人类监督的必要性,包括讨论人在环路方法以及设置“停止按钮”的必要性。关关于于对对金金融融领领域域的的影影响响问问题题。尽管这两种框架均承认人工智能对金融领域大有裨益,但均未充分论述对金融系统造成的潜在负面影响。其中包括人工智能有可能辅助金融犯罪,目前尚无国际框架能够应对这一问题。译自:The ethics of artificial intelligence: Issues and initiatives, March2020 by European Parliamentary Research Service译文作者:赛迪工业和信息化研究院郧彦辉联系方式:电子邮件:

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(人工智能伦理:问题和倡议(26页).pdf)为本站 (小时候) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
会员购买
小程序

小程序

客服

专属顾问

商务合作

机构入驻、侵权投诉、商务合作

服务号

三个皮匠报告官方公众号

回到顶部