《印度国家研究院(NITI Aayog):印度负责任的人工智能原则(英文版)(64页).pdf》由会员分享,可在线阅读,更多相关《印度国家研究院(NITI Aayog):印度负责任的人工智能原则(英文版)(64页).pdf(64页珍藏版)》请在三个皮匠报告上搜索。
人工智能国家战略建议建立明确的机制,以确保以负责任的方式使用该技术,通过灌输信任,使其成为大规模采用的关键促成因素,同时最大限度地利用该技术的优势,同时保护公民。他们强调,需要在保护社会(个人和社区)的同时,不扼杀该领域的研究和创新。人工智能的未来由各种利益相关者决定,包括研究人员、私人组织、政府、标准制定机构、监管机构和普通公民。在世界各地,不同的国家和组织已经制定了原则,指导对各种利益相关者负责任的人工智能管理。本文中的案例研究和考虑仅限于“狭窄的人工智能”解决方案。它们被分为两大类:由于系统设计选择和部署过程而产生的“系统考虑”,并有可能影响与特定AI系统交互的利益相关者;以及“社会”考虑,这是与特定功能的人工智能解决方案使用相关的风险有关的更广泛的伦理挑战,并对社会产生潜在的影响,超出直接与特定系统互动的利益相关者。