2022年3月,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,对科技伦理治理工作进行了系统部署,将人工智能列入科技伦理治理的重点领域。 当前,人工智能伦理面临哪些风险与挑战?国内外进行了哪些实践?未来应如何实现人工智能伦理的治理?近日,中国信息通信研究院(简称中国信通院)发布的《人工智能伦理治理研究报告(2023年)》围绕相关问题进行了研究分析。 该报告认为,人工智能技术的突破发展,引发了技术应用的伦理争议,特别是生成式人工智能技术的发展应用引发了偏见歧视、隐私侵犯、责任不明、虚假内容传播等伦理挑战。未来一段时期,人工智能伦理治理将与产业创新活动增强协调;多学科多主体参与、分类分级治理、技术工具开发等措施将有效推动人工智能伦理治理机制完善;全民科技伦理素养的提升将有效防范人工智能伦理风险;全球人工智能伦理治理合作也将推动人工智能技术造福人类。 挑战:覆盖人工智能全生命周期的各个阶段 人工智能伦理是开展人工智能研究、设计、开发、服务和使用等科技活动需要遵循的价值理念和行为规范,呈现出哲学性、技术性、全球性三大特点。该报告认为,目前,人工智能引发的伦理挑战已从理论研讨变为现实风险。据统计,仅2023年11月,人工智能事件就超过280件。对人工智能伦理问题的关切覆盖人工智能全生命周期的各个阶段,需要从技术研发和应用部署层面分析评估人工智能伦理风险。 其中,在技术研发阶段,由于人工智能技术开发主体在数据获取和使用、算法设计、模型调优等方面还存在技术能力和管理方式的不足,可能产生偏见歧视、隐私泄露、错误信息、不可解释等伦理风险。在产品研发与应用阶段,人工智能产品所面向的具体领域、人工智能系统的部署应用范围等将影响人工智能伦理风险程度,并可能产生误用滥用、过度依赖、冲击教育与就业等伦理风险。 “需要注意,隐私泄露、偏见歧视、产生虚假错误信息、归责不明等伦理风险既可能产生在研发阶段,又可能产生于应用阶段,甚至是两者叠加产生的负面后果。识别人工智能伦理风险需要进行全生命周期的评估。”该报告特别强调。 当前,伴随着大模型的发展,生成式人工智能应用成为 2023年人工智能应用热点,但使用大模型生成内容具有三大突出伦理风险。 一是误用滥用风险。生成式人工智能技术应用普及快、使用门槛低,可能成为制作深度伪造内容、恶意代码等的技术工具,引发虚假信息大量传播以及网络安全问题。 二是数据泄露与隐私侵犯风险。生成式人工智能使用的训练数据集可能包含个人信息,继而被诱导输出有关信息。同时,在用户使用过程中上传的个人信息、企业商业秘密、重要代码等都有可能成为生成式人工智能训练的素材,进而产生被泄露的风险。 三是对知识产权制度带来挑战。生成式人工智能技术对知识产权体系造成了冲击。在训练数据的使用上,哪些数据能用于模型训练还存在争议,关于“合理使用”是否能适用于大模型数据训练还在讨论,且已有艺术家开始使用技术工具”阻止未经允许的模型训练。在生成内容的权利归属上,人工智能技术是否仅能发挥工具作用还有探讨空间。 实践:世界各国逐步构建起人工智能有序发展的治理机制 人工智能已成为各国科技发展的重要战略。目前,各国通过伦理规范明确人工智能技术研发和应用的基本伦理要求,加强全球人工智能伦理治理合作,逐步构建起人工智能有序发展的治理机制。 国际组织的人工智能伦理治理方案。目前,国际社会正加紧推进人工智能伦理治理领域的合作。在人工智能伦理共识性原则层面,联合国教科文组织193个成员国于2021年11月达成《人工智能伦理问题建议书》,明确尊重、保护和促进人的权利、基本自由、尊严,环境和生态系统发展,确保多样性和包容性,生活在和平、公正的互联网社会中等4项人工智能价值观。同时,iso(国际标准化组织)、iec(国际电工委员会)、ieee(电气与电子工程师委员会)、itu(国际电信联盟)等国际标准化组织积极推动以人工智能技术为代表的科技伦理标准研制。2023年5月25日,联合国发布的《我们的共同议程》政策简报提出“全球数字契约——为所有人创造开放、自由、安全的数字未来”;2023年10月26日,联合国高级别人工智能咨询机构成立;2023年12月,该咨询机构发布临时报告《以人为本的人工智能治理》。 域外国家和地区的人工智能伦理治理机制。其中,既有以美国为代表的以面向市场和创新为导向的监管模式,又有以欧盟为代表的积极介入模式。 美国发展以鼓励创新为基础的可信赖人工智能。在行政规划层面,2023年10月,美国总统拜登发布《关于安全、可靠、可信赖地开发和使用人工智能》行政令,明确进行负责任人工智能技术开发。此前,2022年5月,拜登政府成立国家人工智能咨询委员会;2022年10月发布《人工智能权利法案蓝图》。同时,美国政府积极鼓励行业自律,2023年7月和9月两次推动包括openai、谷歌、微软、英伟达等15家企业就开发避免偏见歧视、保护隐私的人工智能做出承诺。在具体领域,美国联邦政府不同部门也依据主责主业发布相应的伦理原则和治理框架。不过,美国目前仍然缺乏以人工智能为规制对象的具有约束力的法律规范。 欧盟通过健全监管规制落地人工智能伦理要求。在伦理框架方面,2019年4月,欧盟高级专家组发布《可信人工智能伦理指南》,提出可信人工智能的概念和7项关键要求,包括保证人类监督、鲁棒性和安全性、隐私和数据治理、透明度、多样性、社会和环境福利、问责。在治理落地方面,2023年12月,欧盟委员会、欧洲理事会、欧洲议会达成共识,就《人工智能法案》达成临时协议,提出基于风险的监管方式,将人工智能系统带来的挑战分为不可接受的风险、高风险、有限风险、基本无风险4个级别,并形成对应的责任和监管机制;同时,强调以人为本、保证透明度等伦理价值要求。 此外,德国关注人工智能具体应用领域(人工智能算法、数据以及自动驾驶等)伦理风险规制,强调以人为本,发展负责任、以公共利益为导向的人工智能。如在算法领域,德国数据伦理委员会将与人类决策相关的人工智能系统划分为基于算法的决策、算法驱动的决策和算法决定的决策3种类型,并提出人工智能算法风险导向型“监管金字塔”,将人工智能算法风险进行1级~5级评级,逐级增加规范要求,包括监管审查、附加批准条件、动态监管以及完全禁止等措施。新加坡积极探索人工智能伦理治理技术工具,通过发布“智慧国家”“数字政府蓝图”等国家政策,多维度提升人工智能发展与应用水平,着力推动社会数字化转型向有利于人的方向发展。如2023年12月,新加坡发布国家人工智能战略2.0,提出人工智能服务公共利益的愿景,再次强调建立一个可信赖和负责任的人工智能生态。 与此同时,我国也积极参与人工智能伦理治理国际合作。2023年8月,在金砖国家领导人第十五次会晤上,金砖国家已同意尽快启动人工智能研究组工作,拓展人工智能合作,形成具有广泛共识的人工智能治理框架和标准规范。2023年10月,我国发布《全球人工智能治理倡议》,围绕人工智能发展、安全、治理三方面系统阐述了人工智能治理中国方案,提出坚持伦理先行的原则,提出建立并完善人工智能伦理准则、规范及问责机制。同时,我国专家也积极参与联合国、世界卫生组织等国际机构的人工智能伦理规则构建。2023年10月,我国两位专家入选联合国高级别人工智能治理机构,积极参与联合国层面的人工智能治理讨论,提出全球人工智能治理建议。 展望:人工智能伦理治理将与产业创新活动增强协调 该报告围绕人工智能伦理治理提出了四方面建议。 一是协调人工智能产业创新发展与伦理治理。一方面,重视人工智能技术创新,鼓励人工智能基础技术创新和突破,发展人工智能芯片、数据、算法等基础核心技术,加强人工智能治理产品开发,以人工智能技术防范人工智能风险;另一方面,探索建立敏捷的人工智能伦理治理机制,增强科技伦理治理的有效性和科学性,推动产业创新与伦理风险防范相协调。 二是完善人工智能伦理治理举措。其一,健全多学科多主体合作的治理体系,形成多学科共建的人工智能治理合力。其二,要建立分类分级伦理治理机制。建议根据人工智能伦理风险大小和影响范围确定责任义务和监管规则,如对于基本不具有伦理影响的人工智能技术应用,简化监管程序,鼓励技术创新和发展;对于具有一定伦理影响的人工智能技术,设定伦理要求,建立风险评估机制,明确责任;对于具有长期且广泛影响的人工智能高风险应用领域,加大监管力度,通过多种监管手段防范伦理风险;对于具有不可接受伦理影响的人工智能应用,考虑禁止部署。其三,推动人工智能伦理治理技术化、工程化、标准化,形成人工智能伦理治理经验示范。 三是提升各主体人工智能伦理风险应对能力。符合人工智能伦理的开发和应用实践有赖于研发、设计、应用人员承担起个人责任,也需要公众加强对人工智能伦理风险的认知及负责任使用。支持高校开设科技伦理课程,引导学生和科技工作者提升人工智能伦理素养,将开展面向员工的科技伦理培训作为企业落实科技伦理管理主体责任的必要环节,引导行业加强科技伦理自律与合作,加强面向社会公众的科技伦理教育。 四是加强人工智能伦理治理国际交流合作。人工智能技术具有全球性、时代性,要积极参与全球科技伦理治理双多边合作,同时鼓励国内企业和专家学者参与国际人工智能伦理治理交流合作,形成全球人工智能伦理治理合作生态。
|