4. 人工智能伦理指南和原则
随着人工智能的伦理问题越来越受到社会各界的关注和讨论,许多组织(包括学术界、工业界和政府)开始讨论和寻求解决人工智能伦理问题的可能框架、指南和原则[78]。这些指导方针和原则为实践AI伦理提供了有价值的指导。本节致力于提供最新的全球人工智能伦理指南和原则。我们调查了自2015年以来全球各国公司、组织和政府发布的与人工智能伦理相关的146份文件。这些指导方针和原则为人工智能的规划、开发、生产和使用以及解决人工智能伦理问题的方向提供了指导方针。
4.1人工智能伦理相关指南文件
Jobin 等人[12]在2019年对当前的AI伦理原则和指南进行了调查和分析。他对来自不同国家或国际组织发布的84个AI伦理文件进行了分析。Jobin等人[12]分析发现目前所发表的AI伦理指南在五个关键原则上达成了广泛共识,即透明度、公正和公平、非恶意、责任和隐私等。然而,在过去的两年多里,许多关于人工智能伦理的新指南和建议已经发布,使得Jobin的论文已经过时,因为许多重要文件没有被包括在内。例如,2021年11月24日,联合国教科文组织通过了《人工智能伦理建议书》,这是有史以来第一个关于人工智能伦理的全球协议[79]。为了更新和丰富对人工智能伦理准则和原则的调研,在论文[12]的基础上,我们收集了许多新发布的人工智能伦理指南或准则文件。最后,共收集了146个人工智能伦理指南文件。
2015年至2021年每年发布的指南数量如图8所示。可以看出,大部分指南是在最近五年发布的,即2016年至2020年。2018年发布的指南数量最多,有53篇,占总数的36.3%。此外,不同类型的发行人(包括政府、行业、学术界和其他组织)发布的指南文件数量的百分比如图9所示。从图9可以看出,政府、企业和学术界都对人工智能伦理非常关注。
5. 人工智能伦理问题的解决路径
本节回顾解决或缓解人工智能伦理问题的路径。由于人工智能伦理是一个广泛且多学科的领域,我们试图全面概述解决人工智能伦理问题的现有和潜在方法,包括伦理、技术和法律手段,而不是仅仅关注人工智能领域的技术方法。
5.1伦理方法
伦理手段致力于开发伦理AI系统或智能体,通过在AI中嵌入伦理道德,使它们能够根据伦理理论[87]进行推理和决策。现有的在人工智能中嵌入伦理的方法或途径可以分为三种主要类型:自上而下的方法、自下而上的方法和混合方法[101]。
5.2技术方法
技术手段旨在开发新技术(尤其是机器学习技术),以消除或减轻当前AI的缺点,规避相应的伦理风险。例如,对可解释机器学习的研究旨在开发新的方法来解释机器学习算法的原理和工作机制,以满足透明或可解释性原则。公平机器学习研究使机器学习能够做出公平决策或预测的技术,即减少机器学习的偏见或歧视。近年来,人工智能学界为解决人工智能伦理问题做出了积极的努力。例如,ACM自 2018 年以来举办了年度ACM FAccT会议,AAAI和ACM自2018年起开始举办AAAI/ACM Conference on Artificial Intelligence, Ethics, and Society (AIES),第31届国际人工智能联合会议和第23届欧洲人工智能会议(IJCAI-ECAI 2022)提供关于“AI for good”的special track。
据我们所知,现有技术方法方面的工作主要集中在几个重大和关键的问题和原则上(即透明度、公平正义、非恶意、责任和问责、隐私),其他问题和原则很少涉及。因此,我们仅对涉及上述五项关键伦理原则的技术方法进行简要总结,表4列出了一些具有代表性的研究方向。
5.3法律方法
法律手段旨在通过立法来规范或管理人工智能的研究、部署、应用和其他方面来避免先前讨论的伦理问题。随着人工智能技术的应用越来越广泛,以及人工智能应用中出现的伦理问题和风险,政府和组织已经制定了许多法律法规来规范人工智能的开发和应用。法律方法已成为解决人工智能伦理问题的一种手段。
来源:
C. Huang, Z. Zhang, B. Mao and X. Yao, "An Overview of Artificial Intelligence Ethics," in IEEE Transactions on Artificial Intelligence, 2022, doi: 10.1109/TAI.2022.3194503.