6. 人工智能伦理的评估方法
人工智能伦理学科的目标是设计满足伦理要求的人工智能,使其行为符合伦理或遵守伦理道德原则和规则。如何评估人工智能的伦理或道德能力是很重要和必要的,因为设计的人工智能系统需要在部署之前测试或评估是否符合伦理要求。然而,这方面在现有文献中经常被忽视。本节回顾了评估人工智能伦理的三种方法:测试、验证和标准。
6.1测试
测试是用于评估人工智能系统伦理道德能力的典型方法。通常,在测试系统时,需要将系统的输出与基本事实或预期输出进行比较[100]。针对人工智能伦理的测试,研究人员提出了道德图灵测试(Moral Turing Test, MTT)[144]以及专家/非专家测试(Experts / Nonexperts Test)。
6.2验证
评估AI伦理的另一类方法包括证明AI系统根据某些已知伦理规范正确运行。文献[147]讨论了这种方法,一个典型的形式验证过程如图10所示。
图10 形式化验证过程(此图是根据文献[147]重新创建的).
6.3标准
已经提出了许多行业标准来指导人工智能的开发和应用,以及评估或评估人工智能产品。本小节介绍了一些与人工智能相关的标准:
2014年,澳大利亚计算机协会(Australian Computer Society, ACS)制定了ASC专业行为准则(ASC Professional Code of Conduct),供所有信息通信技术(ICT)专业人士遵循。
2018年,ACM更新了ACM道德和职业行为准则(ACM Code of Ethics and Professional Conduct),以应对自1992年以来计算行业的变化[149]。
IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems [150]项目批准了IEEE P7000™标准系列[151]正在开发中。
由ISO和IEC组成的联合委员会ISO/IEC JTC 1/SC 42 [152],正在负责AI领域的标准化工作,致力于制定一系列标准,这其中也涉及了AI伦理问题。
随着对AI伦理问题的担忧,通过AI标准塑造AI的设计、部署和评估近年来受到广泛关注。尽管已经提出了许多标准,但标准(或原则)与实践之间的差距仍然很大。目前,只有一些大型企业,如IBM[153]和微软[154]等,已经实施了自己的行业标准、框架和指南来建立人工智能文化。但对于资源较少的小企业来说,实践与原则之间的差距仍然很大。因此,仍然需要许多努力。一方面,要提出完善的标准;另一方面,要大力践行标准。
结束语
人工智能伦理是一个复杂、具有挑战性的跨学科领域,试图解决人工智能中的伦理问题并设计能够以合乎伦理道德的人工智能系统是一项棘手而复杂的任务。然而,人工智能能否在我们未来的社会中发挥越来越重要的作用,很大程度上取决于人工智能伦理的研究成功与否。人工智能伦理的研究和实践需要人工智能科学家、工程师、哲学家、用户和政府决策者的共同努力。我们希望这篇文章可以作为对人工智能伦理感兴趣的人员的起点,为他们提供足够的背景和鸟瞰图,以便他们进行进一步的探索和研究。
来源:
C. Huang, Z. Zhang, B. Mao and X. Yao, "An Overview of Artificial Intelligence Ethics," in IEEE Transactions on Artificial Intelligence, 2022, doi: 10.1109/TAI.2022.3194503.