尽管人工智能技术带来了许多积极的好处,但围绕人工智能技术,人们发现了许多重要的伦理挑战,包括隐私、数据保护、透明度和可解释性、数据偏差、责任以及自动化对就业的影响等问题。这些担忧促使“人工智能伦理”(AI Ethics)的热潮,旨在考虑如何以合乎伦理的方式开发和实施人工智能技术。最近的一项范围审查确定了由广泛的公共和私人组织发布的84份包含人工智能伦理原则或指南的文件。对这些文件的评估表明,围绕一套非常类似于传统医学伦理原则(例如,慈善、非恶意、透明、公正、责任)的原则正在出现趋同[6,7,8]。虽然经典原则可能被证明在指导生物医学研究和临床实践方面有用,但目前仍不清楚总体的高级原则在多大程度上有助于技术开发。事实上,一些人认为,单独使用原则将是无效的[9],或者更糟,科技行业对自愿遵守道德的关注只不过是一种战略努力,以避免法律可执行的监管[10,11]。
由于缺乏法律上可执行的法规,这些发展中的人工智能技术在很大程度上只能翻译他们认为适合[9]的高级伦理原则。但是,即使在已经颁布了法律法规的地方,很明显,实质性的伦理问题仍将存在。我们不妨类比一下临床伦理的作用,其中的法规肯定有助于指导执业医师的行为,但道德难题往往是开放的,仍然需要仔细的伦理思考。尽管科技公司可能真正愿意考虑围绕AI应用[12]的伦理挑战,但许多AI开发人员没有必要的能力来翻译不熟悉的高级原则。开发人员来自不同的学科和专业背景,不包括系统的伦理培训。与此同时,目前在科技公司工作的伦理学家很少,而且这些领域之间也没有实践交流的既定文化。在一定程度上是为了响应这一领域的分歧,已在努力提高发展过程中技术方面的人员的一般道德意识。例如,Floridi和Strait指出,越来越多的技术公司正在实施各种形式的“伦理预见分析”,以预测潜在的伦理问题和特定技术的后果[13]。此外,一些领先的大学和研究机构现在将伦理学纳入他们的技术课程,其明确目的是提高开发人员、程序员和工程师的伦理意识和批判性推理能力[14,15]。然而,尽管这些都是重要的进步,但完全熟练地将伦理原则具体说明并应用于广泛的现实世界伦理问题需要深入的研究和培训,以及广泛的方法学方法工具箱。除非教育课程和公司培训有重大的改变,以便使个人能够成为技术领域和伦理领域的专家,否则期望教育的改变能够使所有开发人员充分考虑他们正在开发的技术所产生的伦理问题是不现实的。
嵌入式伦理
术语“嵌入伦理学”以前曾被用于将哲学家纳入计算机科学和数据科学课程,以及将广泛的伦理原则直接编程到算法中,以便使它们“符合伦理”[14,38,39]。但是,我们所说的“嵌入伦理”是广义的,指的是将伦理融入整个发展过程的持续实践——在这里,伦理成为一个真正的协作、跨学科的企业。通过这种方式,我们的方法与早期的社会技术范式——特别是负责任的研究和创新(RRI)——有关键的共同点,但也有重要的区别。
嵌入式伦理方法的总体目标是帮助开发具有伦理和社会责任感的AI技术,这些技术有利于个人和社会,但不会伤害个人和社会。为了实现这一目标,伦理考虑从一开始就被集成到开发过程中,以便预测、识别和处理可能在开发的所有阶段出现的任何伦理重大问题:规划、伦理批准、设计、编程、试验、测试和相关技术的实施。此外,在整个医疗AI发展过程中定位伦理学家可能会促进前沿学术,从而有助于预测(而不仅仅是应对)随着医疗AI技术的应用而出现的社会和伦理摩擦。
结论
医疗AI在改善医疗、减少支出和覆盖服务不足人群方面带来了巨大希望。然而,医疗AI的发展领域广泛,应用范围广泛;一些前沿应用由于监管问题而从未实现临床应用,而另一些则从研究人员迅速转移到临床,并且在使用过程中存在未解决或未预料到的伦理或社会问题。尽管伦理学家以及技术公司和研究实验室的实践者提出了各种建议,但到目前为止,还没有一种统一的方法来解决这些问题,以便更充分地利用该领域的潜力。
为了让医疗人工智能应用实现其目标,必须有一个更系统的过程来解决和预测产品在临床试验或临床使用之前出现的伦理问题。虽然我们认为嵌入式伦理方法最容易在学术机构中实施,并作为公私发展的一部分,但它适用于许多不同的环境,包括医疗AI技术和应用的行业发展。这样做将有助于使医疗人工智能以公平和安全的方式实现其潜力,使医学变得更好。
随着医疗人工智能应用的迅速发展,许多伦理、社会和政治问题需要解决,而嵌入式伦理方法的发展只是其中的一个步骤。重要的是,嵌入的伦理方法可以与其他特定的方法相结合,如伦理预测分析,以及与大学中培训更多AI开发人员和工程师的现有建议相结合。具体的法律和法规可以为科技公司和研究实验室提供重要的治理,而“较软”的方法,如人工智能伦理“承诺”,可以利用社区层面的承诺,只为亲社会的意图开发人工智能[63]。在与这些不同的计划合作时,嵌入伦理的优势是在人工智能医疗创新中建立更系统、整合和迭代的伦理方法。随着人工智能在我们的日常生活和健康中越来越普遍,所有这些方法都将是必要的。然而,与现有的呼吁相比,嵌入伦理学的一个明显好处是它更有系统性,应用范围更广,并且可以立即开始。高度流动的、嵌入的伦理可以在各种环境中发挥作用,并且可以根据开发团队、产品或过程的特定需求进一步调整。
尽管如此,这一提议仍有几个未解决的问题。首先,即使在公共资助的研究环境中,人工智能的开发也主要发生在高度竞争的环境中,这种环境重视效率和速度,在更商业化的环境中,也重视利润。当伦理考虑与商业动机直接冲突时,伦理考虑可能会被忽略,毫无疑问,伦理学家和开发者必然会在许多实质性问题上产生分歧——考虑到透明度和知识产权之间的紧张关系。正如梅特卡夫和他的同事们所指出的,认真考虑伦理问题的过程常常与行业议程相冲突,并有可能被吸收到更广泛的企业承诺中,即精英主义、技术解决主义和市场原教旨主义[12]。伦理学家有时会在极端权力差异的情况下工作,特别是在涉及公司或金融利益的情况下,正如最近Timnit Gebru离开谷歌的案例所示。有时,可能有必要采取某种形式的强制措施,无论是通过严格的监管、认证还是自愿措施,以对抗任何将内在伦理变成仅仅是一种“伦理清洗”形式或对行业[50]的伦理口头语的倾向。有来自其他行业的“伦理章”、证书和合规程序的例子,可以潜在地借鉴和应用于嵌入式伦理。在我们看来,重要的是,伦理不能作为一种新的“行业自律”形式,而应作为医疗保健技术发展的一个组成部分。
其次,目前还不确定嵌入的伦理学家将如何为他们的工作获得报酬。我们可以想象学术研究试点项目的初始公共资金的可能性。然而,为了将嵌入式伦理部署到商业医疗AI开发中,工业界可能会在一开始推迟对此类项目的资助。然而,主要科技公司聘请伦理学家已经表明,公司收购可能不会被证明是一个重大障碍。鉴于现有的许多与使用人工智能技术有关的道德“丑闻”,很可能也有强大的经济动机来阻止那些真正有可能造成伤害的信息匮乏的技术的发展。因此,一旦嵌入的伦理给开发过程和底线带来的价值被确立,我们的建议也有可能在行业环境中被成功采用。
第三,显然需要对伦理学家、开发人员和工程师进行更多的培训,以促进嵌入式伦理学发挥作用所必需的那种交流。虽然顶尖大学正在制定现有的建议,但很有可能证明其他的培训模式——特别是针对已经在该领域工作的专业人士的培训模式是必要的。此外,培训,特别是跨学科和多文化背景下的培训,可以帮助提高有关伦理学家和开发人员对偏见的认识。通过培养对偏见的意识和一个可以公开讨论不同观点的环境,我们设想内嵌的伦理方法可以努力消除与开发中的技术相关的个人偏见的任何潜在有害影响。
最后,为了嵌入式伦理的成功,有必要制定明确的实践标准。一个已建立的方法过程将有助于将嵌入的伦理作为一个独特的实践社区,具有可参考的标准、案例研究和理论基础。这将证明对所有参与医疗人工智能的人都是有益的,包括参与创建培训项目的人、已经在医疗人工智能领域工作的人、在其他领域接受培训并希望过渡到医疗人工智能的伦理学家,以及其他研究人员、伦理学家和参与围绕人工智能在医疗保健中使用的社会、伦理和政治问题的公众成员。
来源:Cite this article
McLennan, S., Fiske, A., Tigard, D. et al. Embedded ethics: a proposal for integrating ethics into the development of medical AI. BMC Med Ethics 23, 6 (2022). https://doi.org/10.1186/s12910-022-00746-3