背景
人工智能(AI)在医疗领域的应用日益广泛,为传统诊疗带来了技术突破,但也伴随着诸多风险和挑战。这些不良影响也被视为伦理问题,影响医疗人工智能的可信度,需要通过识别、预后和监测来管理。
方法
采用多学科方法,归纳影响医疗AI可信度的5个主题:数据质量、算法偏差、不透明、安全和保障、责任归属,并从技术、法律、医疗利益相关者和机构等角度进行讨论。运用伦理价值观-伦理原则-伦理规范的伦理框架,从伦理、法律、监管等方面提出相应的伦理治理对策。
影响医疗人工智能可信赖性的主要因素包括技术上是否安全可靠,以及使用方式是否尊重基本人权和符合普遍的人类价值观。我们采用多学科方法,从设计和应用两个层面分析了影响医疗AI可信度的因素(图1)。设计层面为技术是否可靠,应用层面为使用医疗AI时对人类的影响。在医疗AI的设计中,技术的安全性和可靠性主要来自于数据和算法方面。数据方面包括数据的获取、处理和存储,涉及知情同意、数据质量和隐私保护等问题。算法方面包括算法缺陷、算法黑箱、算法错误和算法漏洞,涉及算法偏差、安全和不透明等问题。在医疗AI的应用中,对人权的影响和责任归属影响医疗AI的可信度。对人权的影响主要涉及人类的自主性和隐私,而责任的归属主要与AI的道德地位和谁对AI负责有关。我们对这些问题进行了分析,提炼出影响医疗AI可信度的5个主题:数据质量、算法偏差、不透明、安全和安全以及责任归属。从技术、法律、医疗利益相关者和机构等角度对这些问题进行了讨论。随后,我们遵循伦理价值观-伦理原则-伦理规范的伦理治理框架,从伦理、法律和监管等方面提出了应对值得信赖的医疗AI的对策。
医疗数据主要是非结构化的,缺乏统一规范的标注,数据质量将直接影响医疗AI算法模型的质量。算法偏差可能影响AI的临床预测,并加剧健康差距。算法的不透明性影响了患者和医生对医疗AI的信任,算法错误或安全漏洞会对患者造成重大风险和伤害。医疗人工智能参与临床实践可能威胁医患双方的自主权和尊严。医疗人工智能发生事故时,责任归属不明确。这些因素都影响着人们对医疗人工智能的信任。
结论
为了使医疗AI值得信赖,在伦理层面,首先要考虑促进人类健康的伦理价值取向作为顶层设计。在法律层面,目前的医疗人工智能不具备道德地位,人类仍然是责任的承担者。在监管层面,提出加强数据质量管理,提高算法透明度和可追溯性以减少算法偏差,对AI行业进行全流程监管和审查以控制风险。鼓励各方就人工智能风险和社会影响进行讨论和评估,加强国际合作与沟通。
来源:
Zhang, J., Zhang, Zm. Ethics and governance of trustworthy medical artificial intelligence. BMC Med Inform Decis Mak 23, 7 (2023). https://doi.org/10.1186/s12911-023-02103-9