人工智能与中医信息技术导论(全国中医药行业高等教育“十四五”创新教材)
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

三、人工智能治理策略初探

(一)人工智能治理的挑战

我们即将走进一个人工智能的时代,但当技术逐渐成熟并准备在人类社会野蛮生长时,治理和监管的缺位也将导致产业应用踟蹰不前,并产生秩序混乱、责任不明及道德忧虑等问题。特别是在医疗场景中,人工智能的伦理困境和权责问题,更容易引发医务工作者和患者对人工智能技术的不信任,从而影响诊疗实践的质量。因此,如何在适当的时机进行适度的监管及政策支持,使科技既保持充沛活力,又不恣意妄为,是人工智能治理所面临的根本挑战。

而在医疗领域,人工智能治理的挑战主要在人工智能技术诊断医疗的责任主体难以明确,缺少相关政策审核经验,如何保证算法安全与数据安全等方面。因此,国家药品监督管理局在2017年成立人工智能工作组,开展人工智能医疗器械监管方面的研究。2018年,国家药品监督管理局颁布新版《医疗器械分类目录》,明确定义了人工智能医疗产品的划分标准。该目录增加了人工智能辅助诊断相关类别,主要为对医学影像和病理图像的分析和处理。2019年,国家医疗器械技术评审中心发布了《深度学习辅助决策医疗器械软件审批要点》,进一步明确了医疗人工智能产品的审批细节。结合上文所述的目录和要点内容来看,目前国内提交审批的医疗器械产品中如果包含“深度学习”算法,即可以被认定为人工智能医疗器械。2021年,国家药品监督管理局正式发布《人工智能医用软件产品分类界定指导原则》,随着该指导原则的发布,人工智能医疗软件产品的界定、归类和监管更为明确,也更具操作性。在治理中控制风险,把握机遇,国家以坚定的政策基调支持和鼓励人工智能产品创新发展。

(二)人工智能治理展望

1.伦理价值导向 增进人类福祉,促进公平公正,确保可控可信,强化责任担当,提升伦理素养。

2.隐私保护导向 敏感数据、数据共享、数据最小化原则,隐私与数据质量等协调平衡,保护隐私安全。

3.其他 各国政府和国际组织已形成许多具有借鉴价值的规则尝试,并提出以下六点治理原则。

(1)公平公正原则。

(2)隐私保护原则。

(3)安全可靠原则。

(4)透明、可解释、可追溯原则。

(5)以人为本、知情同意原则。

(6)合法、责任原则。

政府作为民意的代言人,需要牢牢把握人工智能的发展方向,使其朝着满足人民意愿的道路前行;同时作为国家安全与社会安全的守护者,政府应当为AI产业制定统一安全标准与法律规范。科技企业作为技术的拥有者,既需要承担科技研发的重任,亦需要承担相应的社会责任——在歧视、透明、公开等问题上严格自我监督,以符合伦理道德的标准自我约束,并接受同行监督。