来源:《中国社会科学文摘》2022年第11期P17—P18
作者单位:中国科学技术大学科技哲学系 中国科学技术大学公共事务学院,摘自《医学与哲学》2022年7期,莫斌摘
随着人工智能不断深化以及多领域的介入性赋能,以往伦理研究中“问题—成因—对策”的线性思路,已经难以应对人工智能伦理过程性与系统化的社会风险。在此背景下,为保障人工智能产业的可持续创新,加强人工智能技术与伦理的互嵌性,需要将伦理理论与实践治理相结合,推进伦理原则的治理转化,整合式与体系化的伦理治理建构作为一类新的研究趋向正应运而生。
人工智能伦理治理研究是以人工智能伦理原则体系为基础,明确指向多领域、多方向、跨学科的实践性研究,目的在于将理论层面的伦理探讨,转化为具有可操作性的规制策略。在人工智能产业加速落地的现实背景下,全球一些发达国家和发展中国家在推进人工智能技术创新的同时,也同步关注智能技术可能引发的伦理风险及其治理,佐证了伦理治理在人工智能发展过程中的价值意义。人工智能的伦理治理研究,不仅是人工智能伦理与治理研究的深度融合与实践转向,在未来,甚至还将具有相当比重的技术战略意义,各国和地区加强人工智能伦理治理的研究加速已势在必行。
人工智能伦理治理的研究始于21世纪初,第一篇直接相关的研究论文是发表于2007年的《WOZ的扩散:扩展IS创新的拓扑结构》,研究内容关注基于语言处理的自助服务技术,立足创新类型学理论,提出有关信息技术与创新研究的相关建议。相较于人工智能伦理研究,伦理治理研究的整体发展趋势刚刚起步,但随着后续研究的不断深化,以及人工智能实践落地亟须的治理体制配套,相关研究的关注度和成果产出在未来会有进一步的增加。
人工智能伦理治理研究是以人工智能伦理为主体,结合社会科学与自然科学融合的交叉学科方法,以伦理治理为目标导向的新兴研究领域。多学科介入整合,能够为人工智能伦理治理研究提供丰富的跨学科视角,也在一定程度上表明,人工智能伦理治理研究所涵盖的学科领域之广泛,这也说明人工智能伦理治理多元主体参与的必要性。人工智能伦理治理研究的主题分布有以下几个方面。
第一,人工智能伦理的治理准则、规制方法与行动路径研究,目前已形成三条主要路径:其一是讨论伦理原则实践转化的可能路径,认为单凭伦理原则不足以规制人工智能的合伦理性,希望寻求伦理原则转化为实践工具的方法;其二是关注政府在人工智能伦理治理过程中的作用机制,界定政府在伦理治理过程的责任属性,呼吁塑造新的数据化环境;其三是探索人工智能伦理治理的价值目标塑造,尤其当现有的治理机制难以应对人工智能复杂的伦理风险时,治理所需恪守的价值内涵与标准。此外还有学者关注不同产业中人工智能的伦理治理,如金融人工智能,强调行业自治以增强人工智能的可信性。
第二,大数据、人工智能不同领域的伦理治理及其应对措施研究,如医疗人工智能:一是医疗智能化转型的隐私安全与监管机制研究,以应对人工智能对病患隐私侵犯行为的发生;二是聚焦医疗数字技术的介入性干涉,尝试构建新的评估方案与可行的治理机制与治理模式,部署适应性的伦理治理机制,引导技术向善发展;三是由医疗人工智能的伦理风险切入,尝试以伦理原则与审查机制的方式,规制伦理风险问题,并以伦理、法律与社会多方整合为基础,推进人工智能稳健性环境的塑造。
第三,自动驾驶汽车的嵌入式与规制性伦理治理研究,已经形成两类不同的理论切入视角:一是基于嵌入性视角,探索自动驾驶对复杂社会风险的应对能力,通过对决策过程的洞察嵌入,实现自动驾驶包括伦理在内的社会风险治理;二是在肯定自动驾驶技术愿景与社会期望的基础上,对自动驾驶的伦理风险进行分类与评级,探索不同伦理理论视域下自动驾驶的行为解释。
近年来,人工智能伦理治理研究发展迅速,但整体还处于初期,距离可操作性的实践应用还有一定距离。为此,本文提出以下四点展望,以供学界同行参考。
第一,伦理学与社会治理理论的深度融合发展研究。人工智能伦理治理的现实复杂性与动态适应性,使得对人工智能伦理治理研究不能仅凭借如功利主义、义务论、美德伦理等传统伦理学理论为基础支撑,这些伦理理论就同一人工智能伦理困境的诠释解读,时常会陷入争论,因此难以作为治理实施的判决依据;与此同时,过分恪守新制度主义主导下单纯依靠多层级制度体系的强制或弱规训,也无法充分适应人工智能应用语境的动态复杂性。要实现伦理风险的有效治理,应首先超越传统伦理学理论的框架规制,强调伦理分析与技术条件、创新模式、治理手段等多维路径的有机融合,学界目前已有相关伦理与技术融合的治理理论提出,如公义创新、敏捷治理,引领伦理学与治理的融合研究。随着理论整合不断深化,研究视域的独立边界逐渐确定,人工智能各细分子域的针对性研究可能会成为以后人工智能伦理治理理论体系补强的发展趋势。
第二,推进政府单向治理向多元协同治理转化。人工智能伦理治理作为叠合型概念目标,至少涉及人工智能、科技哲学与公共管理三个主要的学科体系,人工智能学者多期望采用技术化的方法,通过如联邦学习、区块链、隐私计算等技术手段,实现伦理风险的消解与治理;科技哲学多关注人工智能的伦理风险分析以及传统伦理理论在智能化时代的创新阐释与发展;公共管理多从政府视角出发,强调自上而下式的制度向伦理治理转化。三类学科之间的共识观点多集中于伦理原则的制定,尚未就原则向实践的转化机制达成一致。此外,人工智能的伦理风险大多并非是单独主体、强封闭环境下发生的,因此在强化政府应对技术伦理风险的治理机制建设的同时,应当加强包括人工智能学者、社会公众、技术企业以及各相关职能部门之间,就不同适用语境下的人工智能伦理风险形成联动式的协同治理,以覆盖不同学科的伦理认知,响应不同主体的伦理诉求,实现治理效益的最大化。
第三,深化基于多元主体认知的伦理风险评级机制研究。人工智能伦理治理的实施难点之一,就是由于不同行动主体的目标诉求差异,使得伦理风险的认知评价存在层级“鸿沟”。人工智能伦理的有效治理,一方面需要及时洞悉人工智能伦理治理各利益相关群体的伦理风险认知状况,清晰了解技术研发、政策制定与技术受众对伦理风险的认识;另一方面,相关伦理治理政策与实施路径的可信度需要实证化的科学数据作为判定依据。因此,人工智能伦理治理的研究展开不能停留在理论层面的框架规制、模式迭代与风险预见,更需要扎根个体感知,并以此为凭据,构建可行的人工智能伦理治理准则,对不同类型的伦理风险进行评级,可参照医疗器械的三级分类,规制设定人工智能的应用准入机制,依据不同风险程度的界定,限定人工智能产品的适用与推广范围,通过社会试验检验伦理治理的有效性,形成风险评级的反馈与再设计机制。因此,针对不同社会应用方向的人工智能伦理风险评级研究亟待加强。
第四,加强人工智能伦理原则向治理实践的贯通转化。国内外近百个机构或政府部门都已发布各类人工智能伦理原则文件,学界和业界也就人工智能的基本伦理原则达成基本共识,人工智能伦理治理的体系化进程亦成定势。然而,如何将伦理原则落实至人工智能的产业应用,目前仍处于探索阶段。一方面,学界应辨析明确伦理原则与治理准则之间的特征区分,需要进一步探索伦理原则社会实践的可行性以及反馈调节问题,也可借鉴类质性研究的成果产出,如数据法学研究在关注强制性大数据法律法规制定的同时,也关注规范性的数据合规性研究,力求在合法与合规之间达成共识均衡。另一方面,应当拓宽研究视野,伦理风险是人工智能治理的关键领域之一,人工智能治理是一个包括法律、伦理、社会等多方面的复杂研究领域,在关注伦理治理的同时,也应重视其他非技术性、非伦理直接相关要素之间的交互塑造,形成社会—技术双向联动的整合视角,以此为基础,切实推进由“伦理化治理”向“伦理的治理”的转型迈进。
转自:“中国学派”微信公众号
如有侵权,请联系本站删除!