投稿问答最小化  关闭

万维书刊APP下载

人工智能刑事责任主体否定论

2023/6/9 17:11:59  阅读:71 发布者:

来源:

《中国社会科学文摘》2023年第5P17P18

作者单位:

清华大学法学院,原题《人工智能刑事责任主体否定论——基于规范与语义的考察》,摘自《苏州大学学报》(法学版)20224期,王博摘

刑法是行为规范体系,不论是遵守规范还是违反规范,都以行为主体能够理解规范的内容和要求为前提。刑法规范由语词和句法确定,而语词又由概念构成,因此,人工智能要成为刑事责任主体,就必须具有理解概念和语义的能力,唯有如此才能够成为适格的规范接受者,其行为也才能够体现出对规范加以遵守或违背的意义。根据这种要求,当前的人工智能系统无法被视为刑事责任主体。

人工智能的语义难题

张钹院士将人工智能技术的发展划分为三代,在其看来,第一代人工智能技术采取了符号计算主义(又称为经典计算主义、符号主义等)的立场,这种立场与物理符号系统假说紧密相连。第一代人工智能需要以大量的人类知识与经验为基础,其经常只是以更快的速度和更大的规模对人类的既有知识加以运用。这种人工智能无法处理复杂和不确定的知识,只能在有限的场景下进行部分的逻辑推理,其虽然在部分针对特定领域、限定了知识范围、表现为“如果……然后”推理结构的专家系统中取得了令人瞩目的成绩,在国际象棋这种完全信息博弈(决策)的场合可以轻松战胜人类,但一旦遭遇了信息不完全和非结构化环境,其就无法应对。因此,符号计算主义路线下的人工智能本质上仍然只是拥有远高于人类计算能力的计算机,还谈不上“智能”。也正是基于对这些技术难题的反思,即便被认为是符号计算主义领军人物的福多也在其后期理论中认为,符号计算主义并不能为心灵活动提供普遍性的解释。

为了克服人类知识与计算机符号数据之间的鸿沟,解决上述框架问题和知识表示等难题,第二代人工智能应运而生。近年来引起人们普遍关注的也恰是第二代人工智能。第二代人工智能采用联结主义(又称为连接主义、亚符号主义)的立场,以深度学习为特征,其主要是通过模拟人脑神经网络的计算模型(即人工神经网络,其本质上仍然是算法)让计算机自行完成学习任务,并对通过学习所获取的数据和信息进行适用。

联结主义的人工神经网络在本质上依然还是基于数学方法的运算程序和统计工具,其核心原理是在大量数据的基础上,根据一定的特征、权重和概率来决定输出。与符号计算主义系统一样,使用人工神经网络驱动的计算机也只是读取数据并按照预设指令运行的机器,只不过符号计算主义系统依赖固定的数据库进行条件推理,而联结主义的人工神经网络则可以自动基于原始数据进行学习和计算而已。因此,就缺乏与世界的关联性,从而缺乏对语义的理解和生成这一点而言,联结主义系统与符号计算主义系统没有本质差异,同样无法摆脱塞尔中文屋论证的责难。由此可见,不论采取符号计算主义还是联结主义系统,当前的人工智能技术其实都不能解决语义难题。

基于意义指称论的考察

符号计算主义的基本架构与人类的逻辑推理具有较大的相似性,而联结主义系统则似乎把握了人类感知世界之过程的部分特征,那么,将二者结合,是否就可以完成对人类知性和理性的建构,从而模拟人类的智能活动?这也正是当前第三代人工智能技术的发展方向。因此,接下来需要探讨的问题是,人工智能技术的发展是否以及在什么条件下可以具有理解语义的能力。显而易见,要回答这些问题,就必须阐明语言的含义究竟从何而来。

意义的观念论和意义的实在论存在种种争论和不足,但两种见解都正确地强调了语义与世界的关联性以及人的意识活动在决定语词含义方面的重要作用。塞尔等众多哲学家之所以否认人工智能可能理解语词,也正是因为计算机缺乏将其所处理的数据符号与外在世界关联起来的意向能力。人工智能技术驱动下的计算系统固然可以完成语言识别、文字处理乃至与人类交谈等任务,或许未来的人工智能也确实能够通过图灵测试,但是,依意义的观念论和意义的实在论,这仍然不能证明人工智能能够理解语义。因此,计算机实际上无法理解语义,也无法以语言符号表达语义。正如蚂蚁在沙滩上留下的足迹即便看上去再怎么像丘吉尔的头像,其也并不指称丘吉尔,猴子乱敲键盘偶然打出的“树”字并不指称现实世界中的树木,钵中之脑所言的“钵”和“脑”并不指称现实世界中的钵和脑一样,人工智能系统中输入和输出的文字本身也并不关联于外在世界,从而不具有意义。认为人工智能能够理解语言符号对现实世界的指称的观点,更多的只是反映了人们为语词概念赋予对应实体内涵的思维习惯。

立足意义使用论的检视

意义的使用理论将对语言的使用而非人的内在心灵作为语义的来源,似乎就为人工智能理解语词概念开创了可能性。特别是从行为主义语义学的角度看来,“意义……不是精神的存在物,它主要是行为的属性”,故貌似应当肯定能恰当使用语言的计算机系统就已经具有了理解语义的能力。图灵测试其实就部分体现了行为主义的立场。虽然后期维特根斯坦的思想也确实与行为主义存在密切联系,但若深入把握前述意义使用理论的主旨就可以发现,根据该说的立场,人工智能系统仍然难以真正理解和使用语词概念。原因在于,对于语词的恰切反应只是认定主体能够“使用”语词、理解语词概念的必要条件,而远非充分条件。意义的使用论与存在哲学、价值哲学、语言哲学所共同揭示的事实是,语词本身并无确定的含义,人们对语词的理解根源于特定的文化共同体对于世界的理解。语词概念只能通过复杂的生活形式获得其含义,这种生活形式与语词使用者们的生活历史和当下的行动方式息息相关。正是社会共同体的背景和历史赋予语词以意义,并使语词使用者在其受同化的生活结构中掌握语词的含义,学会在特定的情境中使用语词。

根据上述理解,人工智能系统要成为理解语义的适格语言使用者,就必须获得社会共同体的承认,其必须被社会成员赋予能够确信并且担守其自身对于语言之使用的规范身份。而这种规范身份的取得又以社会共同体成员能够将人工智能系统接受为具有信念、意愿且据此行事的系统(意向系统)为前提。因为,只有当我们能够认为人工智能系统是出于自身的信念和确信使用相应的语词时,我们才可能将之视为严肃的言说者,才可能将语词的使用及其后果归属于人工智能系统。然而,这一前提是否能够得以实现,却存在着巨大的疑问。

余论:未来已来

相较之下,更为可行的或许是行为主义或功能主义路径,即将人类的心智视为“机器中的幽灵”,从而否定人类意识活动的实在性,或者将人的意识化约为对于以某种方式去行动之倾向的谈论方式。根据这种理解,人工智能技术就——正如图灵测试所指出的那样——不必模拟人脑的运行机制,而“只”需使机器的行为看起来就像是人所表现出的智能行为。然而,即便是这个相对简单的目标,目前看来也难以实现。图灵本人在1952年接受采访时曾预言,机器“至少要100年”才能令人满意地模拟人类的行为。时至今日,图灵的预测可能还是显得过于乐观:“想让机器真正通过图灵测试,具备真正意义上的人类智能,这个目标看上去仍然遥遥无期。”且不论人工智能技术在构建人工情感主体、人工道德主体方面所遭遇的重重困难,单纯就本文所涉及的语义理解问题而言,人工智能是否能逾越语义鸿沟就已经令人疑窦丛生。当然,今天的我们无从预测未来的技术发展,或许将来的认知神经科学真的有能力揭示意识形成的全部细节,而计算机的进步也能提供足够的算力模拟人的意识活动,从而实现真正意义上的人工智能。但是,这一天的到来恐怕还需要经历漫长的等待。相较于这种近似科幻小说的愿景而言,本文的论述应该已经能够证明,至少在当下和可预见的未来,我们绝然无法认定人工智能系统能够理解刑法规范的语义。人工智能系统不仅不能在理解规范的基础上依规范的要求行事,甚至也不能通过其外在行为进行违反规范的意义表达、创设刑事不法,故不应将之视为刑事责任主体。与此相应,在人工智能系统造成损害的场合,仍然应当合理界定、追究人工智能系统的研发者、生产者或使用者的刑事责任。

转自:“中国学派”微信公众号

如有侵权,请联系本站删除!


  • 万维QQ投稿交流群    招募志愿者

    版权所有 Copyright@2009-2015豫ICP证合字09037080号

     纯自助论文投稿平台    E-mail:eshukan@163.com