投稿问答最小化  关闭

万维书刊APP下载

数据科技伦理的法律化

2023/1/30 16:19:01  阅读:135 发布者:

来源:《中国社会科学文摘》2022年第12P17P18

作者单位:湖南大学法学院,原题《数据科技伦理法律化问题探究》,摘自《中国法学》20224期,刘鹏摘

数据与网络科技的结合不仅极大地提高了数据生产与循环的效率,而且也使得协作、开放与共享等成为互联网时代特有的品质标签。风险社会中,为了防止偏轨或脱轨,数据科技必须走一条法治化的路线,与此同时,还必须在相关法律中更多地植入伦理元素。

数据科技伦理风险梳理

(一)宏观上的考证

1.不确定性社会风险的加剧。数据化的初衷在于自由与确定性,但是数据失真、数据孤岛、数据滥用与数据割裂等使得人们不得不面临数据控制与奴役。尽管人类已不可能退回到小数据时代,但是自由与奴役本是一个问题的两个方面,从自由即不自由的悖论看,数据科技展示的一个蛰伏性命题就是数据依赖与数据奴役。数据科技化中,自由、平等、安全、秩序、和谐等愈加扑朔迷离与难以预判。

2. 社会正义面临的时代性悖论。数据科技的“普及化”表面上契合了正义的形式要求,但是在探讨正义时,如果脱离技术本身对社会公平、和平与自由等所可能滋生的巨大负作用,那么这本身就是一种不正义与不自由。

3. 主体与客体关系的错位风险。在这个纷繁复杂的世界中,人是目的,而不是手段,人才是一切科学探索与技术发展的本位。当传统岗位智能机器化,人就相应地失去了在社会结构中应有的位置与存在的意义。

4. 数据垄断。大数据笼罩之下,每个主体都无处可逃地被算法所监视,数据预测标志着一个被监控时代的到来。同时,数据被精确界分,个体也不自知地处于不同的被歧视级别之中。

(二)微观上的考究

1. 开放与共享:一个伦理性的二律背反。“一方面,没有信息共享,就可能出现所谓的‘信息孤岛’现象,信息价值开发更是无从谈起;另一方面,信息共享可能被滥用,数据被无序开发,造成侵犯隐私权和个人数据权、危及信息安全等问题,并引发一些伦理争端。”

2. 隐私与隐私保护:一个进退两难的伦理问题。对信息主体而言,不得不面临以下伦理性风险:一是数据权属不清。权属不清不仅影响数据交易与流通,而且也会衍生连带性的负面效应,如交际障碍、资源浪费、保护不力与“公地悲剧”等。二是数据滥用。三是隐私保护艰难。四是价值观念失范。

3. 安全:一个充满风险的伦理挑战。数据价值依赖于数据的收集与开发,但是无论是对于私人,还是对于国家治理而言,其中也蕴藏着不安全的风险。除了数据本身的安全外,技术风险更加难以控制。是算法日渐控制人,还是人控制算法,这是一个令人焦虑的问题。

4. 记忆或遗忘:一个两难的选择。时下,遗忘变得艰难且昂贵,记忆反而简易且便宜。事实是,遗忘与记忆之间的平衡已被颠覆。

数据科技伦理的法律应对与窘境

(一)理论僵局:法律与道德的二分说

将法律从道德中准确地分离出来,是诸多法律人的梦想。然而,在这一长久的努力中,仍有以下问题值得我们穷根究底与质疑。其一是在法律人的持续奋斗中,为什么非要将法律与道德分开?实质上,它折射出的是法律人的不自信。其二是在法律的疆域中,为什么不采用法律与伦理,而采用法律与道德的表述?

在知识分类中,伦理是一个规范的表达,其优于道德。作为正义的法律亦是隶属于理性的伦理性概念。虽然数据科技促进创新、改善生活,但这并不是我们对其伦理风险视而不见的理由。创新与破坏本是一个问题的两个方面。在数据科技大步向前时,为了防止正义异化、算法控制、人沦落为机器的奴隶及社会资源的进一步板结等,科技伦理要求反倒显得比任何时候都急切、紧要。

(二)法律困局:数据科技与伦理诉求之间的紧张

科学技术是人类对客观规律的正确认知,其主旨在于求真,而伦理是维护人类和谐共处的标尺,其主旨在于求善。应然上,伦理高于技术与制度,但是在利益主导下,伦理诉求在法律中是否保有神圣不可侵犯的地位却可能是一个很骨感的问题。

数据科技发展并不是背离伦理的理由。在功能上,法律并不全然在于关系界定、利益分切与定纷止争,而更在于良好社会风尚与理想价值的正义性引领。因此,在保障数据科技的前行中,基于数据科技可能的伦理风险,通过具体法律规则的方式来体现伦理底线是对人类明天的佑护。数据科技伦理的强法律应对是这个时代的使命。

数据科技伦理法律化的路径思考

(一)伦理法律化的前提

科技伦理法治的条件,应重点考虑以下因素:

一是底线约束。底线思维至关紧要。数据科技之所以要讲究伦理,其目的在于维护人类最基础的生存与繁衍诉求,在于实现人类团结、友善、互助、友爱等人性目标。

二是以保障私人权利为伦理法律化的基础。维护人的主体地位与尊严、确保大数据时代个人隐私不被他人时刻窥视与不法使用、确保资产安全、使人不痴迷于智能化机器中而不自知等,是当下合理的权利预期。

三是兼顾公共利益保护。数据科技所产生的挑战不仅表现为对私人利益的侵犯,而且人工智能泛化所导致的主客体关系的模糊也说明,这是一个深度关涉公共利益的问题。

四是应体现可行性。法律泛化是逆法治的表现。在社会治理中,法律不能强人所难。如果违背这一原则,其后果不仅是有法难依,而且也会直接影响人们对法律的确信。在数据科技伦理法律化中,必须适度平衡法律与伦理之间的抵牾,必须考虑人们对伦理法律化的接受程度与可行性。

(二)数据科技伦理法律化的现实进路

1. 确立人本主义思维。人格尊严是整个法律体系的核心。网络社会中,当事人不享有适度的被遗忘权与更正权是对人性的苛求。

在数据科技伦理治理中,为了防止技术性迷途,就必须时刻坚守以人为本的法律伦理化底线。

2. 确立伦理性的权力观。在数据治理中,为了防范算法“权利”下的权力性暴力,必须基于权力的伦理,对权力进行综合性的解释,即并不必然将“国家意志”作为权力的标签,而改成将“强力意志”作为权力识别的标准。鉴于传统的法律理论与法律机制已难以应对人工智能所产生的科技性风险,为了防止社会分崩离析与正义塌陷,就必须对权力进行中性的再造,而将控制力、影响力、意志力、选择力等强力特征作为权力及其体系重构的伦理标识。

3. 代码植入法律化的伦理要求。为了防患于未然,必须居安思危地在代码研发与编写中植入法律性的伦理规则。除了针对代码“出生”设定伦理规范外,还必须通过制度化的方式对已存在的代码进行伦理性的筛查与复检。代码控制的目的在于检测是否存在数据无节制挖掘的风险、是否存在信息安全漏洞、是否窥探隐私及对人行为控制的影响等。

4. 构建系统性的事中数据伦理法律治理机制。为了防止数据伦理要求的纸上谈兵化,还必须通过“硬法”对“软法”进行提质。基于此,必须要求数据平台企业在内部设立数据伦理委员会,以专司对数据技术开发、数据传输、数据存储、数据处理与使用的合伦理性审查与处置。此外,在计算机执业认证中,加入计算机伦理的知识与水平测试。国家、社会、企业与学校等都有义务与职责脚踏实地去开展数据伦理的启蒙与再教育,使人知晓网络、科技、数据、平台等都必须恪守的伦理底线,并理性地认识到,数据科技并不是要将人变成数据的傀儡,不是要将数据科技变成控制人、侵犯他人权益的工具,而是服务于人类对真善美的追求。

社会治理中,尽管法律旨在惩恶扬善,但是若法律缺失了以善为中心的伦理导航,法律就可能沦为科技“文明”下作恶的帮凶。初民社会,法律不存,但是在恶劣的生存竞争中,人类胜出依然体现了适者生存与物竞天择的自然法则。之所以如此,就在于道德底线守护了人与人之间的友善、团结与合作。数据治理中,伦理是法律的底线与航标。人是数据模式的创造者,同时更应是数据文明的主宰者。

转自:“中国学派”微信公众号

如有侵权,请联系本站删除!


  • 万维QQ投稿交流群    招募志愿者

    版权所有 Copyright@2009-2015豫ICP证合字09037080号

     纯自助论文投稿平台    E-mail:eshukan@163.com