投稿问答最小化  关闭

万维书刊APP下载

ChatGPT与医学科研伦理:争议与规范

2023/7/11 14:52:47  阅读:105 发布者:

中华医学科研管理杂志, 2023,36(3)高强, 任孟尧, 徐苗, .

摘要

目的

分析ChatGPT使用中遇到的或潜在伦理问题,探索其伦理规范和要求。

方法

基于医学科研伦理视角,从道德、公平、责任和监管等角度分析ChatGPT存在的争议,并从主客观两方面分析产生争议的原因。

结果

ChatGPT存在道德问题、公平问题、责任问题和监管问题。

结论

要从以人为本、限制垄断、强化责任及坚持发展等角度规范ChatGPT中的伦理问题,以期减轻潜在的风险和负面影响。

202211月底,美国科技公司OpenAI发布的全新智能聊天机器人生成式语言预训练模型(Chat Generative Pre-trained TransformerChatGPT)引起了全世界的广泛关注和争议。作为一种大型语言模型(Large Language ModelLLM)ChatGPT可以根据研究主题撰写各类文本材料,包括会议讲稿、小说、诗歌、文学剧本,或者是商业文案、法律文书、新闻报道,甚至是研究论文和代码编程,无所不能。

但是,科学界感叹ChatGPT超强的对话应变能力和扩展性的同时,由于其署名、知识产权等方面的不确定性,也引起了一些伦理上的争议。因此,如何规避风险,让ChatGPT更好地为科研工作者服务,是行业内必须思考和亟待解决的问题。本文尝试讨论关于ChatGPT的伦理争议,并结合医学科研领域应用及已有研究成果,分析其遇到的或潜在伦理问题,探索ChatGPT的伦理规范和要求。

1 ChatGPT在医学科研中的应用

ChatGPT具备强大的质性与量化分析能力。除了在文献检索、文献综述、绘图制作、论文撰写、论文翻译润色以及投稿信撰写等共性科研场景中应用外,其在医学科研领域也展示了许多应用实践。如基础研究方面,ChatGPT能够克服医疗数据的稀缺性,自动寻找带有特定性质的分子结构,帮助预测药物成分的活性和对各种疾病的作用,大幅缩短新药研发时间[]。临床试验方面,ChatGPT能够参与项目管理,协助临床协调员、监查员管理项目进度,提供项目管理建议;进行风险评估,协助各角色识别潜在风险,提供风险缓解策略,确保临床试验的安全性和合规性。在流行病学研究方面,ChatGPT可以为数据管理提供快速、高效、灵活的数据统计分析,有助于减少完成工作所需的劳动力,而且比手动统计和记录更准确、更高效[]。在转化医学研究方面,旧金山加利福尼亚大学的研究人员使用ChatGPT分析电子健康记录并识别现实环境中存在的潜在药物间相互作用关系;剑桥大学研究人员利用ChatGPT分析文献并确定了一个治疗阿尔茨海默病的新靶点。可见,ChatGPT在这些方面的应用将有助于科研人员提升学习和工作效率,产生更多的研究成果,促进医学研究的发展。

2 ChatGPT的医学科研伦理争议

ChatGPT在医学科研领域有着丰富的应用前景,但同时也带来了一系列的伦理问题和争议。医学研究关乎人类健康福祉、生老病死最本质的哲学问题,ChatGPT应用于医学研究领域带来的伦理问题,既有与其他领域相同的共性,也有与医学相关的特殊性。下文阐述了ChatGPT在本领域中遇到的或潜在的伦理问题。

2.1 道德问题

2.1.1 作者身份的道德考虑

202212AI药物研发公司Insilico Medicine发表的一篇关于新药雷帕霉素抗衰老的论文,将ChatGPT列为第一作者[],对于ChatGPT能否在论文中署名的问题,学术界和法律界持有争议。目前主要有两种观点:一种认为ChatGPT对论文撰写做出了实质贡献[],因此可以署名,其著作权根据使用情况归属为AI公司、使用机构。另一种认为ChatGPT不符合现行著作权法律法规、学术出版集团关于作者身份的指导方针[],其不是民事行为主体,既没有能力明确表示同意成为论文作者,也无法对论文的完整性和有效性负责,生成的论文是不受版权保护的。如《中华人民共和国著作权法》规定著作权人包括作者、其他依照本法享有著作权的自然人、法人或者非法人组织;美国版权局版权登记手册规定:作品必须是由人创作的,由自然现象或动植物的活动形成的结果不能进行版权登记[]。由此可见,将ChatGPT列为作者,不符合目前法律法规对作者身份的定义;而不列为作者,又与实质贡献不符,影响科研成果的版权归属认定。

2.1.2 知识准确的道德忧虑

多项研究表明,ChatGPT协助医学文献整理、论文撰写时,准确性和可信度让人怀疑。如ChatGPT生成的认知行为疗法对焦虑相关疾病的有效性的综述文章,包含了很多事实错误、虚假陈述和错误数据,而且夸大了认知行为疗法的有效性[。其次,为应对学术期刊以及论文发表平台审稿查重,ChatGPT存在"洗稿""降重""AI痕迹"等嫌疑[],涉及学术不端,输出的内容似是而非,编造虚假参考文献[]。此外,ChatGPT是一个概率性程序,即使重做同一实验,也无法得出相同的结果[],不符合医学实验伦理的可重复性这一基本原则。

2.1.3 知识剽窃的道德风险

存在两种情况:一是无意抄袭:ChatGPT通过从互联网上获得的大量文本语料库进行训练[],通常在生成论文时没有可靠地引用原始来源或作者,因此科研人员面临着不承认原先知识的风险,无意中抄袭了大量未知的文本[],可能涉及到侵犯版权、造成剽窃。二是有意抄袭:掌握海量数据与生成算法等技术优势的人员,可能会利用ChatGPT生成论文,却不如实报告使用情况,利用现有相关政策或技术漏洞,导致期刊编辑和同行识别困难,最终可能导致低质量或剽窃论文的泛滥,发表高质量学术研究所需的技能和医学专业知识贬值[]

2.2 公平问题

一方面,有助于公平竞争。ChatGPT在医学出版方面的主要优点之一,是能够极大地改进论文英语语法的准确性、科学性和简练性[],帮助母语非英语的科研人员跨越语言障碍,而专注于提高论文质量[]。另一方面,又不利于公平竞争。现阶段ChatGPT是免费使用的,然而OpenAI公司已明确免费使用仅是暂时的,产品终将会商品化[],这可能会加固学术出版、科研领域中的不平等。虽然社会经济优势地区的科研机构可能能够负担得起获得机会,但低收入和中等收入国家的科研机构可能无法获得,导致科研人员在科研资源分配方面的不平等[],从而进一步拉大知识传播和学术出版方面的差距。

2.3 责任问题

2.3.1 医疗信息传播责任

一方面会加快医学专业信息传播,但另一方面,也可能带来责任危机。虽然ChatGPT在内容创作方面非常出色,但现阶段仍缺乏医学领域的专业知识,在提供准确、可靠的医疗信息方面显得不足[]。如果ChatGPT在医疗科研领域被滥用[],没有医学专业知识的人借助ChatGPT也可以尝试写科学论文,从而生成不是基于医学理论的不真实的学术论文,制造所谓新知识,歪曲科学事实,传播错误信息,迷惑非专业人士,产生重大的社会风险和危害。

2.3.2 伦理责任承担

科研人员在学术研究过程中必须遵守道德和学术规范,发生科研伦理失范时需承担相应的责任。ChatGPT等人工智能聊天机器人,不具备人类意义上的个人意识、主观情感,严格意义上其本身不具有伦理意识和伦理责任。当只有人类参与的研究出现学术不端时,问责可以落实到具体开展研究的个体。但当ChatGPT参与时,问责却可能无法落实[]。如果发生真实性和伦理相关的问题,谁来承担责任无法明确,造成责任盲区,进一步加剧科研伦理失范行为。

2.4 监管问题

科研人员与ChatGPT或其他大型语言模型进行对话,可能会被AI培训师审查用来改善模型,导致自己的想法被泄露[]。同时,科研人员在使用过程中,无意中透露的信息会被ChatGPT纳入到数据库中,并将其提供给他人,但这些却不被承认为原始来源[],有违医学研究中的知情同意原则。长此以往,将难以判断学术思想的源流,更难以判断科研成果的创新性[]

另外,目前来看,ChatGPT输出的内容缺少控制。ChatGPT是美国公司开发,参考的多为国外数据。由于国籍、生活方式等差异,可能包含种族主义、性别歧视和价值观念偏颇等问题[]。如果不加约束地使用,则其潜藏的风险更大。OpenAI在发布ChatGPT时试图解决这些问题,如将语料库限制在2021年、阻止其浏览互联网并安装过滤器,然而实现这一目标需要大量的工作[]。如何监管、采取相应的防范措施,需要进一步探讨分析。

3 ChatGPT的医学科研伦理争议原因探讨

ChatGPT不仅可以帮助医学科研人员快速梳理医学文献,发掘和整合文献中有用的信息,也能够高效地回答主题研究问题,快速生成具有相当质量的研究论文,这将对人类知识生产方式产生重大影响[],对肩负知识传承、知识创新职责使命的科学界带来颠覆性革命。下文试从主观(人、法律)、客观(技术、算法)层面进行分析其存在争议的原因。

3.1 主观层面

3.1.1 人机之争

关于ChatGPT能否在论文中署名的争论,反映出随着科技的发展,ChatGPT能否作为主体资格被认可,深层次的是人和机器主体的争论。人工智能之父艾伦·图灵曾提出机器是否可以思考的问题,他表示,如果一台机器能够与人类展开对话而不能被辨别出其机器身份,就可以称这台机器具有智能,即通过"图灵测试"[]ChatGPT仍在迭代发展,很可能拥有与人同等的智能,甚至可能超越人,通过图灵测试,那它会因此而成为主体资格吗?将ChatGPT赋予实体人格后,我们是否需要重新定义人类这一主体新的内涵、重新建立处理人际关系和人机关系的伦理原则:ChatGPT是否可以像自然人一样与人类交流,组建自己的"社会组织"?是否具有与人类相同的伦理价值和道德地位?是否像人类一样享有基本权利?作为一个道德或法律主体,会承担相应后果吗?[]这些都是需要思考的伦理道德问题。

3.1.2 监管失位

对于ChatGPT的发展,无论政府的监管还是科研人员的使用都应担负起相应的责任。目前暂无关于ChatGPT的专门法律规范,立法的空缺致使其发展前景不明朗,是继续研发抑或暂停都无明确定论。其在医学领域的潜在应用也对公共利益、人类安全产生未知风险。有关ChatGPT的伦理规范与原则均有待加强,规范的制定、更新速度应满足当前技术发展的需要。

3.2 客观层面

3.2.1 算法黑箱

ChatGPT基于大量数据的驱动,通过机器学习、训练产生的模型,其训练数据的质量决定了学习效果。目前ChatGPT的语料库缺乏医学专业数据,如何获取高质量的医疗专业数据是提高其输出准确性的难题。ChatGPT背后还存在很多科学问题没有明确答案,算法偏见使应用于医学研究的潜在风险相较其他领域更大。算法偏见指的是智能系统中产生不公平结果的系统性和可重复性错误,主要分为3个方面:"数据驱动造成的偏见",指由于原始训练数据存在偏见性,导致算法执行时将歧视带入决策过程;"人为造成偏见",指算法设计者为了表达自己的观点或获得某些利益而设计存在歧视的算法,也有可能来自系统开发机构工程师伦理知识的匮乏或缺乏专业的知识;"机器自我学习造成的偏见",指算法存在黑箱(Black Boxes),导致无法控制和预警算法的结果,而在应用中产生某种不公平的倾向[]ChatGPT在没有得到使用者明确同意的情况下,获取基因数据、人类遗传资源、电子健康档案等数据,易产生伦理风险。

3.2.2 模型缺陷

ChatGPT大语言模型经常产生幻觉(Hallucination,即任意输出难以分辨的编造信息),输出的内容准确性方面令人担忧。本质上说,大型语言模型是利用文本字符之间的概率依赖关系以自回归的方式挑选高概率的字符逐字生成语句,这种组合给出的流畅通顺的语句,即使在强大的人工反馈强化学习机制的支持下也有虚假的可能性[]。此外,受语料库年份和源材料准确性的限制,ChatGPT不能及时更新最新数据,无法对医学前沿新进展提供前瞻性的见解和建议,甚至其回答中会出现包含很多事实错误的虚假陈述。ChatGPT利用高概率的重复性模仿见过的内容,而利用低概率的随机性生成未曾见过的内容,具有创造性的内容往往是稀少的,因为低概率决定了生成内容中很难出现创造性的内容,而偶然优秀的概率组合结果也往往没有得到创造价值的肯定而淹没在众多凡品中。因此凭借模型,生成的内容很容易满足人类的一般需要,却很难带给人来自创造的惊喜[]

3.2.3 技术霸权

从技术特征来看,ChatGPT等大语言模型开发难度较高,但应用门槛较低。其技术推广逻辑确是马太效应。对模型开发厂商来说,一旦在技术产品推广中巩固价值链顶部位置,便会形成产业结构内的科技权威。以ChatGPT为代表的大语言模型,通常被具有丰富算力和数据资源的公司垄断,且不开源,不利于大语言模型研究和技术突破。ChatGPT代表的通用人工智能旨在服务广泛认同的伦理理念和全人类利益,而不是服务某个国家或组织的利益,不应成为西方发达国家技术霸权的宰制。

4 ChatGPT的医学科研伦理规范刍议

在医学科研领域,剽窃、捏造、造假等科研诚信已经是一个紧迫的问题,不禁让人担忧,ChatGPT的使用是否会使这个问题变得更严重?造成的公平、责任、监管问题是否会加剧医学科研伦理失范?医学科研领域究竟如何找到使用ChatGPT带来的便捷和风险之间的平衡点,不滥用ChatGPT的同时,又不因风险而完全禁用,是其未来发展的重要伦理挑战。鉴于ChatGPT对科研范式的影响较大,现阶段存在较高的伦理风险。因此,探讨ChatGPT的伦理规范及具体要求是有必要的。

4.1 以人为本原则,坚持科研人员的主体地位

ChatGPT为代表的人工智能技术正在重新定义人的知识与能力。使用ChatGPT的科研人员可能会被虚假或有偏见的信息误导,并将其纳入自己的思维和论文中,导致科研人员的批判性思维和创造力下降。

一篇好的学术论文,应该是对人类知识有创新型价值和意义。不仅仅是收集和呈现数据,而是应用调查和批判性思维来产生高质量、原创的成果。ChatGPT现阶段研究更多的是"伪创新",其并不擅长创新、逻辑推理,输出的医学研究论文学术价值堪忧。我们在利用好ChatGPT作为科研人员的智能助手同时,应确保科研人员作为创作上的主体地位[],保证科研人员应是最终的创新主体和知识权威,而不是一味地用智能化和自动化取代人的工作和价值。

4.2 限制垄断原则,加速研究并减少过程的不平等

ChatGPT为代表的对话聊天式人工智能技术,现阶段主要是由少数几家大型科技公司所掌握和垄断,虽然现在是免费开放,但最终会限制使用并商品化。那些掌握人工智能技术、能熟练使用ChatGPT等人工智能聊天机器人、擅长操纵数据资料撰写论文的技术人员,成为知识权威,获得各种学术利益,必将造成学术研究的不公平和不平等。

为了应对这种不公平性,建议优先开发和实施开源大型语言模型技术。通过开放其算法和语料库,公布其生成逻辑,创造更多的技术参与;同时,鼓励各类学术组织、基金会、政府研究部门、科技公司等机构共同合作,研发先进的开源、透明的人工智能技术,促进创新和可靠性,从而增强人工智能聊天机器人的技术可信度,提高社会认可度,降低社会困惑度。

4.3 强化责任原则,明确规范科研伦理边界

ChatGPT所带来的担忧,很大程度上是因为其生成论文的过程是不透明的,是一个"黑箱"。科研人员不清楚其神经网络是如何运行的,不清楚其生成内容与原始来源之间的算法逻辑。这与广泛使用的其他学术研究工具进行有很大区别的,其他学术研究工具是透明的,其数据处理过程、方式是研究人员设计的,是可以重复的。

针对这种不透明性,应不断强化伦理责任意识。对于研发ChatGPT模型的科技公司,需要求其承担信息分享责任、建立风险管理体系,预防和减轻伦理危害;对于科研人员,需强调其在使用ChatGPT时,遵守始终对科学实践负责的原则,开展负责任的研究与创新[]。如,对ChatGPT生成的文本内容进行标注,在研究论文中披露ChatGPT的使用说明;对于科技公司,鼓励研发反剽窃软件工具,检测ChatGPT使用;对于科研管理部门,应制定相关的伦理和职业守则,建立问责机制,对违反规定的人或机构施以相应惩罚,为ChatGPT及其科研人员的行为明确伦理边界。

4.4 坚持发展原则,鼓励技术突破创新

ChatGPT及其他类似大型语言模型的出现,对学术研究带来深刻影响,乃至变革。ChatGPT可以协助研究人员完成各种任务,包括数据分析、文献综述,甚至撰写研究论文。其最大优势之一是能够快速分析大量数据,可以为科研人员节省大量时间,使他们能够专注于研究的其他方面。此外,它能够协助文献综述,可以针对特定主题进行训练,用于识别相关论文,从而节省科研人员搜索相关文献的时间和精力,使科研人员更容易快速了解论文的关键发现,最终加速创新,并有利于跨学科的突破。

不可否认ChatGPT是一把双刃剑,既有强大功能,也有潜在风险。但不能因其存在的负面影响而禁止它的发展和进步。科技是第一生产力。作为初代的ChatGPT产品,刚发布即展示了巨大的潜力,我们也相信在后期迭代,前期出现的偏见、不准确等问题会有好的解决与规范。不断发展提高ChatGPT的有效性和可靠性,使科研人员知道如何准确、明智地将其用于具体的研究实践当中。

5 结语

ChatGPT将对科学研究、论文写作带来巨大的影响,带来科研范式的变革同时,改变学术出版文献的规则,但监管机构、学术界和科研人员还没有做好充分准备。ChatGPT在可能成为强大科研辅助工作的同时,也存在着道德、公平、责任及监管等方面的伦理争议。本文在以人为本、限制垄断、强化责任、坚持发展原则等伦理规范方面提出建议,希望进一步完善相关伦理规范,预防科研失范行为,促进学术进步。

研究的局限性:首先,ChatGPT从发布至今时间较短,具体实践应用相对有限。本研究从医学科研伦理角度,基于现有的一些应用情况,结合已有研究探讨存在的、潜在的伦理问题。其次,ChatGPT在未来的应用过程中,必定会产生一些新的问题,难以面面俱到。因此本研究对于ChatGPT产生医学科研争议方面的原因、规范等方面的分析,结合应用实践和预判,主要以伦理框架为主。由于篇幅受限,在细节方面讨论的不够深入,这也是未来研究的重点。规范ChatGPT应用的伦理原则制定,需要人工智能专家、科研人员、医生、伦理专家和监督机构等各个领域的专家学者共同努力,任重道远。

转自:“医学科研与管理空间”微信公众号

如有侵权,请联系本站删除!


  • 万维QQ投稿交流群    招募志愿者

    版权所有 Copyright@2009-2015豫ICP证合字09037080号

     纯自助论文投稿平台    E-mail:eshukan@163.com