2023/12/21 10:40:50 阅读:190 发布者:
中华医学科研管理杂志 2023年·36卷·04期 景新颖 张宁
摘要
目的探讨ChatGPT技术对医学科研管理的影响与挑战,旨在为更好地迎接人工智能产生的科学研究范式变革提供参考。
方法通过文献研究和案例测试,结合ChatGPT主要特点,对ChatGPT技术在医学科研管理的可能应用前景、面临的风险和挑战进行分析。
结果从医疗机构和医学科研管理者的角度提出应对策略和建议。
结论ChatGPT技术在医学科研管理中将有广阔的应用前景,也将带来新的风险和挑战,应顺应趋势,积极面对,健全法律法规和制度规范,加强研究和监管,同时提高医学科研管理人才队伍的能力和素质。
人工智能生成技术(Artificial Intelligence Generation Technology,AIGT)作为一个战略性新兴技术,日益成为科技创新、产业升级和生产力提升的重要驱动力量[ 1 ]。智能聊天机器人ChatGPT(Chat Generative Pretrained Transformer),引起各界广泛关注[ 2 ]。ChatGPT已经具备了面向通用人工智能的一些特征,在众多行业领域有着广泛的应用潜力。本文通过文献研究和案例测试,对ChatGPT对医学科研管理带来的影响和挑战展开探讨,旨在为更好地迎接人工智能产生的科学研究范式变革提供参考。
1 ChatGPT主要特点
ChatGPT属于生成性AI,具有强大的自然语言理解和生成能力[ 2 ]。基于庞大的系统化数据模型和算力,ChatGPT具备强大的资料搜索整理和格式化写作能力,展现出自然流畅的对话能力[ 3 ],具有智能性、高效性、灵活性、可定制性高[ 4 ]的特点。但目前也存在一定的局限性,比如数据存在信息滞后性,存在偏差和不准确之处,不会解释输出过程,无法信息溯源[ 5 ]。同时自动处理增量信息不强,易产生社会伦理和隐私问题、偏见和歧视,社会普及推广成本较高等[ 6 ]。
2 案例测试
2.1 主要方法
通过访问https://platform.openai.com网站,在聊天界面以医院科研管理工作人员的角色围绕医学科研管理日常工作场景以文本输入的形式进行提问,共项目管理、培训计划制定、科研诚信监管等5类场景,包括"如何进行项目管理标准化和规范化"等11个提问问题( 表1 )。
2.2 测试结果及分析
ChatGPT在项目管理(问题1、2)、培训计划制定(问题3)、科研诚信监管(问题4)、日常行政事务(问题6、7)信息抓取分析(问题9、10)方面回答具有较强的专业性和实用性,并能根据提问来修正和细化产出内容(问题3-2)。对于无法解决的问题,比如制作ppt(问题5),可以主动提供其他信息,给出了ppt的制作提纲。但对于信息抓取分析类的一些问题具有一定的滞后性和不准确性,比如问题8"口腔医学国家杰出青年科学基金获得者有哪些",回答十分不准确,无法采纳,而问题9"口腔医学全球排名前10的高质量SCI期刊名称,以及JCR分区和5年影响因子",与同行专家意见一致性高达70.0%,但是影响因子不准确,个别期刊JCR分区不准确,主要与其数据库仅来源于2021年9月以前,且中文数据集仅占0.1%[ 3 ]有关。
3 可能应用场景
ChatGPT与百度、谷歌等传统网页搜索引擎不同,给出的不是资源,是答案,是对海量资源进行整合、归纳总结的结果[ 7 , 8 ]。ChatGPT虽无法真正具备创造性,却可能通过加速创新和缩短出版时间来加速科学进程[ 9 ]。
ChatGPT已于3月25日开始向第三方公开互联网接口,通过第三方插件将获得更多精准、专业数据,插件的发布使ChatGPT的能力拓展到可以获取实时信息并代替用户执行操作,用户可以直接通过人类语言指挥ChatGPT帮自己与各种应用交互,为人工智能助理的出现提供了机会[ 10 ],预示着"ChatGPT+"时代的到来。我们大胆推测,随着ChatGPT技术的发展和推广,在专业场景大数据的加持下,ChatGPT技术在医学科研管理实际工作场景中将有广阔的应用前景。
3.1 提升医学科研管理决策效能,优化资源配置
医学科研管理是根据医学科研活动的任务和目标,对人、财、物等有限资源或要素进行合理配置,以最大限度地实现研究任务、达到整体最大效用的过程[ 11 , 12 ]。智能分析和辅助决策成为科研机构管理决策的新趋势[ 13 ]。现阶段医学科研管理项目、平台等资源配置存在部分重复、分散、封闭等现象,导致存在经费投入增加,产出效率不高的问题[ 14 , 15 ],医学科研管理部门可以借助ChatGPT出色的信息归纳总结能力,做出更科学的决策,从而做好顶层设计、资源统筹,实现有效管理。
3.2 全天候智能"客服",降低医学科研管理人力成本
医学科研管理的内容包括项目管理、经费管理、平台管理、成果及转化管理等多方面,且不同方面往往由不同人员负责,医学科研人员很难通过一次咨询解决全部问题,且有很大的非工作日/时间咨询需求。ChatGPT通过自然语言处理技术,可以智能"客服"的身份[ 7 , 8 , 9 , 10 ]实现智能回答。例如可将医学科研管理项目、经费报销、出差参会等常用办事流程和法律法规政策制度等"投喂"给ChatGPT,为科研人员提供24小时智能咨询,使其快速了解政策,比如适合申报的课题,获得办事指引或解决办法等。一方面为科研人员减负,防止风险的发生,一方面可大大提高效率,节约管理人员投入成本。
3.3 丰富人才培训形式,提高人才培养质量
目前医学科学研究需要多领域共同合作,如医工、医信、医企结合等,学科交叉成为常态。科研管理人员也亟须学习相关"入门"知识。ChatGPT通过自然语言处理和机器学习等技术,可为医学科研人员和科研管理人员提供智能化的学习辅助工具和培训工具,例如在线教程、自动化练习题、交互式学习游戏、课程管理系统、效果评估和考核系统[ 16 ]等,帮助各类人才更好地理解和掌握开展学科交叉研究所需知识,提高学习效率。帮助科研管理人员更好地组织和管理培训活动,评估培训效果和反馈机制,提高培训质量和效果。
4 风险和挑战
ChatGPT目前尚存在一定的不足,例如可能产生不实和误导信息、偏见和剽窃等[ 2 , 17 ],可能会带来数据隐私安全、知识产权、伦理等一系列风险[ 6 , 16 ],医学科研管理贯穿医学科研活动的全过程,ChatGPT的出现和广泛应用,将医学科研管理目前存在的风险复杂化,也将带来新的风险和挑战。
4.1 数据隐私和安全问题
ChatGPT使用大量的数据来进行训练和生成,生成的内容可能含有个人隐私。出于用户隐私数据保护和未成年人保护的考虑,意大利已宣布暂时禁止使用ChatGPT[ 18 ]。医学科研人员在进行项目管理时需要处理大量的文本信息,如病历数据、医疗报告等,可能包含敏感医学信息和患者隐私信息,患者隐私权是医学伦理监管的重要内容,在使用ChatGPT技术进行统计分析时,如果不加以脱敏和保护,将会引发数据隐私问题和法律纠纷。在中国还不能直接访问ChatGPT,一旦对中国市场开放,科研人员如风险意识淡薄,将敏感临床数据输入ChatGPT,可能产生数据安全问题,严重者可能触犯人类遗传资源等法律红线。
4.2 知识产权和科研诚信问题
对于ChatGPT等人工智能聊天机器人能否署名,学术界和法律界还持有争议[ 19 ]。Nature杂志认为任何人工智能工具都不会被接受为研究论文的署名作者[ 20 ],Science杂志强调不能在作品中使用由ChatGPT所生成的文本、数字、图像或图形,否则将构成科研不端行为[ 21 ]。有法律界专家指出ChatGPT采取知识重组的形式来表述它所学习到的人类知识,并且ChatGPT对外公布目前为公共用途来测试,不能供商业使用,因此很难界定知识产权侵权行为[ 22 ]。有的学者则认为ChatGPT创作的作品归属问题将涉及内容来源、技术公司和用户之间的复杂纠纷[ 23 ]。这势必将为知识产权的界定、科研失信行为的判定和监管带来新的挑战,也是学术界普遍将面临的问题,并将进一步影响科研成果创新性评价,科研成果权属认定,科研成果评价生态,人才评价客观性等[ 19 ]。
4.3 医学科研活动质控风险
医学科研活动事关生命健康,医学科研管理对于医学科研活动相关数据的真实性、可靠性、可溯源性有着严格要求。ChatGPT目前生成的文本存在不可溯源以及可能含有不实错误信息[ 2 ],且尚无工具可以准确识别ChatGPT生成的文字[ 5 ]。如科研人员在申请书撰写、报告撰写、论文发表等科研活动中使用动机不纯或过度依赖ChatGPT,失去警觉性,将会为科学研究质量控制带来新的隐患和风险。笔者在查阅文献的过程中发现,在作者列或正文中标注使用ChatGPT的论文逐渐增多,是否可以参考或引用相关文献?其内容和数据是否可信?没有标注使用ChatGPT的论文是否可以放心参考和引用,是否存在使用却瞒报的情况?都将会是一定时期内持续面临的问题。
5 应对策略及建议
科学研究经历了四个范式阶段:实验科学、理论科学、计算科学和数据密集型科学[ 24 ]。科研工作者在新范式指引下,采用新的工具和方法,探索新的领域。第四范式的目标就是构建一个所有科学文献和科学数据能够在线共享与相互操作的信息世界[ 25 ]。人工智能聊天机器人为代表的人工智能技术正在引领范式变革,有学者认为科学研究正在迎来以虚实交互、平行驱动的AI技术为核心的第五范式[ 26 ]。医学科研管理人也应顺应趋势大潮,拥抱新技术,但也要充分认识其不足和可能面临的风险,健全法律法规和制度规范,加强研究和监管,以保证其应用的安全、可靠和公正,从而进一步加速我国科学研究范式变革和科技创新能力提升。
5.1 健全法律法规和制度规范
建议进一步健全落实生成式人工智能用于医学科研活动的相关法律法规,既要保证其应用的合法合规性,也要起到鼓励创新的作用。生成式人工智能发展下科研诚信规范也需要进一步进行修订和界定。应要求研究者应公开、诚实、透明地标注使用ChatGPT等大型语言模型的种类和程度,并贯彻"科研诚信问责制",严格执行论文等成果发表前备案承诺制度,科研人员是第一责任人,应始终对科学实践及其成果的有效性和完整性负责[ 2 ]。
5.2 加强研究和监管
应通过加强研究和监管,扬长避短,争取在最大程度上发挥生成式人工智能的技术效能。通过政策引导、开展有组织科研立项等形式加速研发在安全监管下的属于我国自己的"ChatGPT",加快针对医学医疗的区块链技术、智能合约方法等相关研究,最大可能地保证患者的隐私权和正当权益[ 27 ]。通过组织讲座、专题培训、问卷填写等形式学习人工智能侵犯隐私的案例,提醒科研人员、研究生和科研管理人员不要轻易上传数据和隐私,增强安全隐私意识和自我保护的责任感[ 28 ]。完善国家层面临床研究信息化平台建设[ 29 ],加强原始数据核查,保障研究数据科学性、规范性和可溯源性。
5.3 提高医学科研管理人才的能力和素质
科学研究范式变革下,对医学科研管理人的能力和素质要求也会越来越高。一方面,ChatGPT等类似技术将把科研管理人员从重复性高、能力要求低的非创造性工作中解放出来。科研管理人需要不断创新、不断学习[ 30 ],将更多精力投入到更多具有创新性、改革性的工作中,才能适应新形势下工作,不被淘汰。另一方面,对具有医学、管理学、信息技术等综合、多学科背景的复合型人才需求将会大大增加,医疗机构也要注重引进和培养相关人才,提高医学科研管理人才队伍的整体素质和能力水平。
转自:“医学科研与管理空间”微信公众号
如有侵权,请联系本站删除!