投稿问答最小化  关闭

万维书刊APP下载

张姣 曹轲:在新闻传播领域,“AI 向善”何以达成?

2023/8/9 9:31:21  阅读:131 发布者:

以下文章来源于传媒观察杂志 ,作者张姣 曹轲

编者按

ChatGPT为代表的新一代人工智能技术嵌入社会多个领域的趋势已经明朗,在新闻传播领域的轻型应用已经快速开始。暨南大学新闻与传播学院博士研究生张姣与暨南大学新闻与传播学院教授曹轲在《传媒观察》2023年第7期刊文,对ChatGPTAI技术应用趋势进行前瞻性分析后发现,技术的深度嵌入可能会产生以下五个问题:文本随机与深度伪造对新闻真实性构成挑战;私域流量与数据捆绑加剧被遗忘难题;用户生产造成信息淹没与新闻价值流动;社会超速与个人封闭召唤新闻预警功能;标准知识与认知偏差需要社会情境供给。

20221130日美国人工智能实验室OpenAI发布名为ChatGPT的自然语言处理工具开始,ChatGPT以狂飙的态势席卷而来,不仅在OpenAI短时间完成技术迭代,而且被众多科技巨头嵌入自身产品。百度作为中国的互联网企业也不甘落后,于2023316日发布类ChatGPT产品“文心一言”,国内多家媒体在发布会召开之前便陆续宣布成为“文心一言”生态合作伙伴,阿里、腾讯、讯飞等随之跟进。可以说,新一代人工智能的全球竞赛以及在新闻传播等领域的快速应用已是必然。

对于业界而言,ChatGPT已经不是新闻领域迎接的第一项新技术;对于学界而言,在大数据、算法等人工智能技术应用之际,学界围绕人机关系和技术伦理所进行的分析讨论对于ChatGPT之应用依然具有借鉴意义。人机协同与人机共生已经是学界共识,正如学者彭兰所说,“我们未来会与机器产生协同、交流甚至共生等多重关系,机器与人的关系变化,也会带来媒介与传播内涵与外延的变化。”

就技术伦理而言,设计者“会因为文化社会或制度期望、算法设计的技术限制、未预料的算法使用环境和方式等,使偏差进入算法系统”,也正是由于人是技术的设计者,所以技术暂时无法突破人类设定的既定规则。鉴于以往技术应用造成的风险,丛立先和李泳霖通过设想ChatGPT的应用场景,建议构建涵盖技术标准、司法保护、行政监管和平台治理的综合管理体系;韩博则认为可以通过落实内容负责制、建立人工智能生成内容鉴别处置机制、加大力度培养自主可控的自然语言生成式模型,来解决ChatGPT带来的社会风险。

有学者认为ChatGPT的横空出世有望形成“思维革命”,通过替代人类进行创作、创意、解答、咨询、翻译和客服等改变人类思考和处理问题的方式方法,重塑各行业生态乃至整个世界。类似微信、支付宝的小程序一样,轻型应用背后,恰恰是大数据、大计算的深度学习和强大支撑,若ChatGPT能够真正与新闻行业深度结合,必然能够在一定程度上改变新闻行业的生产模式、传播通路,为新闻行业满足互联网时代受众的需求提供新的可行性。在ChatGPT应用趋势下,虽然新闻从业人员可以鉴于以往人机互动的诸多经验保持足够积极的心态,但是也需要认识到技术带来的新的深层变化,以更好地发挥新闻在社会中的作用。基于此,本文从新闻真实性、数字遗忘权、信息生产、技术依赖与社会治理五个方面着手,分析随着ChatGPT等技术应用程度加深,新闻领域内部及所处的社会生态可能会发生的变化。

一、何为真实:

文本随机与深度伪造冲击新闻真实性

ChatGPT为代表的新一代人工智能技术在新闻领域的快应用、轻应用将率先进行,具体应用场景包括写稿机器人、采访助手、视频字幕生成、语音播报、视频集锦、人工智能合成主播等。作为一种生成式的人工智能,ChatGPT等技术能够将新闻记者、编辑和分发人员从繁琐、机械、重复的工作中解放出来,替代专业人员需要占用大量时间完成的基础文书工作。在技术赋能之下,新闻生产的流程将得到进一步优化,新闻的价值能够进一步激发,新闻传播的广度和深度得以继续加强,但是ChatGPT的生产逻辑与训练方式也将导致文本生成的随机性以及深度伪造等问题,冲击新闻真实性。

ChatGPT生成的虚假信息和随机文本将直接影响新闻真实性。作为一个语言模型,ChatGPT的生产逻辑是根据用户指令将相关度高的内容进行组合,但其自身并不能判断所生成内容本身的合理性,也不提供相关信息的出处和具体的组合逻辑,这就导致ChatGPT生成内容的真实性有待商榷,若没有建立起完善的核查机制,这些内容将直接影响新闻真实性。此外,ChatGPT在指令解读方面还不能完全理解人类语言的细微差别,而中国恰恰是一个高语境国家,遣词造句中的情感往往是技术难以捕捉的,因此ChatGPT生成的文本具有一定的随机性,并不总是能提供精准匹配用户需求的信息。就新闻领域而言,这意味着ChatGPT根据传受双方指令生产出的新闻产品将存在极大的不确定性,可能错误解读新闻素材,也可能错误判断报道意图。虚假信息尚且可以依靠信息核查机制和纠偏程序解决,而随机文本问题则难以通过简单的核查机制解决,若将人工智能生成的随机文本作为标准的新闻事件进行发布和接受,将直接冲击新闻的真实性。

深度伪造的内容将在更大程度上消解新闻的真实性。ChatGPT是基于人类反馈来进行训练的,其在新闻领域的应用则更需要用户的反馈,以协助ChatGPT熟悉人类偏好和语言习惯,促使其依托自身的学习优化能力来把握新闻的生产逻辑以及人际交流的基本框架。随着ChatGPT的开放程度提高,准入门槛降低,相应的风险系数将会提升。若在某一时间段内,ChatGPT密集地接收到包含某种特定意图的信息,极有可能在海量的数据面前丧失辨别能力,将这些刻意输送的内容当作人类的真实反馈纳入数据库中,甚至依照这些数据进行自我修正。随后这些数据将不断参与到ChatGPT的生产中,以滚动的态势提供给用户,在更大程度上消解新闻的真实性。

虚假信息和随机文本以直接的方式冲击新闻真实性,深度伪造的内容则以更隐晦、更深层的方式消解新闻真实性,新闻领域的工作人员和用户将共同迎接人工智能带来的新机遇,也将共同面对人工智能对新闻真实性的消解。技术赋能之下的新闻更加真假难辨,用户在面对技术的衍生问题时需要明确自身作为新闻生产链条消费端的主体位置,将自身置于整个传播流程和传播体系之中,与新闻领域的工作人员共同守护新闻真实性。

二、何以遗忘:

私域流量与数据捆绑加剧被遗忘难题

大数据时代,虽然已经有海量信息成为公共资源,但是依然有大量的信息资源存储于私域之中。以ChatGPT为代表的新一代人工智能技术通过与用户持续性对话,能够穿透社会网络壁垒,不断攫取私域资源,“实现公私域资源的连接整合和协同利用”。当私域信息池与公共信息池接通后,人们的遗忘将变得更加困难,不仅难以选择自己的遗忘,更难的是无法被他人遗忘。这一问题折射到新闻领域,则是尊重被遗忘权与发挥社会公共价值之间的两难选择。

ChatGPT的深度应用将打破隐私信息与新闻公共价值之间的平衡。在互联网时代之前,人类可以通过自然的遗忘规律或者销毁某种记忆媒介来遗忘某些内容。互联网的普及初期,虽然用户的浏览记录、行为偏好均以数字档案的形式弥散在互联网的各个角落,但依然可以通过注销账号等方式使自己消失在互联网所呈现的内容中。随着技术的发展,遗忘的难度倍增,尤其是大数据时代,“每个人都已经成为他们在线档案的总和”。

ChatGPT深度应用后,遗忘将成为一个更复杂的议题,用户个人的信息将在其与人工智能互动的过程中导向公共的信息库,用户的隐私信息和公开信息之间的界限将更加模糊,用户可以销毁私域中的记忆媒介,但其信息无法从ChatGPT的数据库中消失,甚至用户要求信息删除的指令都将成为人工智能生产的素材,进入人工智能的下一轮生产环节,并在未来的某一时刻呈现出来。这一问题在新闻领域的表征,是用户的私域信息一旦进入数据库成为新的生产素材,如果该信息具有一定的社会公共价值,就极易通过新闻线索的筛选流程进入生产环节。而ChatGPT无法从道德、人性以及社会风俗等诸多层面对信息进行评判和取舍,也无法对相关隐私进行保护,以致对相关用户的隐私权造成伤害,进而打破隐私信息与新闻公共价值之间的平衡。

在不断迭代的技术裹挟下,不仅用户个人的遗忘变得困难,用户被他人遗忘也将变得困难。在新闻生产的过程中,ChatGPT以持续对话的形式逐渐向用户感兴趣的议题聚焦,不断对用户关注的问题进行针对性生产。持续性的对话过程和ChatGPT自身的储存能力使得信息能够源源不断地流入数据库,但是用户输入的信息是十分驳杂的,不仅真假难辨,而且可能涉及某一事件的多方主体,这使得各类未经当事人许可的内容进入信息库。这也意味着ChatGPT等技术大规模应用后,被遗忘困难在新闻领域的表征,将是所有不便于公开详尽信息的报道,所有基于隐私保护被屏蔽的信息,都将在事件主体之外的用户与ChatGPT互动中得到补充,并再次显现出来,事件主体想要遗忘的内容将不断受到他者的提醒。新闻行业对于这些数据的应用极有可能在无意识的情况下侵犯民众的隐私权,引发不必要的争论与争议。

记忆作为稀缺资源的时候,人类不断探索增强记忆的方式,不断创造记忆的媒介。但是,当技术发展到一定程度,遗忘成为一种稀缺资源的时候,“完全记忆”已经成为一种负担,人类又以同样的激情渴望遗忘。ChatGPT等技术的应用使得人被记忆困在过去,这同样将成为新闻行业的梦魇,新闻从业人员和用户需要形成密切的动态合作关系,协同维护民众隐私权与新闻社会公共价值之间的平衡。

三、何时停止:

用户生产造成信息淹没与新闻价值流动

随着5G、大数据、算法等技术的发展,大众的日常生活逐渐融合于网络之中,线上购物、线上办公、线上娱乐已经成为大众工作与生活的常态,大规模的线上活动使得大众成为平台的免费劳动者。同理,用户在与ChatGPT的交流中也无偿地丰富了ChatGPT的数据库、承担着ChatGPT的训练工作,用户与人工智能的大规模互动不仅会促成无休止的数据生产,造成信息淹没,用户逻辑的注入也将影响ChatGPT在新闻生产过程中对于新闻价值的评判,造成新闻价值标准在用户逻辑和专业逻辑之间流动。

无休止的数据生产将成为新闻领域的负担。人机交互会不断产生数据,随着用户发出指令,ChatGPT就会将指令与结果一起收入数据库,作为资料投入下一轮人机互动,周而复始、循环往复,数据库存储量也随着人机互动的加深而不断扩大,为无尽的数据存储提供可能。只有在海量数据的基础上,开发者才能不断对人工智能技术进行调整,使其无限向人类思维靠拢。技术企业对海量数据的渴求意味着数据收集、生产的过程可能会造成法律或伦理的问题,人工智能对用户个人数据的搜集、存储可能是在用户未被明确告知或者未察觉的情况下进行的。此外,即使用户个体已经停止与ChatGPT交流,与之相关的数据依然在进行生产。对于新闻领域而言,海量数据并非喜从天降。

首先,数量不等同于质量,海量数据并不等同于海量高质量数据,数据中的真假问题、隐私问题将增加新闻从业者信息核查的工作量;其次,ChatGPT无所不记的特性对于算力和存储能力有着极高的要求,以ChatGPT为代表的新一代人工智能技术大规模使用后,新闻领域的竞争将涵盖数据库容量的比拼,这对各媒体数据库的存储量提出较高要求,各媒体单位需要耗费庞大的资金不断对数据库进行扩容,对算力加以精进,这一支出将进一步拉开不同媒体之间的差距,影响传播格局。

ChatGPT等技术的应用不仅赋能新闻生产者,也将扩大用户参与新闻生产活动的范围,促使传播权力向用户端下沉,传播权力过度下沉可能造成新闻价值标准在用户逻辑和专业逻辑之间不断流动。在新闻生产过程中,用户不断向人工智能输出自己的需求和喜好,不断用自身作为人的情感和逻辑“喂养”程序,丰富人工智能的信息库和语料库,在一定程度上能够协助新闻从业者训练人工智能,促使人工智能在允许的范围内不断自我修正,不断向类人化靠近。用户在与ChatGPT对话的过程中,不断将自身的逻辑与价值判断标准植入ChatGPT的数据库中,这确实能够在一定程度上使得新闻更能满足民众的需求。但是传播权力无止境的下沉将使得人工智能的新闻生产逻辑不断向用户端偏移,打破用户喜好和新闻专业的平衡,使得新闻价值的评判标准不断在用户喜好和新闻专业性之间流动,即使新闻从业人员定期对数据库进行调整,也无法杜绝新闻价值的流动,新闻的社会公共属性势必受到影响。

就目的而言,技术企业对数据有着无限的渴求,而调动用户参与的积极性是收集数据的重要途径,在这一过程中技术企业将通过多种方式使得用户沉迷于人机互动中。人机互动中无休止的数据生产将加重新闻从业人员筛选新闻线索的负担,增加新闻媒体的运营成本,拉大媒体之间的差距,更重要的是新闻价值标准在用户逻辑和专业逻辑之间的不停流动将影响新闻的社会公共价值。信息生产和价值流动应该在何时按下中止键,需要政府机关、新闻领域、民众与技术企业共同协商决定,以维护新闻的公共属性。

四、何处可归:

社会超速与个人封闭召唤新闻预警功能

从媒介与社会的关系来看,媒介嵌入社会交往的程度在不断加深,已经成为形塑社会发展的重要力量。当前社会已经进入深度媒介化阶段,“在这个阶段,社会的所有元素都与媒介及其基础设施发生着深刻的关系”。ChatGPTOpen AI在自然语言处理工具开发过程中的迭代产品,亦是整个社会在应用技术方面的一次迭代升级,深度媒介化的趋势之下,ChatGPT将从社会与个人两重维度影响媒介生态格局,给新闻价值的发挥带来新的挑战。

“数字媒介带来的传播革命正根本性地重构着各种社会关系、改造着社会基本形态”,以ChatGPT为代表的新一轮人工智能的面世与应用正在印证这一改变。ChatGPT面世后引发的“取代论”足以证明人工智能技术在整个生产力系统中的重要作用。作为一种生产式的人工智能,ChatGPT目前能够替代专业人员完成一些耗时久的、重复的、基础的文书工作,微软宣布推出GPT-4 Office全家桶也佐证了这一点。ChatGPT的深度应用以及进一步开发将对诸多职业造成冲击。ChatGPT经过专业调试训练后,能够高质量完成文书撰写、股市预测、财务报表等工作,届时不仅将改变生产力系统,也会改变生产关系体系和社会上层建筑,进而改变整个社会结构,推动社会加速发展。深度媒介化范式之下,媒介技术的逻辑已经深入社会的每个领域,为各个领域的发展提供强大助力,且技术的运作是无休止的,将不断加速社会发展,使社会发展进入超速的状态。若社会存在进入超速发展的趋势,新闻领域作为社会的瞭望哨,需要敏锐地探察到社会变动,及时发挥预警作用,协助社会以正常的速度按照既有的方向发展。

虽然信息茧房是一个老生常谈的问题,但ChatGPT建构的信息茧房更加隐蔽,危害性也更大。尽管目前的技术尚不能完全满足用户的创作需求,产出结果与用户需求存在偏差,但是用户已经可以相对容易地以自己需要的呈现方式获取自己感兴趣的信息。由此可见,经过不断调试之后,ChatGPT有望真正实现定制化生产,这也意味着技术与人的关系发生变化,用户不再需要去适应技术的运行机制,这种完全投其所好的交互方式,会使用户在不知不觉中沉溺在AI制造的世界里,逐渐失去独立思考的能力,越来越以自我为中心。

此外,相较于前几代的人工智能技术,ChatGPT更类人化,这导致本来基于平台的传受关系无限趋近人与人之间的交流。在过往的交往机制中,人机之间、用户与从业者之间由于时空间隔、技术限制,传受双方只能在非常浅表的层面互动,ChatGPT的应用使得交往机制不断向仿真化的人际交往靠近,这种互动机制极有可能导致用户陷入个人封闭的状态,沉浸于人工智能营造的虚拟社交之中,满足于人工智能对其个性化需求的迎合,形成更难以打破的信息茧房。个人封闭的可能性将影响新闻公共属性的发挥,新闻行业作为社会公器,需要及时发现用户个人封闭的发展趋势,避免一味地迎合用户。

深度媒介化的趋势下,技术的发展与进步已成定局,无论是社会的发展态势问题还是用户的个人发展前景问题,核心都是以人为本的问题。对“个人”需求的关注,对“个人”主体性的开发与引导,将成为新闻领域发挥社会价值的重点所在。新闻领域作为社会发展的前哨,作为维护社会稳定的公器,需要及时发现社会与个人的发展问题,并及时发出预警,确保社会与民众均在以人为本的轨道上发展。

五、何从治理:

标准知识与认知偏差需要社会情境供给

ChatGPT面世不久,中共中央、国务院就于20232月印发了《数字中国建设整体布局规划》,强调“以数字化驱动生产生活和治理方式变革,为以中国式现代化全面推进中华民族伟大复兴注入强大动力”,“发展高效协同的数字政务,推进数字社会治理精准化”。由此可见,ChatGPT等新一代人工智能技术将成为国家实行数字治理的技术依托,但技术生产的标准化治理知识有可能简化社会问题的复杂性,同时认知偏差的加剧将导致社会治理问题更加复杂。在这一情况下,新闻领域需要发挥协调作用,多角度呈现社会问题,展示各方意见,尽可能为标准知识提供多种可能的社会语境和应用场景,尽可能缩小认知偏差。

社会治理的数字化转型早已开始,“依靠数字技术从个性现象中提取共性要素,生产出集中化、批量化的知识,是有效决策的前置环节”。大数据和人工智能技术在社会治理领域较为典型的应用当属舆情分析。舆情事件的酝酿与生发是一个动态的过程,大数据和人工智能软件能够对互联网中的热点话题进行聚焦,当舆情事件进入发酵阶段时,大数据能够迅速抓取事件的聚焦点,预判事件的走向,为政府部门疏导舆情提供支持。

如前文所述,ChatGPT等聊天机器人为用户建构起一个独享的舒适区,这就导致用户的关注点与情绪未必能够像社交平台中呈现的那般集中,这也意味着问题共性的析出将变得困难,标准的治理知识生产也将变得困难。此外,大数据技术是根据已经生成的数据进行抓取和分析,而ChatGPT等则是在对话中不断挖掘数据、生产数据,这就导致相关联的数据库中的信息更驳杂,根据这些信息提取出的社会问题以及生成的社会决策未必契合实情,社会治理的决策清晰度会因此受到影响。最后,ChatGPT等技术是按照一定的算法程序来运行的,算法之中存在一定的偏见和偏差,这些偏差存在于其生成的数据中,从而导致根据这些数据制定的政策也带有一定的偏差。

人工智能技术能够在一定程度上辅助提取社会问题中的共性要素,以一定的标准生产出治理知识,协助决策者理解社会问题,但治理政策的落地需要基层工作人员的行动,也需要全体社会成员的配合。社会治理共同体不是均质的,因此,社会治理知识的标准生产并不能保证标准执行,文化传统、道德观念、民众心理等多种因素交织在社会治理问题之中,这些复杂因素正是基层社会治理的困难所在。从决策的角度来看,社会治理问题看似相同,实则各有侧重,依靠技术生产出的治理知识未必能够直指每一个问题的核心,这些知识只能够提供基础的解决思路,具体的治理政策还需要基层干部结合实际情况进行调整。从落实的角度来看,人本身是存在认知偏差的,这些偏差会对治理政策的落实造成影响,ChatGPT等技术在日常生活中的应用会加大认知偏差。技术的深度包围和深度迎合之下,个体极易陷入技术营造的幻象之中,这些幻象一方面会将本来细小的矛盾放大,另一方面会加剧认知偏差,甚至导致群体行动,这两方面的影响不论是作用于基层干部,还是作用于群众,都将加大社会治理问题的难度。

ChatGPT为代表的新一代人工智能技术对人的负面影响也将体现在社会治理问题之中,技术迎合之下人的情绪将更加极化,每个人都更以自我为中心,当人的社会属性被消磨,失去了为他人着想的能力,社会治理问题的解决将更加困难。社会治理不仅需要技术的力量,更需要人的温度,需要在彰显理性的同时滋润人的情感。因此,数字化社会治理中更需要新闻领域承担起社会责任,真实有效地反映社会问题,反映社会民生,尽可能多样地呈现政策应用可能面临的社会情境,为治理政策的制定和执行提供温度,弥补人工智能对于人类情感缺乏认知而造成的不足。

六、结语:

在快速应用的同时善于“深度学习”

目前,意大利已经成为全球第一个因数据泄漏而宣布禁用ChatGPT的国家。马斯克、2018年图灵奖得主以及《人类简史》作者等众多知名人士已经签署联名信,要求停用ChatGPT 6个月,并停止开发GPT-5模型,以防对社会和人类构成风险。虽然不能排除科技资本之间的竞争导致马斯克等人呼吁停止开发GPT-5,但至少可以证明ChatGPT技术已经暴露出一定的问题,其隐含的风险也已经被各方意识到。虽然可以通过禁用的方式来解决ChatGPT这一技术可能会造成的问题,但是人类对于新文明、新形态的渴望与好奇会不断激发新技术的产生,禁用不能一劳永逸地解决所有问题。在快速接入、轻型应用的新场景下,保持足够的警惕和洞察力,通过“深度学习”以应对AI深度学习产生的内容生成内在逻辑变化,慎用并且善用,方能达成“AI向善”的良好愿景。

技术的迭代更新可以带来资本的狂欢,可以掀起流行的浪潮。面对不断迭代的新技术,顺其自然成为很多人迎接技术冲击时的心态,觉得很多问题能够随着时间的推移得到解决,甚至在还没来得及采取措施解决这一项技术造成的困扰时,新一代的技术已经取代了这一技术,那这一技术造成的困扰也就不复存在。每一项新技术的出现都会引发担忧,就如同对90后青少年,其父母担心沉迷网络聊天,对00后青少年,其父母担心沉迷游戏,对10后青少年,其父母担心沉迷短视频,虽然本质上都是面对新媒介的恐慌,但是顺其自然并不意味着父母可以袖手旁观。同理可知,面对新技术,顺其自然也绝对不是解决问题的办法。

技术带来的可能性是充满诱惑的,以ChatGPT为代表的新一代人工智能技术如果得到善用必然能够在一定程度上推动人类文明的进步,但是善用技术是在慎用技术的前提下进行的,只有足够慎重才能真正发挥技术的助力作用,坚守人的主体性。ChatGPT等技术依然是根据由人类设定的程序来进行内容生产的,人是程序的设置者,也是人工智能的训练者,人才是人工智能的核心与价值所在。作为技术的开发者、训练者、应用者,人类应该始终保持警惕,确保技术始终在受制于人并且有利于人的方向上前进,坚持技术向善的导向。新闻领域作为社会的前哨,需要尽可能发挥瞭望功能,在慎用人工智能的前提下,善用人工智能助力其社会责任的担当,一旦出现技术凌驾于人,甚至出现技术架空人之灵性的可能时,应及时发挥预警功能,甚至要协助政府机关和开发者按下停止键。

(载本刊2023年第7期“深观察”专栏,原标题为《“AI 向善”何以达成: 深度学习与轻型应用——AI 应用趋势下的新闻传播学思考》,注释从略。学术引用请参考原文。)

转自:“再建巴别塔”微信公众号

如有侵权,请联系本站删除!


  • 万维QQ投稿交流群    招募志愿者

    版权所有 Copyright@2009-2015豫ICP证合字09037080号

     纯自助论文投稿平台    E-mail:eshukan@163.com