2023/4/11 9:09:11 阅读:264 发布者:
编者按
本期推送发表在Sociology Compass上的“Artificial intelligence, algorithms, and social inequality: Sociological contributions to contemporary debates”一文。作者阐述了从社会学的角度去分析人工智能技术所包含的社会不平等及社会偏见以及社会学家要从哪些方面给出回应。
这是社论前沿第S3253次推送
微信号:shelunqianya
摘要
人工智能(AI)和算法系统因持续存在偏见、不公正歧视和加剧不平等而受到批评。人工智能研究人员在很大程度上仍然无视现有的关于社会不平等的学术研究,但现在越来越多的社会学家正在研究人工智能带来的社会变革。偏见通常被认为是一种不受欢迎的特征,可以从人工智能系统中去除,与社会不平等学术的接触使我们考虑这些技术如何再现现有的等级制度,以及我们可以努力实现的积极愿景。作者认为,社会学家可以通过三种行为来帮助断言对新技术的代理:(1)批评和拒绝政治;(2)通过技术对抗不平等;(3)算法治理。随着我们越来越依赖人工智能和自动化系统,进一步巩固或放大社会不平等的危险已得到充分证明,特别是随着政府机构越来越多地采用这些系统。然而,公共政策也提供了一些向积极方向重组社会动态的机会,只要我们能够清楚地阐明我们正在努力实现的目标,并意识到利用这些新技术解决社会问题的风险和局限性。
介绍
在过去的几年里,人工智能(AI)、机器学习和自动化正在彻底改变社会的想法在流行场所被广泛讨论。这一转变已通过越来越多的社会学学术机构得到解决(see Joyce et al., 2021; also; Airoldi, 2022; Burrell & Fourcade, 2021; Davis et al., 2021; Elliott, 2022; Issar & Aneesh, 2022; Jaton, 2021),尽管对这些技术的一些最著名的社会学分析来自于非(正式)社会学家的学者(Crawford, 2021; Eubanks, 2017; Zuboff, 2018)。社会问题现在被认为是新算法技术开发人员的关键问题,但“人工智能科学家继续表现出对社会的有限理解”(Joyce et al., 2021, p. 5)。涉及算法技术的大部分论述仍然以必然性和技术决定论为特征(Vicsek, 2020),围绕“人工智能崛起”的最大担忧之一是人类代理的相应损失(Anderson&Rainie,2018)。这篇文章将概述一些社会学家可以积极地为一个更美好的世界做出贡献的方法,或者反对这个领域中普遍存在的危险愿景。
作者对社会学家如何处理人工智能、机器学习和自动决策(ADM)领域的一系列问题特别感兴趣,这些问题主要被技术专家理解为“偏见”问题,但这些问题的根源在于预先存在的社会不平等。鉴于算法系统的持续扩散,社会学家可以研究这些技术及其在工作、教育和法律等熟悉领域的不平等后果。然而,要超越对当前发展的实证分析,社会学家可以通过实践、政策影响或跨学科合作做出三种贡献:(1)批评和拒绝政治;(2)通过技术对抗不平等;(3)算法治理。当社会正在通过算法治理进行重新配置时,当算法对不平等的再现日益被视为一个主要问题时,这三种模式都应被视为积极行动的重要模式。对社会学家来说,批判和拒绝政治是一条老生常谈的道路,通过这条道路,我们也可以清晰地表达对世界的积极愿景,即使我们追求它的能力仍然有限。对于更直接的影响,社会学家有机会参与算法系统的设计和实施,以改善社会结果,但我们的参与可能会加强已经占主导地位的利益。社会学最重要的跨学科贡献之一可能是以新的方式来扰乱和重构已存在的问题。
社会不平等与技术:社会学的观点
社会学家假定在社会的任何领域都存在不平等现象,并承认技术的好处和坏处并不是平均分配的。关于“数字鸿沟”的学术研究研究了自20世纪90年代以来技术的不平等获取和使用(van Dijk, 2006;Wellman & Haythornthwaite, 2002);当互联网被认为是一种广泛增强社会福利的力量时,社会学家警告说,这些技术也会加剧许多现有的不平等(DiMaggio et al.,2004)。Selwyn(2004)和Helsper(2008, 2012)借鉴了布尔迪厄理论和“社会排斥”的概念(van Dijk, 2005),将数字鸿沟问题重新定义为“数字排斥”,社会技术不平等“根植于与其他类型的劣势和歧视相关的更广泛的社会类别”(Helsper, 2012,p406)。Park和Humphry(2019)将这种对排斥的关注扩展到人工智能和ADM,分析了自动化系统如何歧视、拒绝和惩罚澳大利亚的福利接受者(see also Eubanks, 2017; James & Whelan, 2021; Schou & Pors, 2019)。与此相关,教育社会学家(Davies,2021;Williamson & Eynon, 2020)和医疗技术(Roberts & Rollins, 2020;Singh & Steeves, 2020)研究了算法是如何基于预先存在的社会不平等而排斥和歧视的。
工作、职业和组织的社会学家研究了新的算法系统如何以通常对工人有害的方式重新配置人类劳动(Bailey et al., 2020; Griesbach et al., 2019; Kellogg et al., 2020; Newlands, 2021; Shestakofsky, 2017)。关于机器人取代和改变人类工作的乌托邦和反乌托邦预测一直是话语分析的主题(see James & Whelan, 2021; Ossewaarde & Gulenc, 2020;Vicsek, 2020),但社会学学者一直对这些说法持怀疑或批评态度,更关注权力关系问题(Boyd & Holton, 2018)。朱迪·瓦克曼(Judy Wajcman)将最新一波“关于人工智能的夸张”(2017,p.121)置于“对自动化的长期焦虑”(P.125)的背景下,提醒我们继续关注权力集中在少数大公司和硅谷工程师(通常是男性和白人)的偏见。从历史的角度来看,我们对即将到来的人类劳动自动化的担忧是错误的,因为“真正的问题是已经存在的工作、时间和金钱的不平等分配”,以及新技术如何创造“不是更少的工作,而是更多更糟糕的工作”(Wajcman, 2017)。
通过算法技术重现和重塑的不平等可以在组织内部进行研究,但不平等也会在全球范围内发生(Sampath, 2021),包括国际劳工(Aneesh, 2009),以及通过殖民和采掘过程的资本流动(Couldry & Mejias, 2019)。社会学本身的殖民主义(Bhambra, 2014)经常将“全球南方”的社会排除在分析之外,或将北方的社会视为普遍的(Go, 2020; Milan & Treré, 2019)。虽然北美、欧洲和东亚技术最发达的工业国家被认为是“人工智能竞赛”的主要竞争对手(Walch, 2020),但算法系统遍布世界各地,并依赖于全球资源(Crawford, 2021)。在全球南方,人工智能系统已被推广用于国际发展(Sinanan & McNamara, 2021),但往往是殖民和提取过程的同谋(Couldry & Mejias, 2019;Kwet, 2019;Mohamed et al.,2020)。与那些生活和工作在这些公司总部的人相比,全球南方的人口与主要人工智能平台的关系不同(Aneesh, 2009; Gray & Suri, 2019; Grohmann & Araújo, 2021)。来自全球南方的思想(以及北方社会的土著认识论)也可以成为人工智能主导理论和伦理理性的概念替代方案的来源(Milan & Treré,2019),包括理论化、分析和批评这些社会技术系统的新方法(Birhane, 2021; Lewis et al., 2020)。社会学家可以发挥宝贵的作用,从历史上被人工智能发展边缘化的社会立场提出观点。
不平等的未来和社会学的回应
正如前一节所述,许多社会学家正在算法和人工智能系统不可忽视的领域工作,并产生重大影响。一些社会学家在一般意义上讨论了人工智能,要么认为它确实正在改变我们的日常生活(Elliott, 2019),要么反对人工智能能力的宏伟主张(Collins, 2018)。Burrell和Fourcade(2021)提醒我们,“我们既可以拒绝关于机器智能的魔幻思维,也可以承认科技行业在改变我们生活的世界方面具有巨大的经济、政治和文化力量”(P.231)。权力问题(seeKalluri, 2020)应该是我们作为社会学家的主要关注点,因为这种正在进行的转型所涉及的利害关系,以及算法系统可能改变或锁定的不平等。
从目前的趋势来看,很容易想象一个未来的世界,财富和权力比今天更加集中在“编码精英”手中(Burrell & Fourcade, 2021)——一名兰德下属的作者称之为“贝佐斯世界”(Lempert, 2019)。这种投机的反乌托邦已经产生了社会工程建议,沿着激进和保守的路线重新分配财富和不平等——从“奢侈共产主义”(Bastani, 2019),到为公民基本收入提供资金的新资本税(Clifford, 2021),或通过代币和分布式账本维持新型所有权和“数据产权”的“网络共和国”(Zarkadakis, 2020)。这些情景通常表现为广泛自动化所导致的经济或政治危机的发展,无论这是在不久的将来想象的,还是目前正在进行的。然而,不平等的社会(再)工程不一定取决于机器人取代人类劳动的某种“新工业革命”。自动化系统已经在不平等地分配各种商品和影响,或者是在重复长期存在的不平等。从这个意义上讲,未来的前景将与过去大致相同;对社会技术系统的控制将被用来进一步把权力集中在已经占主导地位的路线上。
社会学家可以通过研究社会不平等的结构来理论化这些发展,突出政治经济、资本主义和殖民关系(Couldry & Mejias, 2019; Dyer-Witheford et al., 2019;Shestakofsky, 2020)。虽然宏观层面的社会理论为全球转型提供了分析工具,但社会学家可以通过谱系学(Denton et al.,2021)和人工智能研究的民族志(Hoffman, 2021;Jaton, 2021)。制作实施算法系统的组织的民族志(James & Whelan, 2021)也将具有持续价值(Bailey et al., 2020; Brayne & Christin, 2021; Cruz, 2020; Shestakofsky & Kelkar, 2020),以及对更“下游”的人的经验的研究,与算法系统互动(Christin, 2020; Noble, 2018)。Roberge和Castelle(2021)认为,我们需要一种人工智能的“端到端社会学”,研究这些“上游”和“下游”过程是如何纠缠在一起的,并追踪这些社会技术系统“从起源到影响再回到原点”(Roberge & Castelle, 2021, p. 3)。任何对社会技术系统及其关系采取更广泛方法的分析也需要考虑激励这些发展的话语和想象的未来。包括推广关于什么样的未来是可取的或不可避免的想法(James & Whelan, 2021;Schuilenburg & pepeters, 2021;Vicsek, 2020)。
考虑到人工智能和算法系统可以从社会学角度进行研究,社会学如何有助于当前关于这些技术的辩论?如果当前的发展轨迹导致财富和权力更加集中,以及现有不平等现象的再生产,我们该如何阻止这些发展呢?在自动化和人工智能的讨论中,人类代理的丧失是一个反复出现的担忧(Anderson & Rainie, 2018),但我们应该认识到,结构性不平等长期以来剥夺了边缘群体的某些形式的代理(Shah, 2018)。以下部分解释了社会学家通过解决算法调解的不平等问题,在行使我们的代理来改变社会结构和塑造一个更美好的世界方面可以发挥的不同作用。
批判
如果这被认为是学术参与的先决条件,那么理解人工智能的技术复杂性似乎令人生畏,但对这些系统的批评通常可以从陈述社会学上显而易见的事实开始。人工智能从业者不断地应用统计方法来对人类群体进行分类,但对正在操作的社会类别却知之甚少。最近的一项研究(由于缺乏伦理批准而被撤销)引用了19世纪的犯罪学家Cesare Lombroso作为通过面部特征识别犯罪行为的理由(Hashemi & Hall, 2020)。人工智能从业者继续定期生产可以被定性为面相学或颅相学的工作(Stark & Hutson, forthcoming; Stinson, 2021),根据离散的种族、性别和情绪状态对个人进行分类,仅通过对这些现象最肤浅的本体论参与(Barrett et al., 2019; Hanna et al., 2019; Scheuerman et al., 2021)。这项工作典型地证明了对人工智能之前的“社会分类”历史几乎没有意识(Lyon, 2003),并且无法将这些系统置于当代治理或资本关系中。尽管硅谷公司雇佣了大量的社会科学家、人文学者,甚至批评行业的声音,但这些组织内部批评的可能性是微弱的或受到限制的——Timnit Gebru被谷歌的人工智能伦理团队解雇以及随后发生的事件就是证明(Grant et al., 2021; Simonite, 2021)。独立的学术批评仍然需要从各个角度进行。
就像下面列出的替代方法一样,拒绝政治可以被认为是人类对社会技术系统的一种行使,就像这些替代方法一样,它也应该从积极的角度来理解。正如奥德拉·辛普森(2014)和那些以她的工作为基础的人所提出的理论,拒绝是“生”的(McGranahan, 2016),是一种肯定我们是谁、我们的关系和我们的价值观的手段。有人认为某些决定不能被自动化,这就包含了一个积极的论点,即就人类参与而言,某些决定应该包含什么。正因为如此,认为我们不应该构建或实现一个系统是有价值的,而且通常是实现理想未来的合适方式。
通过科技对抗不平等
结构性的不平等在持续的基础上被复制,并且抗拒改变,但数字系统的行为是用代码写的,而代码可以重写。换句话说,当不等式被编码到算法、软件或电子表格中时,改变代码将重新分布不等式。关于数据科学中公平和偏见的研究已经在试图通过减少偏见来改变世界,算法治理正在提供配置、设计和构建社会的新方法。我们有必要拒绝或抵制其中一些发展,但我们也可以努力引导它们远离最黑暗的可能性,走向一个更能反映我们价值观的世界。
鉴于人工智能领域的公平、道德和偏见工作现在是“世界规范建设”的一部分(Green & Hu, 2018),社会学家可以为这种世界建设做出贡献(Joyce et al.,2021),并帮助阐明可能的变化方向,超越一个无偏见的社会或不受欢迎的趋势的模糊概念。如果人工智能伦理中对“社会公益”的模糊姿态占主导地位,那么就有机会在实质性平等和反压迫的基础上具体规定理想的未来(Green, 2019; also; Davis et al., 2021)。不幸的是,虽然社会学家在批评代表性的不平等和算法的危害时处于舒适的基础上,但我们在提出如何处理算法系统的规范性建议时就不那么舒服了,除了拒绝在有问题的情况下使用它们。一个值得注意的例外是本杰明(2019)的《追求技术的竞赛》(Race After Technology),该书确实以“废除主义工具”和“重新想象技术”的章节结束,但这本书在很大程度上仍然是一本解释和批评的作品,对“设计思维”非常怀疑。本杰明提醒我们,当我们处理涉及新技术的不平等时,我们不一定需要技术解决方案。既定的政治形式往往更合适,正如这一论点所表达的那样,“也许我们必须要求的不是解放的设计,而是普通的旧的解放”(p.179)。记住这一点,以超越拒绝、拒绝或反对社会技术体系的方式,实施解决不平等问题的系统性改革意味着什么?换句话说,有什么积极的行动(包括技术和政治)可以创造我们想要的那种世界?
虽然许多学生被社会学吸引是因为渴望社会变革,但我们这些在学术界工作的人往往有其他优先事项,这从我们所做的工作和它的受众中反映出来(Cancian, 1995; J. H. Turner, 2001; Weinstein, 2000)。然而,社会学在主张社会“改善”(Ward, 1906)和开展应用学术(Perlstadt, 2007)方面确实有着悠久的历史。沿着这些方向,社会学家可能会与通过技术和数据行使代理的特定群体一起从事应用或参与性工作,以满足他们的需求,或者与社区一起努力实现正义(Costanza-Chock, 2020)。有许多群体的利益在新技术的设计中被边缘化,他们的斗争不像为平等而战那样直接,而平等是这些群体特有的目标。例如,在定居者殖民主义的背景下(see Simpson, 2014),平等对待每个人对土著人民来说都相当于一种同化形式。走向非殖民化和土著数据主权的运动(Kukutai & Taylor, 2016; Lewis et al., 2020; Walter et al., 2020)并不是基于个人平等的自由主义概念,而是基于土著人民在土地权、主权和文化完整方面的独特立场。
尽管在解决特定人群在技术方面的需求和愿望方面还有大量工作要做,但算法系统现在涉及“大规模”不平等这一事实也为更雄心勃勃的干预提供了可能性。国家层面的税收制度是低技术算法如何广泛改变不平等界限的一个例子,但还有许多更具体的财富和资源分配制度正在通过数字政府实现自动化或“改造”(Clarke, 2020; Henman, 2010; Levy et al., 2021)。此外,还有由大型平台公司(有时雇佣社会学家)运营的算法系统,这些公司充当事实上的政府,为数百万或数十亿人塑造结果(Gillespie, 2018;Tusikov, 2017)。社会学家当然可以寻求对这些算法的努力做出贡献,最好是以跨学科的方式,并注意社会学和技术官僚政治或社会工程之间的关系历史。虽然与现有的权力中心合作,可以带来更大的能力来解决算法治理和不平等问题,但风险在于,这种工作可能会从属于主导利益,并可能进一步巩固现状。
算法治理的治理
与社会不平等有关的问题涉及集体或公共利益,因此通常由负责公共利益的机构来解决。这引出了社会学家参与这个世界的规范建设的第三种方式,通过参与技术治理,并解决算法治理的非常现实的危险。近年来,有相当多的学术文献记录、比较和批评了监管算法和人工智能的不同政策或制度,包括政府战略、公司原则声明、标准和法规(Bradley et al., 2020; Jobin et al., 2019; Stark et al., 2021; J. Turner, 2019)。一种积极的方法建立在这项工作的基础上,以发展和改进这些治理机制。
Seyfert(2021)认为,监管过程共同产生了它们所监管的算法,但针对人工智能的监管是一种新的发展,通常缺乏“牙齿”或有意义的执行。只要正式的政治渠道向我们开放,社会学家就可以在各自的司法管辖区或国际论坛上,为正在建立的管理人工智能和算法的新兴监管机制的发展做出贡献。社会学家在这些问题上对公共政策的贡献程度取决于现有的政治机会,比如正式程序是否对学术投入开放,或者咨询实际上在多大程度上被用于为政策提供信息(而不是发挥合法或执行作用,see Kerr,2020)。被排除在政策过程之外的批判性专家可以建立自己的组织,就像一些领先的学者在2020年所做的“真正的Facebook监督委员会”(Solon, 2020)一样,但这些努力仍然停留在政策批评的层面,而不是政策制定的层面,并且可以被行业忽视。目前,世界上很多地方都显示出政府对“科技巨头”进行监管的强烈愿望(Lee, 2021),社会学家可以通过在这些辩论中强调权力、政治经济学和结构性不平等问题来做出贡献。虽然监管机构正在努力解决近年来人工智能领域的企业领导者所获得的权力,但最大的社会“破坏”可能会来自政府机构对这些技术的使用(CSPS, 2021)。尽管谷歌、亚马逊或Facebook部署的算法影响着数十亿人,但公共部门使用的算法可能会产生更深远的影响——而且也更容易引起独立研究人员的争论和研究。
社会学家需要研究人工智能在公共机构中的这些新兴用途,同时也要努力让它们对公众负责。作者一直在记录ADM系统在加拿大的使用情况,那里的政府机构一直在使用这些技术进行招聘决策、福利申请、移民申请、法律分析、情感分析、自杀预测、欺诈检测、面部识别和公共服务聊天机器人(还有许多其他用途-see ESDC, 2019; PWGSC, 2018; Reevely, 2021)。治理这种算法系统可能包括创建新的监管流程和机构,但人工智能和算法已经通过隐私和数据保护法、竞争法、人权和反歧视法以及应用这些技术的更专业领域(如医学和公共管理)进行了监管。目前,算法和人工智能监管更多地涉及透明度、问责制、隐私、竞争和公平或正义等问题,而不是作为政策问题的社会不平等,但这可以通过将人工智能监管中的当前问题导向追求实质性平等来改变(Amani, 2021)。无论是在广泛的监管制度层面,还是在特定领域对这些社会技术系统的具体实施,都需要批判性和参与性的学术研究,这些领域可能有自己的民主问责和公众参与的具体渠道。
因此,算法治理为社会学家提出了一个研究问题,以及一种对政策做出积极贡献的方法。学术参与可以包括仔细记录算法过程,它们如何影响人类生活和结果,批评和反对它们造成的危害,并通过监管和公共政策干预来改革、改进或约束这些系统。一般来说,社会学家可以帮助定义自动化系统在民主社会中的作用。与二十世纪的社会工程项目相比,今天的技术官僚“创新”更经常被认为与(甚至是支持)民主进程兼容(Esmark, 2020),但民主背景下对技术官僚的历史批评(Jordan, 1994)仍然具有相关性,包括依赖专家来确定公共利益以及意识形态追求效率的危险。在民主国家使用自动化系统执行公共政策会引发一些重大问题,需要包括社会学家在内的所有公民密切关注。
结论
社会学家现在必须努力解决算法系统和人工智能在各种商品和结果分配中的作用;这些制度如今普遍存在,并将在未来继续成为不平等再生产的更核心因素。考虑到所涉及的伦理和政治挑战的巨大性,以及其他领域在解决这些挑战方面所表现出的局限性,社会学家有机会为人类福祉做出有价值的贡献。具体来说,目前被认为带有偏见的问题,在社会理论中往往可以被理解为不平等的问题,这种不平等体现在对一些人产生好处,对另一些人产生伤害或累积不利的结构中。 从社会学角度对技术的批评已经对当前的辩论产生了一些影响,但仍需要进一步阐述。当批判延伸到拒绝政治时,可以与其他有动机拒绝特定发展的人结成联盟,并为社会变革推广更积极的想法,包括与我们的愿景和价值观兼容的替代社会技术系统。这可能意味着与正在构建技术以从下至上满足其需求的团体和社区合作,但也可能意味着批判性地参与明确旨在服务于公共利益的系统——即通过公共部门。与此相关,在制定新的公共政策和治理机制方面,需要更广泛的民主和跨学科参与,这将有助于共同产生未来的算法。这将需要社会学家的实践导向,超越我们的学科,阐明其他人会听到的规范立场和政策建议。
值得庆幸的是,近年来“技术抨击”背后的批评声音已经完成了大部分繁重的工作。算法伤害、种族主义和性别歧视机器人、无处不在的监控和行为操纵现在都已经成为公认的公共问题。人工智能研究人员有时认为社会科学家可以帮助他们解决这些问题,社会学家确实可以选择扮演这样的合作角色,只要我们注意到我们的机构的限制,以及我们的贡献成为其他利益的附属的危险。积极参与算法系统并不需要会写代码的社会学家,但它确实迫使我们考虑这门学科与治理和政治的关系,包括我们在哪些方面最有可能实现变革。正如社会学批判可以通过在系统术语或更大的背景下定位技术和个性化后果而有效一样,应用社会学可以帮助定位这些社会技术系统,以解决更大的、相互关联的和系统性的问题,包括各种不平等及其后果。
文献来源:
Zajko Mike:Artificial intelligence, algorithms, and social inequality: Sociological contributions to contemporary debates. [J]Sociology CompassVolume 16, Issue 3. 2022.
转自:“社论前沿”微信公众号
如有侵权,请联系本站删除!