美国种族歧视

从人工智能出发,探讨美国社会种族歧视的存续与消亡
谁会得到工作,谁会被逮捕,谁会接受医疗救助?在这样的抉择中,人工智能(AI)等算法做出“判断”的事例正在增加。
世界上的事例明确表示,技术可以用于排除、管理或压制特定人群,或者强化人工智能诞生之前就存在的不平等这一历史体系。
在这种情况下,一个由社会学家和计算机科学家组成的团队建议,人工智能模型的开发者和使用者应该更明确地考虑种族问题,活用“批判种族理论”和交叉性等概念。
批判种族理论是20世纪70年代由法学家提出的有关人种和权力影响的理论,后来演变为影响教育、民族学、社会学等领域的学术运动。另一方面,交叉性的概念认为,来自不同背景的人应基于种族、性别、阶级和其他各种身份,以不同的方式来体验世界。
在这种情况下,在2021年初向美国社会学会展示的一种方法中,提出了“算法修复”这一新词。在学术杂志《Big Data&Society》刊登的论文中,作者说明,关于算法的修复是“以认识和纠正构造上的不平等为目标”,同时实施了交互性和补偿性的搭配。
这个修复算法,优先保护历史上遭受歧视的群体,把资源转向与掌握权力的集团战斗的资源不足的被阻碍的社群。论文中写道:“算法通过数据来活化,数据从人类那里得到。人类构成了社会,而社会是不平等的。因此,算法会朝着现有的权力、特权、疏远以及不利的模式画弧线。”
算法修复引起了整个人工智能界的关注
论文的三位作者分别隶属于澳大利亚国立大学的“人类机器智能”项目和哈佛大学伯克曼中心。他们认为,为了让机器学习更加公平,所做的努力还远远不够。这是因为在机器学习中,基于我们生活在实力主义社会的假设,比起公平和正义,以“公平”为前提来衡量数值是最公正的。
论文作者解释说,修复算法有助于决定是应该原封不动地展开特定的人工智能模型,还是应该将其拆除。最近发表的其他多篇论文也对研究人员解释算法公平性的方式提出了同样的担忧。
整个业界都在关注这个问题。由美国计算机协会主办的“Conference on Fairness, Accountability, and Transparency”日前宣布,将举办一场聚焦于如何批评和反思机器学习中的公平性、问责制和透明性的研讨会。密歇根大学计划于2022年9月举办算法修复研讨会。
另一方面,研究者们承认,为了实现修复算法,在教育上的批判人种理论和工作岗位的平权法案(积极的差距纠正措施)一样,会与有可能发生制度上、法律上、社会上的壁垒的困难做斗争。
批判种族理论逐渐成为引起激烈议论的政治问题,在与理论本身无关的上下文中成为话题的情况也很多。例如,在弗吉尼亚州州长选举中取得胜利的格伦•杨金,作为成功结束选举活动的一环,攻击了批判种族理论。
另外,在田纳西州,反对在学校教授批判性种族理论的法律引发了对美国学校废除种族歧视的书籍的批判。与此形成鲜明对比的是,加利福尼亚州长加文•纽森在21年秋天签署了截止到2025年将民族研究学习作为高中毕业条件的法律。
最近的一项调查显示,旧金山的民族研究班提高了学生的毕业率和课堂参与率。另外,根据2020年的人口普查,美国的种族和民族的多样性正在增加。认为自己是“白人”的美国国民的比例在减少,而认为自己属于白人或其他人种群体的比例在扩大。
支持算法修复的人们说,应该向像图书馆员一样的专家学习。这是因为需要对用户数据的伦理性收集方法和藏书中包含的内容进行深思熟虑。此外,这些人不仅要考虑人工智能模型的表现是否公平或令人满意,还要考虑其是否有助于权力转移。
这一提案与谷歌的研究员提姆尼特•格布尔(黑人女性)的建议内容不谋而合。格布尔在2019年发表的论文中敦促使用机器学习的人们参考文件管理专家和图书馆如何处理伦理、包容性和权力等问题。格布尔在2020年被谷歌解雇,最近建立了分布式人工智能实验室。对此问题持批判态度的人得出结论,谷歌对格布尔采取了以前在职场中对黑人女性进行骚扰的方式。
另外,5名美国参议员要求谷歌聘请独立审计师,以评估种族歧视对该公司产品和工作场所的影响。谷歌没有回答这个要求。
2019年,谷歌的4名人工智能研究者主张,负责任的人工智能领域需要批判种族主义。这一领域的大部分成就都是因为没有对种族的社会建构方面尽到责任,或者没有认识到历史对所收集数据集的影响。
这四名研究者在论文中写道:“我们想强调的是,收集数据和解释数据的努力必须基于种族分类和种族范畴形成的社会和历史背景。过度的单纯化是一种暴力,更进一步说,是对已经经历过结构性暴力的人种再次施加暴力。”
回到民权法案之前
论文的首席作者亚历克斯•汉纳是谷歌首次雇佣的社会学家之一,在格布尔被解雇时对该公司的管理层进行了强烈的批判。汉纳表示,批判的种族理论以人种为中心,在讨论什么是公正的或者伦理的问题上,可以评价有助于阐明压迫的历史模式。
汉纳在那之后,共同执笔了一篇关于面部识别技术如何强化追溯到殖民主义时代的性别和人种构成的论文。这篇论文刊登在学术杂志《Big Data&Society》上。
与格布尔一起率领谷歌AI伦理团队的玛格丽特•米切尔在20年后半年中指出,谷歌在判断什么是公正的或伦理的时候使用了批判性种族理论。米切尔于21年2月被公司解雇。谷歌发言人表示,批判性人种理论是人工智能研究评估过程的一部分。
东北大学教授法律和政治学的助理教授拉希达•理查森在2022年发表的另一篇论文中指出,在美国,不考虑种族歧视的影响来思考人工智能是不可能的。这是因为支配、排斥或压迫黑人的法律和社会规范的“遗产”影响太大。理查森是白宫科学技术政策办公室的顾问。
例如,多项研究表明,在筛选租房者和抵押贷款申请人时使用的算法中,黑人会受到过于不利的待遇。理查森表示,重要的是要记住,在60年代公民权法案通过之前,美国的住房政策明确承认种族歧视。
另外,政府与住宅开发商和所有者合谋,不给有色人种机会,将人种集团分离开来。理查森指出,这种分离使白人在住宅所有者协会、教育委员会、工会之间进行“联合国式的行动”成为可能。其结果,与教育和世代积累的财富相关的问题和特权进一步恶化。
“变革正义”的重要性
理查森说,延续至今的种族歧视“污染”了许多算法的构建所使用的数据。选择“好学校”、重点取缔黑人和西班牙人居住区域等与判断相关的算法也受到了影响。
“在数据驱动型技术和应用中人种层次化的再现和放大中,种族歧视起到了核心的进化作用。种族歧视还制约了算法的偏差问题和与此相关的介入概念化。”理查森指出。“当种族歧视的影响被忽视时,种族不平等问题并不是特定政策、做法、社会规范和行为的副产品,而是作为一种自然发生的现象而出现。”
关于解决方案,理查森认为,人工智能可以通过应用“变革的正义”原则而受益。如何构建、设计人工智能模型,将问题修复纳入流程的一部分,让受到损害或受到影响的社群参与讨论。同样,过去一年进行的人工智能审计和算法影响评估得出的结论是,用于监管人工智能的法律框架往往不包含受算法影响的社会声音。
理查森的新论文将在白宫研究如何应对人工智能对人类造成危害的时候发表。在议会以外的场合,国会议员们正在制定法律。企业定期向联邦贸易委员会(FTC)报告算法的影响评估摘要,并对人们生活中不可缺少的系统义务化地制作“登记簿”。FTC暗示,将在2022年建立规范歧视性算法的规则。
对此,部分地方行政领导人不等议会或FTC就开始行动。华盛顿司法部长于21年12月上旬,将雇用、住宅、融资领域使用的算法的监查义务化,并引入了制定有关算法的大致规则的法律。
 
上一篇:美国亚马逊海淘
下一篇:美国女子监狱