人工智能与社会分化:印度数据政策、结构性压迫与决策自动化的批判性研究

时间:2025年12月19日
来源:Journal of Social Computing

编辑推荐:

本文针对人工智能(AI)算法在非西方社会可能加剧结构性歧视的问题,以印度为案例,批判性评估了全球算法公平性论述与印度本土AI数据治理政策。研究发现,印度现行政策框架未能充分考量种姓、宗教、性别等独特的社会结构因素,存在复制西方技术法律模型而忽视本土社会现实的倾向。研究主张,印度亟需构建根植于自身社会文化语境的AI伦理治理路径,以防止算法诱发结构性歧视,确保包容性算法正义。该研究为发展中国家制定情境敏感的AI治理政策提供了重要参考。

广告
   X   

在人工智能(AI)技术席卷全球的浪潮中,其承诺的效率与中立性光环之下,潜藏着加剧社会不平等的暗流。当算法日益渗透到招聘、信贷、司法、治安、福利分配等社会决策核心领域时,一个严峻的问题浮现:这些由代码驱动的系统,是否会在追求效率的同时,无意中固化甚至放大人类社会固有的偏见与歧视?当前,关于算法公平性的讨论大多由北美和欧洲的学术界主导,其理论框架和解决方案深深植根于西方的社会政治语境。然而,对于像印度这样拥有悠久历史、复杂社会结构和独特文化背景的非西方社会,这些“普世”的公平范式是否依然适用?当AI遭遇印度根深蒂固的种姓制度、宗教多样性、性别不平等以及巨大的城乡差异时,会产生怎样不同的化学反应?这正是P R, Biju和O, Gayathri在《Journal of Social Computing》上发表的研究《AI in Social Divides: Data Policies, Structural Oppression, and Decision Automation in India》试图回答的核心问题。
为了系统性地解答上述疑问,研究人员开展了一项综合性研究。该方法论主要包含三个核心部分。首先,研究进行了全面的文献综述,系统梳理了全球范围内关于AI系统偏见的研究,特别是在西方语境下已记录的十二个典型算法歧视案例,并评估其对于印度等非西方社会的分析相关性。其次,研究采用了批判性政策分析方法,深入剖析了十份关键性的印度AI与数据治理政策文件草案,包括《Justice B. N. Srikrishna委员会报告》(JBNSCR 2018)、《国家人工智能战略》(NSAI 2018)、《负责任AI原则》(PRAI 2021)以及最终出台的《2023年数字个人数据保护法》(DPDPA 2023)等,以评估这些政策对印度特有社会结构性因素的关注程度。最后,研究的分析框架深受女性主义认识论、去殖民理论以及安贝德卡(B. R. Ambedkar)和佩里亚尔(Periyar E. V. Ramasamy)的反种姓学术思想的影响,以此视角审视AI政策如何与种姓、性别和殖民遗留问题相互作用。
7 Social Divide and India
印度社会结构的复杂性是理解算法偏见的基础。研究表明,结构性压迫在印度表现为系统性的不平等,其影响因素多元且交织。性别层面,人口中女性占比约48.2%,父权制社会规范导致女性在多个领域被边缘化。宗教层面,印度教占主导(79.8%),穆斯林(14.2%)及其他宗教群体共存,宗教间关系紧张且存在歧视。语言多样性极其显著,拥有超过1600种语言和22种官方语言。区域身份由28个邦和8个中央直辖区构成,发展不平衡。最为核心的是种姓制度,它作为一种深刻的社会分层机制,限制了社会经济流动性。此外,农村人口约占65%-70%,与城市中心在基础设施和经济机会上存在巨大鸿沟,LGBTQ+群体虽在法律上逐步获得认可,但仍面临社会污名化。这些多重且交叉的社会分野构成了算法可能强化歧视的土壤。
8 Social Structure and AI in India
研究深入分析了AI算法如何与印度特定的社会结构相互作用,并可能强化结构性压迫。
8.1 Al,religious minorities, and discrimination
研究推断,AI可能歧视宗教少数群体。分析指出,印度教多数群体因其规模优势,其规范往往在数据基础设施中被默认为中心,从而享有“无声的特权”。而穆斯林等少数群体则面临算法歧视的风险,例如在预测性警务和监控技术中可能强化伊斯兰恐惧症 stereotypes,在招聘和信用评分算法中可能排除穆斯林申请者。基督徒、锡克教徒、佛教徒和耆那教徒等也可能面临文化定型、误识别和政策层面的隐形化。这表明AI系统并非中性工具,而是倾向于稳定多数群体权力、排斥少数群体的基础设施。
8.2 Al bias and gender in India
性别偏见在AI中表现广泛。研究表明,算法继承并强化了父权逻辑而非消除它们。印度女性在数字工具访问上受到文化限制,导致数据集存在代表性不足的问题。这种有缺陷的数据集直接导致歧视性结果。在劳动力市场,招聘算法复制职场歧视,偏向男性主导的工作经历。金融领域,女性在财产和银行业务上的历史性排斥会影响AI驱动的信用评分,导致贷款申请被拒率更高。教育技术、出行安全应用、婚恋平台以及医疗健康AI等领域,算法都可能忽视女性特定需求或强化有害的社会规范,如重男轻女、嫁妆和早婚。
8.3 Al bias and Dalit in India
表列种姓(SCs)和表列部落(STs)分别占印度人口的16.6%和8.6%。研究表明,算法系统非但未能打破种姓等级制度,反而经常重新调整并嵌入种姓主义。例如,社交媒体算法放大基于种姓的网络,使排斥正常化;推荐引擎升级种姓主义仇恨言论,助长对达利特人的针对性骚扰甚至线下暴力。在教育就业领域,AI驱动的招生和招聘工具可能偏向精英和上层种姓背景的学生和候选人,复制长期存在的 disparities。数字土地登记系统可能因达利特人历史上被剥夺权利导致的文件缺失而使其土地主张无效。在政治文化领域,选民分析算法可能优先考虑多数种姓群体,内容审核可能压制达利特人的反抗叙事,而婚恋算法则通过优先匹配同种姓来强化种姓内婚制。
8.4 Al bias and different identities in India
算法压迫在印度还延伸至语言、地区、阶级、残疾、性取向和年龄等多个维度。语言多样性是关键分野,AI系统主要基于英语和印地语训练,导致少数语言使用者面临系统性误分类和有偏见的情绪分析。城乡差异使得以城市为中心的训练数据歪曲农村现实,导致福利分配错误和信贷评分偏差。社会经济阶层方面,信用评分模型将贫困等同于风险,系统性地惩罚低收入群体。残疾人和性少数群体则面临算法上的“擦除”,例如无障碍功能不足和数据集缺乏代表性,使其在数字空间中隐形。
9 Policy Discussion in India
研究对十份关键的印度AI与数据治理政策文件进行了批判性分析。分析发现,尽管这些文件(如JBNSCR 2018, DPDPB 2018, NSAI 2018, PRAI 2021, DPDPA 2023等)在数据保护、隐私和治理方面做出了努力,但它们普遍存在显著局限。这些政策框架主要借鉴西方的技术法律模型,强调个人同意、数据本地化、数据主体权利和数据控制者责任等个体化权利保护路径。然而,它们严重缺乏对印度独特的社会结构性因素(如种姓、宗教、地区身份等)如何与算法决策相交织并可能产生歧视的深入审视。政策文本中,社会指标普遍缺席,对于算法如何复制和加剧深层社会不平等的问题关注不足。例如,DPDPA 2023虽然定义了“损害”,但并未包含针对算法偏见、透明度审计或影响评估的具体条款。NSAI 2018和PRAI 2021虽然提出了负责任的AI原则,但未能将其与印度具体的历史和结构性不平等联系起来。总体而言,印度的政策回应倾向于复制西方的范式,而未充分融入本土的社会结构现实。
10 Result
通过将全球研究的AI偏见与印度潜在情境进行比较,并评估政策文件的回应能力,研究回答了其设定的三个研究问题(RQ)。对于RQ1(AI算法在多大程度上导致结构性压迫),研究认为,AI算法从社会输入中学习,因此很可能反映并再现社会中存在的偏见,在结构性压迫普遍的印度,算法尤其可能忽视宗教或种姓偏见。对于RQ2(AI算法是否会在印度特定的AI应用领域延续和强化结构性压迫),研究通过第8节的分析,列举了基于种姓、性别、宗教等多种身份的算法歧视案例,证实了AI系统在印度确实存在加剧社会分化的风险。对于RQ3(印度制定的数据政策是否显示出解决结构性压迫与AI算法之间复杂联系的能力),研究通过对第9节政策文件的批判性分析得出结论:现有政策框架在解决算法与印度社会结构交叉所产生的独特挑战方面能力不足,它们未能充分吸纳本土知识和社会经验,存在显著差距。
11 Conclusion
本研究得出结论,印度的AI监管策略与全球算法偏见担忧之间,以及与其独特的社会文化背景之间存在显著脱节。政策框架中社会指标的缺失是一个关键问题,这使得AI仍有可能延续社会不平等。为此,研究提出了若干行动方向:一是将AI伦理语境化,基于印度本土的达摩伦理(Dharmic ethics)、甘地价值观(Gandhian values)和土著知识体系发展文化共鸣的伦理基础;二是鼓励对AI系统如何影响印度社会等级制度进行实证研究,为针对性政策干预提供信息;三是改革监管框架,嵌入可执行的公平、问责和透明度标准;四是推动以社区为中心的AI创新,让边缘化群体参与算法的设计和治理。最终,印度的AI治理必须超越进口的规范模型,扎根于对本国独特社会结构敏感的方法,才能预防算法诱导的结构性歧视,确保包容性的算法正义。
这项研究的重要意义在于,它尖锐地指出了在全球化AI治理 discourse 中非西方视角的缺失,并有力地论证了“一刀切”的公平方案在复杂多元的社会中可能失效。它为印度及面临类似挑战的发展中国家敲响了警钟,并指明了未来AI伦理研究和政策制定必须深入社会肌理、拥抱文化多样性的方向。在AI技术飞速发展的今天,这项研究提醒我们,技术治理不仅是技术问题,更是深刻的社会政治课题。

生物通微信公众号
微信
新浪微博


生物通 版权所有