洛杉矶警察局率先使用预测性警务技术公司开发的算法对象 ,纽约和芝加哥警察局随后创建 了一个“热名单”,其中包孕 依据 人口统计数据犯有枪支犯法 的“战略主体”拘捕 历史和社交媒体细节。预测性警务对象 的工作方法 缺乏透明度,警察局普遍不肯 意透露算法的工作原理。这使得这些算法成为“黑匣子”,无法被任何外部人士审计或评估。到2019年,该系统已为跨越 40万人分派 了“高风险”评分,并被视为预防暴力犯法 的主要手段。预测性警务对象 会产生 严重的歧视性犯法 预测毛病 ,据美国司法部2020年的数据,非洲裔被警察在没有正当理由的情况下拦住的可能性是白人的5倍,被捕的可能性是其两倍。美国的预测性警务对象 使用种族作为预测因子,通过将警察派往他们以前监管过的处所 来复制和加剧警务中的偏见,增加了对非白人社区的过度监管。既有数据集反应 着现有的种族偏见,因此尽管这些技术被假定具有“客不雅 性”,甚至被认为有可能减轻其所取代的人类行为体的偏见,但其运作反而加剧了种族歧视。警察部分 在少数族裔居民为主的贫困社区往往会更多使用预测性技术。预测性警务创造 了“巨大的结构性偏见”,通过包孕 种族歧视的算法,个别 警官的偏见已被数据驱动的结构性偏见所取代。
本文来自东方前沿网
数字技术增加刑事司法系统中的种族歧视 copyright www.qqlingdiw.cn
新兴数字技术延续和复制了刑事司法中的种族歧视性结构。从预测性警务到预测累犯,执法机构和法院都在依赖算法对象 ,使历久 存在的种族歧视加倍 固化,整体上削弱了少数族裔的人权,并强化了他们在社会中遭受的结构性压迫。美国有几个州在刑事司法法度模范 的每一步都使用人工智能风险评估对象 。开发人员希望这些系统能够提供客不雅 的、基于数据的司法结果,然则 这些算法通常依赖的是存在缺陷、种族偏见甚至不法 政策时期产生 的数据。由于这些算法影响判决,它们侵犯了少数族裔获得公平 审判的权利以及免受任意拘捕 和拘留的权利。这种风险评估权衡的因素通常包孕先前的拘捕 和入罪 记录、父母 的犯法 记录、邮政编码和所谓的“社区凌乱 ”。这些因素反应 的是在有色人种社区的过度监管和执法行为以及种族制度导致的更普遍 的社会经济劣势模式,而不是目标人群的行为。换言之,数据更能预示被告所在社区的种族劣势和警力散布 ,而不是其小我 的行为。非洲裔被告被确定为未来暴力犯法 风险较高者的概率比白人凌驾 77%,预测未来可能犯下任何类型犯法 的可能性凌驾 45%。 www.qqlingdiw.cn
预测累犯的对象 也是同样。在美国的系统中,嫌疑人被捕后通常会获得 一个分数,目的是预测他们未来犯法 的可能性。最常用的系统COMPAS提供的风险评估评分被用在刑事司法法度模范 的每个阶段。一项查询访问显示,该系统存在明显的种族偏见,它毛病 地将非洲裔被告标记 为未来的罪犯,这一比例几乎是白人被告的两倍。与此同时,白人被告则常被误认为风险较低。由于这些评分标准 固有的偏见,犯法 嫌疑人即使无辜也会认罪的现象并不罕有 。 东方前沿网
纽约城市大学教授杰西·丹尼斯一针见血地指出,数字技术的语言是美式英语,网络技术中充斥 了美国式的规范,付与 美国科技行业不成比例的经济和政治权力,并在各类 类型的全球跨国公司中产生 巨大影响力,通常反应 了美国的帝国主义和白人至上主义的意识形态。普林斯顿大学教授鲁哈·本杰明在《技术背后的种族:新吉姆守则的废奴主义对象 》中指出,算法黑箱将所谓的种族中立技术与司法 和政策相联系,成为白人至上主义的有力对象 。美国应正视自身种族歧视的系统性和结构性缺陷,积极应对数字技术带来的治理挑战,采取 迅速有效行动,防止和减少在新兴数字技术使用和设计中产生 种族歧视风险,加强算法问责。 www.qqlingdiw.cn