算法黑箱強(qiáng)化偏見(jiàn) 數(shù)字技術(shù)加劇美國(guó)的種族歧視
【鳴鏑】
作者:唐穎俠(南開(kāi)大學(xué)人權(quán)研究中心副主任)
互聯(lián)網(wǎng)、大數(shù)據(jù)以及人工智能等數(shù)字技術(shù)在為人類(lèi)增加福祉的同時(shí),也可能帶來(lái)人權(quán)的負(fù)面影響,尤其可能對(duì)在種族、性別、年齡等方面處于弱勢(shì)地位的特定群體造成不成比例的人權(quán)損害。美國(guó)擁有全球最先進(jìn)的數(shù)字技術(shù),卻不僅沒(méi)能為其解決種族問(wèn)題帶來(lái)契機(jī),反而進(jìn)一步復(fù)制、強(qiáng)化甚至加劇了其系統(tǒng)性和結(jié)構(gòu)性的種族歧視。
以種族為坐標(biāo)的數(shù)字鴻溝和技術(shù)障礙
美國(guó)雖然在全球數(shù)字經(jīng)濟(jì)中占據(jù)主導(dǎo)地位,但少數(shù)族裔從新興數(shù)字技術(shù)中獲益的機(jī)會(huì)卻低得令人難以置信。根據(jù)美國(guó)聯(lián)邦通信委員會(huì)的數(shù)據(jù),2016年,約41%居住在部落的土著美國(guó)人無(wú)法獲得視頻會(huì)議等活動(dòng)的互聯(lián)網(wǎng)服務(wù)。皮尤研究中心2019年的一項(xiàng)調(diào)查顯示,在美國(guó),非洲裔和西班牙裔擁有電腦或擁有高速互聯(lián)網(wǎng)的比例仍然較低。大約有82%的白人表示擁有臺(tái)式電腦或筆記本電腦,但擁有電腦的非洲裔和西班牙裔只有58%和57%。在寬帶使用方面也存在巨大的族裔差異,白人家里有寬帶連接的比例比非洲裔和西班牙裔高出13%到18%。
被廣泛應(yīng)用的面部識(shí)別技術(shù)本身也隱含了種族歧視的因素,許多能夠成功識(shí)別白人面孔的算法卻無(wú)法正確識(shí)別有色人種。2019年,美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院發(fā)布了一份報(bào)告,顯示了全球99名開(kāi)發(fā)人員提交的189種人臉識(shí)別算法在識(shí)別來(lái)自不同人口統(tǒng)計(jì)數(shù)據(jù)中的面孔時(shí)的表現(xiàn)。測(cè)試顯示,與白人相比,無(wú)法準(zhǔn)確識(shí)別非洲裔或亞裔人臉照片的可能性高出10至100倍。在搜索數(shù)據(jù)庫(kù)以查找給定的面孔時(shí),非洲裔女性顯示錯(cuò)誤的比例明顯高于其他人口。
社交媒體傳播仇恨言論和種族主義
新興數(shù)字技術(shù)為快速和大規(guī)模傳播種族主義、仇恨言論與煽動(dòng)歧視暴力的言論提供了渠道,而社交媒體平臺(tái)在其中發(fā)揮著關(guān)鍵作用。自2014年以來(lái),美國(guó)的仇恨團(tuán)體數(shù)量增加了30%,僅2018年就增加了7%。根據(jù)美國(guó)南方貧困法律中心2019年的統(tǒng)計(jì),在美國(guó)查明有1020個(gè)仇恨團(tuán)體。據(jù)美國(guó)反誹謗聯(lián)盟的監(jiān)測(cè)報(bào)告,美國(guó)2018年的白人至上主義宣傳事件數(shù)量為1187起,比2017年的421起增加了182%。仇恨團(tuán)體在世界各地以“種族純潔”和種族優(yōu)越感為名對(duì)少數(shù)族裔實(shí)施恐怖襲擊和殺戮,包括2018年在美國(guó)匹茲堡發(fā)生的反猶太主義襲擊。2018年,新納粹和其他白人至上極端主義團(tuán)體在加拿大和美國(guó)造成至少40人死亡。這些種族仇恨團(tuán)體經(jīng)常利用社交媒體平臺(tái)尋找志同道合的個(gè)人,相互支持,并傳播他們的極端思想。此外,仇恨團(tuán)體也越來(lái)越多地滲透到了“游戲”世界。電子游戲和與游戲有關(guān)的論壇、聊天室和直播流媒體網(wǎng)站已成為最主流的新納粹招募場(chǎng)所。
算法系統(tǒng)重復(fù)并強(qiáng)化種族偏見(jiàn)
首先,算法系統(tǒng)可能在工作權(quán)方面加劇種族歧視。聯(lián)合國(guó)特別報(bào)告員在2020年的報(bào)告中指出,在美國(guó)一些用于招聘的算法因其具有歧視性而受到批評(píng)。此類(lèi)算法系統(tǒng)根據(jù)現(xiàn)有“成功”員工的數(shù)據(jù)庫(kù)來(lái)確定候選人,而數(shù)據(jù)庫(kù)包括性別、族裔或宗教信息。因此,算法系統(tǒng)作出的決策即反映出就業(yè)中現(xiàn)有的不平等現(xiàn)象,重復(fù)并強(qiáng)化了基于種族、性別等的偏見(jiàn)。
其次,新興數(shù)字技術(shù)也對(duì)少數(shù)族裔的健康權(quán)產(chǎn)生了歧視性的影響。一篇發(fā)表在《科學(xué)》雜志上的研究發(fā)現(xiàn),美國(guó)醫(yī)療保健系統(tǒng)使用商業(yè)算法來(lái)指導(dǎo)超過(guò)2億人的醫(yī)療服務(wù)健康決策,對(duì)非洲裔患者實(shí)施了系統(tǒng)性的歧視。由于輸入數(shù)據(jù)中沒(méi)有“種族”選項(xiàng),開(kāi)發(fā)者認(rèn)為該算法是“不分種族”的,但對(duì)于與白人患病程度相當(dāng)?shù)姆侵抟峄颊?,該算法始終給予其較低的風(fēng)險(xiǎn)分?jǐn)?shù),未能識(shí)別出將近一半與白人患者同樣有可能產(chǎn)生復(fù)雜醫(yī)療需求的非洲裔患者,導(dǎo)致他們無(wú)法參與改善健康的干預(yù)項(xiàng)目。
最后,定向廣告中的種族歧視侵犯少數(shù)族裔的住房權(quán)??刂浦绹?guó)22%數(shù)字廣告市場(chǎng)份額的社交媒體網(wǎng)站臉書(shū),過(guò)去允許廣告商在其廣告定位工具的“人口統(tǒng)計(jì)”類(lèi)別下排除具有某些“族裔親緣關(guān)系”的用戶來(lái)“縮小受眾范圍”。這種定向廣告可以用來(lái)阻止非裔、亞裔或西班牙裔觀看特定的住房廣告。這種“只限白人”的廣告,不禁讓人聯(lián)想到在種族隔離合法化的吉姆·克勞時(shí)代,那時(shí)報(bào)紙為廣告商提供只向白人讀者投放廣告的選項(xiàng)。
預(yù)測(cè)性警務(wù)技術(shù)導(dǎo)致嚴(yán)重的種族歧視
2016年8月31日,由17個(gè)組織組成的聯(lián)盟發(fā)表了關(guān)于美國(guó)執(zhí)法部門(mén)使用預(yù)測(cè)性警務(wù)工具的聲明,指出該技術(shù)缺乏透明度,帶有種族偏見(jiàn)以及其他導(dǎo)致不公正的深刻缺陷。預(yù)測(cè)性警務(wù)是指通過(guò)評(píng)估有關(guān)人員的數(shù)據(jù),例如他們的年齡、性別、婚姻狀況、藥物濫用史和犯罪記錄,預(yù)測(cè)其參與犯罪活動(dòng)的可能性。
洛杉磯警察局率先使用預(yù)測(cè)性警務(wù)技術(shù)公司開(kāi)發(fā)的算法工具,紐約和芝加哥警察局隨后創(chuàng)建了一個(gè)“熱名單”,其中包含根據(jù)人口統(tǒng)計(jì)數(shù)據(jù)犯有槍支犯罪的“戰(zhàn)略主體”逮捕歷史和社交媒體細(xì)節(jié)。預(yù)測(cè)性警務(wù)工具的工作方式缺乏透明度,警察局普遍不愿意透露算法的工作原理。這使得這些算法成為“黑匣子”,無(wú)法被任何外部人士審計(jì)或評(píng)估。到2019年,該系統(tǒng)已為超過(guò)40萬(wàn)人分配了“高風(fēng)險(xiǎn)”評(píng)分,并被視為預(yù)防暴力犯罪的主要手段。預(yù)測(cè)性警務(wù)工具會(huì)產(chǎn)生嚴(yán)重的歧視性犯罪預(yù)測(cè)錯(cuò)誤,據(jù)美國(guó)司法部2020年的數(shù)據(jù),非洲裔被警察在沒(méi)有正當(dāng)理由的情況下攔住的可能性是白人的5倍,被捕的可能性是其兩倍。美國(guó)的預(yù)測(cè)性警務(wù)工具使用種族作為預(yù)測(cè)因子,通過(guò)將警察派往他們以前監(jiān)管過(guò)的地方來(lái)復(fù)制和加劇警務(wù)中的偏見(jiàn),增加了對(duì)非白人社區(qū)的過(guò)度監(jiān)管。既有數(shù)據(jù)集反映著現(xiàn)有的種族偏見(jiàn),因此盡管這些技術(shù)被假定具有“客觀性”,甚至被認(rèn)為有可能減輕其所取代的人類(lèi)行為體的偏見(jiàn),但其運(yùn)作反而加劇了種族歧視。警察部門(mén)在少數(shù)族裔居民為主的貧困社區(qū)往往會(huì)更多使用預(yù)測(cè)性技術(shù)。預(yù)測(cè)性警務(wù)創(chuàng)造了“巨大的結(jié)構(gòu)性偏見(jiàn)”,通過(guò)包含種族歧視的算法,個(gè)別警官的偏見(jiàn)已被數(shù)據(jù)驅(qū)動(dòng)的結(jié)構(gòu)性偏見(jiàn)所取代。
數(shù)字技術(shù)增加刑事司法系統(tǒng)中的種族歧視
新興數(shù)字技術(shù)延續(xù)和復(fù)制了刑事司法中的種族歧視性結(jié)構(gòu)。從預(yù)測(cè)性警務(wù)到預(yù)測(cè)累犯,執(zhí)法機(jī)構(gòu)和法院都在依賴算法工具,使長(zhǎng)期存在的種族歧視更加固化,整體上削弱了少數(shù)族裔的人權(quán),并強(qiáng)化了他們?cè)谏鐣?huì)中遭受的結(jié)構(gòu)性壓迫。美國(guó)有幾個(gè)州在刑事司法程序的每一步都使用人工智能風(fēng)險(xiǎn)評(píng)估工具。開(kāi)發(fā)人員希望這些系統(tǒng)能夠提供客觀的、基于數(shù)據(jù)的司法結(jié)果,但是這些算法通常依賴的是存在缺陷、種族偏見(jiàn)甚至非法政策時(shí)期產(chǎn)生的數(shù)據(jù)。由于這些算法影響判決,它們侵犯了少數(shù)族裔獲得公平審判的權(quán)利以及免受任意逮捕和拘留的權(quán)利。這種風(fēng)險(xiǎn)評(píng)估權(quán)衡的因素通常包括先前的逮捕和定罪記錄、父母的犯罪記錄、郵政編碼和所謂的“社區(qū)混亂”。這些因素反映的是在有色人種社區(qū)的過(guò)度監(jiān)管和執(zhí)法行為以及種族制度導(dǎo)致的更廣泛的社會(huì)經(jīng)濟(jì)劣勢(shì)模式,而不是目標(biāo)人群的行為。換言之,數(shù)據(jù)更能預(yù)示被告所在社區(qū)的種族劣勢(shì)和警力分布,而不是其個(gè)人的行為。非洲裔被告被確定為未來(lái)暴力犯罪風(fēng)險(xiǎn)較高者的概率比白人高出77%,預(yù)測(cè)未來(lái)可能犯下任何類(lèi)型犯罪的可能性高出45%。
預(yù)測(cè)累犯的工具也是同樣。在美國(guó)的系統(tǒng)中,嫌疑人被捕后通常會(huì)得到一個(gè)分?jǐn)?shù),目的是預(yù)測(cè)他們未來(lái)犯罪的可能性。最常用的系統(tǒng)COMPAS提供的風(fēng)險(xiǎn)評(píng)估評(píng)分被用在刑事司法程序的每個(gè)階段。一項(xiàng)調(diào)查顯示,該系統(tǒng)存在明顯的種族偏見(jiàn),它錯(cuò)誤地將非洲裔被告標(biāo)記為未來(lái)的罪犯,這一比例幾乎是白人被告的兩倍。與此同時(shí),白人被告則常被誤認(rèn)為風(fēng)險(xiǎn)較低。由于這些評(píng)分標(biāo)準(zhǔn)固有的偏見(jiàn),犯罪嫌疑人即使無(wú)辜也會(huì)認(rèn)罪的現(xiàn)象并不罕見(jiàn)。
紐約城市大學(xué)教授杰西·丹尼斯一針見(jiàn)血地指出,數(shù)字技術(shù)的語(yǔ)言是美式英語(yǔ),網(wǎng)絡(luò)技術(shù)中充滿了美國(guó)式的規(guī)范,賦予美國(guó)科技行業(yè)不成比例的經(jīng)濟(jì)和政治權(quán)力,并在各種類(lèi)型的全球跨國(guó)公司中產(chǎn)生巨大影響力,通常反映了美國(guó)的帝國(guó)主義和白人至上主義的意識(shí)形態(tài)。普林斯頓大學(xué)教授魯哈·本杰明在《技術(shù)背后的種族:新吉姆守則的廢奴主義工具》中指出,算法黑箱將所謂的種族中立技術(shù)與法律和政策相聯(lián)系,成為白人至上主義的有力工具。美國(guó)應(yīng)正視自身種族歧視的系統(tǒng)性和結(jié)構(gòu)性缺陷,積極應(yīng)對(duì)數(shù)字技術(shù)帶來(lái)的治理挑戰(zhàn),采取迅速有效行動(dòng),防止和減少在新興數(shù)字技術(shù)使用和設(shè)計(jì)中產(chǎn)生種族歧視風(fēng)險(xiǎn),加強(qiáng)算法問(wèn)責(zé)。
版權(quán)聲明:凡注明“來(lái)源:中國(guó)西藏網(wǎng)”或“中國(guó)西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來(lái)源中國(guó)西藏網(wǎng)和署著作者名,否則將追究相關(guān)法律責(zé)任。