在性別和種族問(wèn)題上,人工智能能夠消除人類(lèi)的偏見(jiàn)嗎?
《科學(xué)》上發(fā)表的一項(xiàng)最新研究給我們潑了一盆冷水。普林斯頓大學(xué)信息技術(shù)政策中心計(jì)算機(jī)科學(xué)家Arvind Narayanan和他的同事們發(fā)現(xiàn),機(jī)器學(xué)習(xí)算法會(huì)輕易模仿其訓(xùn)練數(shù)據(jù)集中隱含的偏見(jiàn)。
他們從網(wǎng)上用爬蟲(chóng)收集了220萬(wàn)詞的英語(yǔ)文本,用來(lái)訓(xùn)練一個(gè)機(jī)器學(xué)習(xí)系統(tǒng)。結(jié)果,系統(tǒng)也會(huì)展示出了與這些文本相同的偏見(jiàn)。
在較為中性的例子中,人工智能系統(tǒng)更有可能將“花朵”和“音樂(lè)”與“愉快”聯(lián)系起來(lái),而“昆蟲(chóng)”或“武器”等不太愉快的詞不太可能建立這種聯(lián)系。但人工智能也也更有可能將歐洲裔美國(guó)人的名字與“快樂(lè)”聯(lián)系起來(lái),非洲裔美國(guó)人的概率較低。同樣地,這種算法往往會(huì)將“婦女”和“女孩”與藝術(shù)關(guān)聯(lián),而不會(huì)與數(shù)學(xué)關(guān)聯(lián)。
“在機(jī)器學(xué)習(xí)執(zhí)行的所有感知任務(wù)中,都應(yīng)該擔(dān)心它是否會(huì)體現(xiàn)人類(lèi)的偏見(jiàn)。”Narayanan說(shuō),“這可能會(huì)進(jìn)一步創(chuàng)造一種反饋回路,延續(xù)這些偏見(jiàn)。”
為了展示自然語(yǔ)言學(xué)習(xí)所能引發(fā)的偏見(jiàn),Narayanan和他的同事根據(jù)心理學(xué)家揭示人類(lèi)偏見(jiàn)時(shí)使用的內(nèi)隱聯(lián)想測(cè)驗(yàn)(IAT),創(chuàng)造了新的統(tǒng)計(jì)學(xué)測(cè)驗(yàn)。他們的成果發(fā)表在2017年4月14日出版的《科學(xué)》雜志上,這也是首份展示“文字嵌入”(word embedding)中體現(xiàn)的人類(lèi)偏見(jiàn)的科研成果。
所謂“文字嵌入”,其實(shí)是一種普遍應(yīng)用于機(jī)器學(xué)習(xí)和自然語(yǔ)言處理過(guò)程的統(tǒng)計(jì)建模技術(shù)。文字嵌入需要了解一個(gè)人的語(yǔ)言在空間上的不同點(diǎn),并通過(guò)重現(xiàn)幾何關(guān)系的方式來(lái)分析這些點(diǎn)之間的語(yǔ)義關(guān)系。
猶他大學(xué)計(jì)算機(jī)科學(xué)家Suresh Venkatasubramanian表示,人工智能從訓(xùn)練數(shù)據(jù)集中學(xué)會(huì)了偏見(jiàn)或許算不上令人震驚的發(fā)現(xiàn),但這項(xiàng)研究駁斥了之前的一個(gè)論調(diào):人工智能天生比人類(lèi)更加客觀。
由于人工智能在硅谷和世界各地的科技巨頭中十分流行,所以這項(xiàng)結(jié)果意義重大。
要理解潛在的影響,可能需要閱讀一下普利策獎(jiǎng)獲獎(jiǎng)文章《機(jī)器偏見(jiàn)》(Machine Bias),這個(gè)系列的文章展示了原本用來(lái)預(yù)測(cè)潛在犯罪分子的電腦程序是如何對(duì)黑形成偏見(jiàn)的。有鑒于此,一些研究人員考慮在部署機(jī)器學(xué)習(xí)算法的過(guò)程中,識(shí)別并減輕人類(lèi)偏見(jiàn)所產(chǎn)生的負(fù)面影響。
“訓(xùn)練流程和訓(xùn)練數(shù)據(jù)的好壞決定了最終的算法。”Venkatasubramanian說(shuō),“它們不會(huì)生來(lái)就自動(dòng)獲得客觀立場(chǎng)。”
哈弗福特學(xué)院計(jì)算機(jī)科學(xué)家Sorelle Friedler表示,這項(xiàng)新的研究邁出了重要的一步,揭示出各種機(jī)器學(xué)習(xí)中可能存在的語(yǔ)言偏見(jiàn)。作為機(jī)器學(xué)習(xí)公平、負(fù)責(zé)、透明小組的組織者,F(xiàn)riedler指出,過(guò)去的研究主要調(diào)查了已經(jīng)使用的特定機(jī)器學(xué)習(xí)算法的偏見(jiàn)。
“我很喜歡這項(xiàng)研究,因?yàn)樗麄儧](méi)有試圖調(diào)查單一的‘活躍’系統(tǒng),而是分析了很多活躍系統(tǒng)的一塊基石。”他說(shuō)。
Narayanan和他在普林斯頓大學(xué)及英國(guó)巴斯大學(xué)的同事首先采用了文字嵌入聯(lián)想測(cè)驗(yàn)(WEAT),以此復(fù)制以往的心理學(xué)研究中的種族和性別歧視例子。但他們還開(kāi)發(fā)了文字嵌入事實(shí)聯(lián)想測(cè)驗(yàn)(WEFAT),不僅僅局限于文字聯(lián)想。第二項(xiàng)測(cè)試顯示,機(jī)器學(xué)習(xí)語(yǔ)言聯(lián)想的統(tǒng)計(jì)學(xué)強(qiáng)度,與女性2015年在50種不同工作中占據(jù)的比例相關(guān)性極強(qiáng)。
就連研究人員都對(duì)語(yǔ)言使用和美國(guó)勞工部統(tǒng)計(jì)數(shù)據(jù)之間的強(qiáng)相關(guān)性感到意外。“完全根據(jù)語(yǔ)言使用來(lái)看,考慮職業(yè)與性別詞匯的使用關(guān)系,我們發(fā)現(xiàn)女性在任何一個(gè)職位上的相關(guān)性都達(dá)到90%。”Narayanan說(shuō)。
針對(duì)這項(xiàng)新研究開(kāi)發(fā)的統(tǒng)計(jì)測(cè)試,不僅暴露了機(jī)器學(xué)習(xí)領(lǐng)域的潛在偏見(jiàn)問(wèn)題,還可以成為一項(xiàng)有用的工具,用來(lái)分析特定社會(huì)偏見(jiàn)在文字發(fā)展史上的演變過(guò)程。正如研究人員證明的那樣,這些測(cè)試也有助于心理學(xué)實(shí)驗(yàn)室測(cè)試所揭露的偏見(jiàn)與現(xiàn)實(shí)世界的實(shí)際影響之間的相關(guān)性。(Narayanan將此歸功于他的同事多樣化的學(xué)術(shù)背景,該團(tuán)隊(duì)包括機(jī)器學(xué)習(xí)專(zhuān)家Aylin Caliskan和認(rèn)知科學(xué)家Joanna Bryson。)
使用機(jī)器學(xué)習(xí)技術(shù)——尤其是深度學(xué)習(xí)技術(shù)——的科技巨頭和創(chuàng)業(yè)公司,都應(yīng)該盡快克服其人工智能系統(tǒng)的潛在偏見(jiàn)。Friedler解釋道,人們現(xiàn)在逐步意識(shí)到這個(gè)問(wèn)題,并且開(kāi)始展開(kāi)針對(duì)性的討論,但尚未就如何處理偏見(jiàn)達(dá)成系統(tǒng)性的一致意見(jiàn)。
可以考慮從數(shù)據(jù)集中去掉偏見(jiàn)因素,但可能因此失去一些有用的語(yǔ)言和文化意義。人們需要作出艱難的道德抉擇,尋找具體的偏見(jiàn)和應(yīng)對(duì)策略,避免這些偏見(jiàn)對(duì)日漸強(qiáng)大、越發(fā)普及的人工智能系統(tǒng)產(chǎn)生負(fù)面影響。
“我們需要判斷哪些偏見(jiàn)在語(yǔ)言上有用,哪些會(huì)產(chǎn)生社會(huì)問(wèn)題。”Friedler說(shuō),“如果我們認(rèn)為存在社會(huì)問(wèn)題,就應(yīng)該有意識(shí)地移除這些信息。”
來(lái)源:量子位