AI也會(huì )性別歧視嗎?

申晨 7年前 (2018-10-11)

今天路透社踢爆了亞馬遜用AI進(jìn)行招聘,進(jìn)而引發(fā)的可能歧視女性的新聞。

AI不乖了。

今天路透社踢爆了亞馬遜用AI進(jìn)行招聘,進(jìn)而引發(fā)的可能歧視女性的新聞。

對于一直尋求智能化的亞馬遜而言,僅在倉儲和物流管理上使用AI技術(shù)是遠遠不能滿(mǎn)足的,因此這項2014年啟動(dòng)的AI招聘原本是亞馬遜探尋進(jìn)一步智能化的實(shí)驗,卻偏偏出了簍子。

AI也會(huì )性別歧視嗎?

最初亞馬遜開(kāi)發(fā)團隊的想法是,使用AI進(jìn)行求職者簡(jiǎn)歷的篩選,可以更精確地找到匹配的頂尖人才,減少人力勞動(dòng),將招聘這件事變得更智能化。

它們在使用這個(gè)實(shí)驗性的招聘工具過(guò)程中,用AI為求職者打分,分數從一星到五星不等。開(kāi)發(fā)該程序的工程師表示,亞馬遜想要將這一程序打造成引擎,給該程序100份簡(jiǎn)歷,程序會(huì )列出前五人,其就會(huì )聘用列出的人才。

聽(tīng)上去非??釋Σ粚??但是,人算不如AI算。

在這項工具使用不長(cháng)時(shí)間后,亞馬遜發(fā)現他們使用AI系統的時(shí)候并未對軟件開(kāi)發(fā)人員和其他技術(shù)職位求職者進(jìn)行性別中立的評估。

這里面就存在兩個(gè)可能性問(wèn)題,一是樣本問(wèn)題,二則是AI系統有極大的BUG。

需要說(shuō)明的是,亞馬遜對這套系統采用的模型訓練方式是通過(guò)觀(guān)察過(guò)去10年被提交給亞馬遜公司的簡(jiǎn)歷中找出固有模式,以此篩選審查求職者。

而問(wèn)題就出在這里——在過(guò)去的10年中,提交給亞馬遜的簡(jiǎn)歷大部分來(lái)自男性,這就導致了亞馬遜使用的AI系統告訴自己男性求職者更受到青睞。

是亞馬遜歧視女性嗎?還是AI在歧視?

我們認為,這里面有三重因素。

首先,被提交給亞馬遜的應聘樣本多數是男性求職者,這與科技行業(yè)長(cháng)久以來(lái)更愿意錄用男性員工有關(guān)??峙驴萍夹袠I(yè)自身都產(chǎn)生了“誤會(huì )”,認為男性更能勝任,而女性則有更多顧慮。

其次,在被提交的樣本中,亞馬遜的系統采用了特別標志,會(huì )特別標志出“女性”,這在不經(jīng)意間已經(jīng)對樣本有了“性別歧視”。

最后,雖然亞馬遜對AI招聘的程序進(jìn)行了修正,試圖確保對特定術(shù)語(yǔ)保持中立。但事實(shí)上,這無(wú)法從根本上客觀(guān)呈現篩選結果的一視同仁。

換句話(huà)說(shuō),亞馬遜的這套AI招聘系統出現了“雞生蛋還是蛋生雞的”哲學(xué)性困惑。

如果不添加標簽進(jìn)行篩選,勢必無(wú)法達到精準匹配;

然而想要實(shí)現無(wú)差別對待,就勢必會(huì )出現不同領(lǐng)域的歧視??赡苁切詣e、也有可能是學(xué)校、甚至可能是個(gè)人興趣和生活習慣。

WHATEVER,這個(gè)鍋,AI逃不掉。

這不是AI第一次陷入“性別歧視”的風(fēng)波中。

今年夏天,據果殼網(wǎng)的報道,弗吉尼亞大學(xué)計算機系攻讀人工智能機器學(xué)習方向的博士趙潔玉接到了導師文森特•奧都涅茨(Vicente Ordóñez)給她的一個(gè)課題。

這個(gè)課題是關(guān)于圖形識別的AI,總是將男人認成女人。這在計算機視覺(jué)技術(shù)發(fā)展比較成熟的當下,顯得有些不可思議。有趣的是,AI發(fā)生認知錯誤有個(gè)共同點(diǎn):這些被誤認為女人的男人不是站在廚房就是在做家務(wù)。

AI也會(huì )性別歧視嗎?

這顯然不是程序的BUG,而是AI算法本身的問(wèn)題,它自動(dòng)的將女性和某些特定的元素聯(lián)系在一起,比如站在廚房燒飯的就一定是女性,最終形成了關(guān)于女性的“刻板成見(jiàn)”,甚至是某種性別歧視。

相似的事情也發(fā)生在微軟身上,之前他們在twitter上推出了一個(gè)少女聊天機器人Tay,微軟的原意是讓妹子和大家在網(wǎng)上談?wù)勑?,順便學(xué)習一下怎么交流,然而Tay聊著(zhù)聊著(zhù)卻學(xué)會(huì )了罵臟,比如咒罵女權主義者、支持納粹,種族歧視……

AI也會(huì )性別歧視嗎?

技術(shù)本身是中立的,但追根溯源的話(huà),AI也是從我們普通人身上“學(xué)習”了偏見(jiàn)或者歧視,當我們在訓練人工智能模型的時(shí)候,大量的數據標注結果再告訴AI,包含這些元素的可能98%是女性,最終關(guān)于性別的偏見(jiàn)不僅在數據庫里普遍存在,而且還會(huì )被AI放大。也就是說(shuō),技術(shù)人員用大量的數據看似訓練出“精準”算法,然而卻缺少對這些數據背后的社會(huì )現狀的思考。

不過(guò),這種現象也有可規避的方式。就像人的認識,我們可以在學(xué)習以及社會(huì )化的過(guò)程中,形成一個(gè)合理、乃至政治正確的價(jià)值觀(guān),同樣對于A(yíng)I,我們也有“糾錯”的方法。

我們認為:

1、增加對原材料的凈化,盡可能地減少樣本數據庫的偏差,包括擴大樣本的范圍以及多樣性,擴容數據庫。

2、增加樣本的現實(shí)影響因子,現實(shí)維度是反應社會(huì )價(jià)值取向、態(tài)度和引導方向的基礎。創(chuàng )建更好、更多樣化的數據集用于訓練算法,從樣本數據的層面去縮小算法可能存在的偏差。

3、用技術(shù)的方式去彌合算法的偏差,比如開(kāi)發(fā)某種系統來(lái)發(fā)現存在偏見(jiàn)的決策,并及時(shí)采取措施,比如采用貝葉斯(Bayesian)的方法確定某種假設的機率,并摒除可能存在的人類(lèi)偏見(jiàn)。

4、最為關(guān)鍵的一點(diǎn),解決AI歧視的本質(zhì)問(wèn)題,也就是人的改變。只有改變樣本數據在現實(shí)社會(huì )中的弊端作為,才能從源頭解決算法的歧視問(wèn)題。而機器,有時(shí)候也需要學(xué)會(huì )思考如何去擺脫人類(lèi)對它們造成的錯誤影響。

劍橋大學(xué)未來(lái)研究所教授魯恩•奈如普(Rune Nyrup)曾經(jīng)說(shuō)過(guò)“沒(méi)有事實(shí)上的技術(shù)中立。對機器來(lái)說(shuō),中立的就是占統治地位的。”而且,我們現在的人工智能,還遠遠沒(méi)到達到理解真善美、假惡丑的“抽象”地步。

算法的歧視,AI不背鍋。

最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長(cháng)按識別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅動(dòng)創(chuàng )新

分享到