AI性別歧視有救,MIT研究人員給出減少AI預測偏差新方法
該成果將于下個(gè)月在蒙特利爾的神經(jīng)信息處理系統(NIPS)上公布。
在社交媒體的應用場(chǎng)景中,人工智能算法模型的偏差導致搜索結果或用戶(hù)體驗不佳常常出現,甚至可以說(shuō)是無(wú)法規避,如人們熟知的大數據殺熟等??梢灶A見(jiàn),當AI應用到醫療保健、自動(dòng)駕駛汽車(chē)、刑事司法或刑事處理等場(chǎng)景中時(shí),更多關(guān)乎生命、公平、道德等的問(wèn)題將會(huì )出現。此前,亞馬遜用AI招聘出現了性別歧視問(wèn)題就是有力的證明。
在世界每一個(gè)角落部署AI,這可能導致持續的系統性歧視,為此MIT計算機科學(xué)人工智能實(shí)驗室(CSAIL)研究人員創(chuàng )造了一種減少AI偏差,同時(shí)又不降低預測結果準確性的方法。
據麻省理工學(xué)院教授DavidSontag所言,傳統方法可能建議將與多數人群相關(guān)的數據集隨機化,作為解決不同人群不平等結果的一種方法,但這種方會(huì )權衡較低的預測準確性,以實(shí)現所有人群的公平性,關(guān)鍵是從代表性不足的群體中挖掘更多數據。例如,研究人員發(fā)現,在一個(gè)案例中,AI模型將女性標記為低收入,男性標記為高收入,這是有失客觀(guān)性的,因此他們通過(guò)將數據集中女性的代表性提高10倍,達到了將不準確結果的數量減少了40%的效果。
Sontag在一份聲明中給出這一設計的簡(jiǎn)單解釋?zhuān)?ldquo;我們認為這是一個(gè)工具箱,可幫助機器學(xué)習工程師弄清楚他們的數據要問(wèn)什么問(wèn)題,以便診斷他們的系統為什么會(huì )做出不公平的預測。”
他進(jìn)一步解釋說(shuō):“在這項工作中,我們認為預測的公平性應該在數據的背景下進(jìn)行評估,并且樣本量不足或未測量的預測變量引起的不公平性應該通過(guò)數據收集來(lái)解決,而不是通過(guò)約束模型來(lái)解決。”
誠然,預測準確性的差異往往歸因于數據缺乏或不可測量的變量因素,因此該研究團隊建議在進(jìn)行公平標準評論之前,對模型偏差,模型方差和結果噪聲進(jìn)行AI模型分析。
對于這一研究的成本,Sontag表示,“這揭示并分離了數據收集不足和模型選擇對公平性的不利影響。為了追求公平,其成本也要納入到數據收集和模型開(kāi)發(fā)的投資。但在某些十分重要的應用程序中,其好處往往超過(guò)成本。“
在Sontag與其博士團隊一起撰寫(xiě)的論文中,有這一方法的詳細解釋。據悉,該成果將于下個(gè)月在蒙特利爾的神經(jīng)信息處理系統(NIPS)上公布。
最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅動(dòng)創(chuàng )新
