人工智能為你做主:AI能否改變求職不公與偏見(jiàn)?

鎂客 9年前 (2016-05-24)

數據算法和面部情感識別結果:大學(xué)成績(jì)不重要,重要的是個(gè)人動(dòng)機、勇氣和同理心,以及你不是個(gè)壞人。

人工智能為你做主:AI能否改變求職不公與偏見(jiàn)?

人工智能算法不僅能考慮更多關(guān)于求職者的信息,還能做出比人類(lèi)更客觀(guān)的判斷。

“是數據令牌將你濃縮成為了數據對象。”Pete Kazanjy 如是說(shuō),他創(chuàng )立了提供社交網(wǎng)絡(luò )招聘服務(wù)的公司TalentBin(現已成為美國知名度最高的招聘網(wǎng)站Monster的一部分)。這在硬性的數字指標上尤其正確,谷歌的力資源部門(mén) People Operations 的高級副總裁 Laszlo Bock 在 2013 年接受《紐約時(shí)報》采訪(fǎng)時(shí)說(shuō):“我們從我們的數據處理中看到:GPA 在作為招聘指標上毫無(wú)價(jià)值,考試成績(jì)也沒(méi)有價(jià)值。”

越來(lái)越多招聘領(lǐng)域的科技公司正在努力挖掘更多關(guān)于求職者的信息——調查、工作樣本、社交媒體帖子、用詞選擇、甚至面部表情。在人工智能的幫助下,他們希望在評估求職的工作技能的同時(shí)了解他的同情心、勇氣和偏見(jiàn)等個(gè)人特質(zhì),從而在更豐富的信息的基礎上更深入地了解該候選者是否合適其應聘的工作。“這將在未來(lái)幾年內迎來(lái)爆發(fā),”成立于 2013 年的基于人工智能的評估公司 Koru 的 CEO Kristen Hamilton 說(shuō),“我們已經(jīng)將這種數據導向的方法應用到了我們公司和業(yè)務(wù)的每一個(gè)其它方面。”我們來(lái)看看這些人工智能驅動(dòng)的評估方法,看它們如何看到求職者、如何看到招聘中的“科學(xué)”。

機械化與古老的實(shí)踐

HireVue 公司 CEO Mark Newman 說(shuō),深入理解求職者的心思并不是什么新鮮想法。HireVue 成立于 2004 年,是使用人工智能進(jìn)行招聘工作方面一家先驅公司;其專(zhuān)長(cháng)是通過(guò)視頻分析了解個(gè)人的特質(zhì),包括工作傾向度、動(dòng)機和同情心。(盡管它也使用書(shū)面文字進(jìn)行評估。)該公司所分析的數據包括用詞選擇、說(shuō)話(huà)速度、甚至微表情(稍縱即逝的面部表情)。而且和大部分我有聊過(guò)的公司一樣,該公司也尚未實(shí)現盈利。

第二次世界大戰之后,招聘的方法中包含了類(lèi)似麥爾斯-布瑞格斯性格測試等工具,另外還有結構化的行為面試:詢(xún)問(wèn)每一位候選者同樣的問(wèn)題,然后將他們進(jìn)行客觀(guān)比較。另一種經(jīng)典的深度了解工具是工作樣本測試——執行工作中的模擬任務(wù),比如讓軟件開(kāi)發(fā)者寫(xiě)代碼或讓客服代表接聽(tīng)(假的)憤怒顧客來(lái)電。但這些評估策略所使用的人卻是很繁忙的,而且可能是帶有偏見(jiàn)的。

“結構化面試好多了,比非結構化面試更少偏見(jiàn)。”Newman 說(shuō),“但由于人類(lèi)的本性,很多招聘經(jīng)理仍然將個(gè)人偏見(jiàn)帶進(jìn)了結構化面試中。”而且工作樣本評分的工作會(huì )讓軟件工程師等員工從自己真正的工作中脫離。但如果不知疲倦的機器能夠取代負擔過(guò)重的人類(lèi)呢?Newman 說(shuō):“這是使用今天的技術(shù),推動(dòng)已存在了 50 年的科學(xué)。”

如果機器能做這些工作,那這些自動(dòng)招聘經(jīng)理能做到何種程度?Kazanjy 說(shuō)它們至少能剔除那些沒(méi)有足夠的技能勝任工作崗位的人。

成立于 2015 年 7 月的 Interviewed 公司提供了幾個(gè)層次的測試方法。首先是了解求職者對如 Microsoft Excel 或 Salesforce 等軟件的了解程度的選擇題。Kazanjy 認為該軟件甚至可以走得更遠,例如評估程序員。“代碼樣本中的錯誤可以通過(guò)編程方式檢測,書(shū)寫(xiě)的英語(yǔ)樣本中的拼寫(xiě)和語(yǔ)法錯誤同樣也可以通過(guò)編程方式檢測,”Kazanjy 說(shuō),“你不能自動(dòng)在 A+、B+ 和 B 的工作之間做出評價(jià),但也許你可以直接剔除 C 的工作。”

識別危險信息

但企業(yè)考慮員工時(shí)不只會(huì )看技能,還要了解他們是否是種族主義者、性別歧視者或有暴力傾向。一家名叫 Fama 的公司試圖通過(guò)自動(dòng)網(wǎng)頁(yè)搜索進(jìn)行判斷,其搜索范圍包括相關(guān)的新聞報道、博客、社交網(wǎng)絡(luò )(如 Facebook、Google+、Instagram 和 Twitter)等。Fama CEO 兼創(chuàng )始人 Ben Mones 說(shuō):“43% 的企業(yè)在使用社交網(wǎng)絡(luò )篩選求職者。”

公司擅自對求職的社交網(wǎng)絡(luò )進(jìn)行調查可能會(huì )違反法律,如美國 1970 年頒布(已經(jīng)過(guò)多次修訂)的《公平信用報告法(FCRA)》讓消費者有權利就用于就業(yè)調查和信用評估中其公開(kāi)信息的準確性提出挑戰。Mones 說(shuō),Fama 遵守 FCRA 的規定,例如在其收集求職者的信息時(shí)通知他們、取得他們的同意、并向他們分享結果以便他們有機會(huì )做出回應。

成立于 2015 年 1 月的 Fama公司,通過(guò)挖掘語(yǔ)言和照片讓雇主在招聘中可以考慮到以下信息:偏執、暴力、猥褻、性違法問(wèn)題、酒精使用、毒品使用或交易。該公司雇傭了數十人來(lái)閱讀社交網(wǎng)絡(luò )上的帖子,尋找分類(lèi)與評級冒犯性?xún)热莸姆椒?,然后再使用這些結果訓練其自然語(yǔ)言處理(NLP)人工智能執行同樣的工作。

我請 Fama 為我生成一份報告。軟件拉出了我的幾篇文章,并標記了幾條我對“占領(lǐng)華爾街”運動(dòng)的幾條辛辣的推文,還加上了我對“damn(該死)”這個(gè)詞的使用。“我們不對求職者評分,”Mones 說(shuō),“我們只是提供了一種自動(dòng)化過(guò)濾的方法,通過(guò)它你可以在社交網(wǎng)絡(luò )的海洋中撈到那些針。”

“我們根據很長(cháng)時(shí)間的行為歷史創(chuàng )建評估,”Pete Kazanjy 說(shuō),“如果某人在 3000 條推文之前發(fā)了一些種族主義的言論,你找不到它,但機器可以。”今年夏天,Fama 預計還將推出標記求職者的正面特質(zhì)的功能,比如關(guān)于志愿者工作的帖子。

獲得合適的匹配

正面特質(zhì)是 Interviewed 公司消費者服務(wù)類(lèi)工作的測試中很重要的部分,在測試中,求職者會(huì )與代表客戶(hù)的軟件機器人使用文本或電話(huà)聊天。Interviewed 的客戶(hù)包括 IBM、Instacart、Lyft 和 Upwork,而且該公司表示已接近于盈利了。Interviewed 正在開(kāi)始自動(dòng)化某些技能的評估,該公司創(chuàng )始人兼 COO Chris Bakke 將這些技能成為“軟技能”(如:善解人意)的評估。公司要求招聘經(jīng)理查看測試成績(jì)單,并以 1-5 分的標準評估候選者在軟技能上的得分,然后 Interviewed 再使用機器人學(xué)習,應用自然語(yǔ)言處理、尋找大量數據中的模式。Bakke 說(shuō):“我們發(fā)現,當一位客戶(hù)支持崗位的應聘者在對話(huà)中包含了三次‘請’、‘謝謝’或某種形式的道歉(‘我很抱歉’)時(shí),招聘經(jīng)理和面試者就會(huì )有四倍的可能性,更傾向于認為和評價(jià)其是善解人意的。”Bakke 將這種數據指導稱(chēng)為結構化的人工審核過(guò)程:人類(lèi)仍是關(guān)鍵。

人工智能為你做主:AI能否改變求職不公與偏見(jiàn)?

Interviewed 的系統中,招聘經(jīng)理創(chuàng )建的招聘報道節選。從左到右列分布為維度、打星評分、百分百和分數。其中,維度包括整體評分、溝通技能、視頻技術(shù)、細節關(guān)注度、同理心、職業(yè)精神等。圖片來(lái)源:Fast Company。

Bakke 說(shuō),隨著(zhù) Interviewed 收集的數據越來(lái)越多,其評估也變得越來(lái)越復雜,并在逐漸從技能測試,進(jìn)化到評估一位候選者是否適合該組織的文化。這一進(jìn)步使其進(jìn)入了 RoundPegg 等公司所在的領(lǐng)域。其在線(xiàn)的 CultureDNA Profile(文化基因檔案)是從看起來(lái)像是冰箱上的便條開(kāi)始的。從 36 個(gè)選項中,用戶(hù)將類(lèi)似“公正”、“以團隊為先”和“表現好收入高”的詞或短語(yǔ)拖動(dòng)到他們 9 個(gè)最重要的價(jià)值和 9 個(gè)最不重要的價(jià)值的空格中。RoundPegg 財務(wù)總監 Mark Lucier 說(shuō):“你在最類(lèi)似于你的環(huán)境中,表現最出色。”成立于 2009 年的 RoundPegg 已經(jīng)吸引了一些大牌的客戶(hù),如 Experian、??松梨诠?、Razorfish、施樂(lè )、甚至 HireVue。

RoundPegg 的工作有點(diǎn)類(lèi)似于基于調查的交友網(wǎng)站 OK Cupid:客戶(hù)通過(guò)對當前員工的測試確定其公司的文化。然后對申請人進(jìn)行評估,看其個(gè)性與公司文化的匹配程度如何。我在該測試上花費了大約五分鐘時(shí)間,我發(fā)現我比全國 95% 的人都更喜歡一種“培育(Cultivation)”特征的公司文化,即“關(guān)注成長(cháng)的潛在和提供的機會(huì ),規則和控制的重要性更少”。在另外三種文化中,我在“合作(Collaboration)”上得分為63,在“勝任(Competence,希望在其領(lǐng)域內成為專(zhuān)家的人)”上得分為 62,在“命令(Command,角色有明確的定義,且系統和政策到位以確保每一次都按照同樣的方法完成)”上得分為 20。對于我這樣一個(gè)離開(kāi)辦公室工作從事自由寫(xiě)作的人來(lái)說(shuō),這樣的評價(jià)似乎是正確的。

人工智能為你做主:AI能否改變求職不公與偏見(jiàn)?

對有希望的候選者,RoundPegg 生成的詳細后續測試,其中有一個(gè)這樣的問(wèn)題:回想一個(gè)過(guò)往的情景,當你合作的同事或團隊更重視、鼓勵團隊成功而非個(gè)人成功。請描述一個(gè)這樣的具體案例,該情景對你帶來(lái)什么樣的問(wèn)題,并且你如何解決這個(gè)問(wèn)題。圖片來(lái)源:Fast Company。

然后 ,RoundPegg 通過(guò)個(gè)性化測試幫助企業(yè)更深入地挖掘,以評估不適合該公司的價(jià)值觀(guān)的“風(fēng)險”。我的評估表明,我不認為團隊成功優(yōu)先于個(gè)人成功。為了進(jìn)步一確認這一點(diǎn),軟件建議公司在面試中向我提問(wèn),過(guò)去在團隊導向的環(huán)境中是怎么處理工作的。

獲得正確的員工

Koru 公司則更進(jìn)一步,它不僅可以評估一個(gè)人是否適合某個(gè)工作,還可以評估他是否擅長(cháng)這個(gè)崗位要求的技能。該公司最開(kāi)是為大學(xué)畢業(yè)生提供培訓計劃,教導大學(xué)畢業(yè)生發(fā)展 7 種名字模糊的能力,如勇氣(Grit)、優(yōu)雅(Polish)和影響力(Impact)。之后 Koru 擴張到了求職者測試領(lǐng)域,可以通過(guò)收集和檢測一堆數據來(lái)評估這些能力。雇主可以基于 Koru 的個(gè)人特質(zhì)得分對求職者進(jìn)行評估,可以代替豐富的工作經(jīng)驗。

人工智能為這樣的測試提供了支持,Kristen Hamilton 說(shuō),因為其針對不同類(lèi)型工作中最成功的人的特質(zhì),進(jìn)行逆向工程,以此為基礎。使用 Koru 的服務(wù)公司包括 REI、Zillow、Yelp、Airbnb、Facebook、LinkedIn、Reebok 和 McKinsey & Company。

“他們告訴我們誰(shuí)在不同水平上表現良好,然后我們說(shuō),好,讓我們在這個(gè)數據集中尋找模式。”Hamilton 說(shuō)。她與 Josh Jarrett 聯(lián)合創(chuàng )立了 Koru,Jarrett 是比爾和梅林達·蓋茨基金會(huì )的下一代學(xué)習挑戰計劃的負責人。

逆向工程也是 HireVue 哲學(xué)的主要部分。“在我們整個(gè)數據庫中,我們有幾千萬(wàn)個(gè)面試問(wèn)題的回答……每個(gè)回答都有豐富的信息,可供我們參考了解。”Newman 說(shuō),“所以,當你分析這些碎片并跟蹤結果,你就從中開(kāi)始建立這些真正的高度預測的驗證模型。”Bakke 說(shuō) Interviewed 也正向著(zhù)同樣的方向發(fā)展。

人工智能為你做主:AI能否改變求職不公與偏見(jiàn)?

Koru 的評估包含一些直覺(jué)的選擇。你更同意以下哪個(gè)稱(chēng)述?

選項一:我可以通過(guò)人們的語(yǔ)調知道他們的感受;

選項二:我傾向于講究細節。

和 RoundPegg 的五分鐘測試不同,在 Koru 的測試中我用了 30 分鐘回答了 82 個(gè)問(wèn)題,并錄制了一段 2 分鐘的視頻。其中一些問(wèn)題有點(diǎn)讓人頭疼。你更同意以下哪個(gè)稱(chēng)述?“我喜歡看到我的努力取得的切實(shí)成果”還是“如果我不明白,我不害怕提問(wèn)”。我也需要處理場(chǎng)景的問(wèn)題,例如如果我們沒(méi)有足夠的時(shí)間完成一個(gè)大項目,我如何應對我的團隊和老板,然后從四個(gè)選項中選擇一個(gè)。

在總分 10 分的評估中,我得分最高的三項影響力技能中,有得分“非常高”的“優(yōu)雅”(有效溝通)和“好奇心”(兩者均為 8.3 分),“勇氣”上得分為“高”(6.7 分),其如此描述:“當事情變得艱難時(shí),繼續堅持的能力。當方向不明確時(shí),應聘者可以解決模糊的情況。”

“作為一位組織心理學(xué)家,我的問(wèn)題是,你說(shuō)你能測量各種花哨的流行詞,隨便你愛(ài)怎么說(shuō)好了。”IBM Kenexa Smarter Workforce 部門(mén)員工聲音和評估主管 Jay Dorio 說(shuō),勇氣是一個(gè)很棒的特質(zhì),但他將其稱(chēng)之為“多余的時(shí)髦東西”,可能帶來(lái)不良的影響——看起來(lái)中立的招聘標準,當做法律術(shù)語(yǔ)卻可能是歧視性的。

人力資源服務(wù)商 Kenexa 在使用人工智能上也很謹慎——作為 IBM 公司的一個(gè)部門(mén)來(lái)說(shuō)算是很謹慎,要知道,該公司正在推廣其部署人工智能平臺 Watson Analytics(沃森分析) 的新方式。Dorio 說(shuō),Kenexa 在一些產(chǎn)品上使用了沃森,比如分析員工調查的結果,但不使用人工智能對員工進(jìn)行評估。

Koru 的 Hamilton 具體提到了負面影響。他解釋說(shuō):“我們已經(jīng)進(jìn)行了多個(gè)研究小組的研究,確認我們的評估不會(huì )對申請者帶來(lái)負面影響。”事實(shí)上,一種數據驅動(dòng)的方法很有可能是更客觀(guān)的。她說(shuō):“有一些招聘過(guò)程其實(shí)一點(diǎn)也不復雜,比如說(shuō)我們喜歡足球運動(dòng)員,因為他們從不放棄,那么,我們就招募足球運動(dòng)員吧。”

這并不是笑話(huà)。Pete Kazanjy 說(shuō),運動(dòng)員經(jīng)歷已經(jīng)被當做作為評估求職者的標準,這已經(jīng)有一段時(shí)間了。具備這種經(jīng)歷的人被認為是有高競爭力的、愿意接受教導、有能力依靠自己思考。“他們也許是對的,但是要說(shuō)一個(gè)上過(guò)物理課的運動(dòng)員或一個(gè)足球運動(dòng)員,會(huì )不會(huì )成為更好的員工或更好的執行者,他們完全是在猜測。”Hamilton 說(shuō),“我們使用科學(xué)的方法檢查任何我們希望考慮的輸入……并確定它們的預測能力。”

最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長(cháng)按識別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅動(dòng)創(chuàng )新

分享到