谷歌AI倫理團隊鬧劇仍未完結,巨頭們所說(shuō)的“科技向善”還能相信嗎?
AI給我們帶來(lái)絢麗而又方便生活的背后,是對社會(huì )造成潛在傷害的陰影。
近期,谷歌AI倫理團隊(Ethical AI group)的“連續劇”又有了新料:谷歌下屬機構——谷歌大腦(Google Brian)的知名機器學(xué)習專(zhuān)家Samy Bengio宣布本月底將從谷歌離職。外界普遍認為,這是他對谷歌此前解雇兩名AI倫理研究者的抗議。
在諸多媒體的筆下,該事件正成為一場(chǎng)娛樂(lè )大眾的鬧劇,充滿(mǎn)了“氣急敗壞的巨頭公司”、“犧牲自己做出反抗”、“不畏強權的平民英雄”等等觀(guān)眾喜聞樂(lè )見(jiàn)的元素。
不過(guò),較少有人注意到這件事背后的一些關(guān)鍵詞,例如AI倫理、人工智能、種族歧視、少數群體和算法等等。盡管這些詞我們早已經(jīng)司空見(jiàn)慣,但它們距離現實(shí)的生活卻顯得遙遠且無(wú)從觸及。
格奧爾格曾在詩(shī)中寫(xiě)道:“詞語(yǔ)破碎處,無(wú)物可存在”。想要真正吃好谷歌AI倫理團隊的瓜,還得從AI這個(gè)詞講起。
AI的三次浪潮:從學(xué)界走向業(yè)界
AI,即ArtificialIntelligence,中文通常翻譯為人工智能。在相關(guān)科學(xué)技術(shù)仍在迅猛發(fā)展的今天,我們還不能給AI下一個(gè)本質(zhì)性的定義。不過(guò),今天人工智能已經(jīng)覆蓋到了我們生活的方方面面,哪怕是從個(gè)人的角度,我們也可以在許多場(chǎng)景中觸摸到它的影子。
比如我們手機支付需要用到的指紋和人臉識別,新聞客戶(hù)端中“千人千面”的信息流、外賣(mài)軟件中的個(gè)性化推薦等等。
不過(guò),從學(xué)界到業(yè)界,人工智能的誕生與發(fā)展并非一帆風(fēng)順的連續不斷,深入到我們生活中也只不過(guò)是最近十幾年的事情。這里需要簡(jiǎn)單回顧一下人工智能發(fā)展的三次浪潮,而這也正是構成如今人工智能倫理問(wèn)題的底層邏輯。
現在普遍認為,“人工智能”這一概念最早出自1956年美國的達特茅斯會(huì )議上。
2006年,五十年后,達特茅斯會(huì )議當年的與會(huì )者重聚。
左起:摩爾,麥卡錫,明斯基,賽弗里奇,所羅門(mén)諾夫
1956年的夏天,被后人認為是最早提出人工智能這一概念的約翰·麥卡錫,組織了一場(chǎng)“人工智能夏季研討會(huì )”(Summer Research Project on Artificial Intelligence),會(huì )議主要探討如何讓機器模仿人的智能。
但兩個(gè)月過(guò)去,會(huì )議最終也沒(méi)有達成共識。不過(guò),對這一問(wèn)題的探索以及提出建立人工智能這一學(xué)科,也就使1956年成為了人工智能元年。人工智能的三次發(fā)展浪潮也就隨之而來(lái)。
第一次浪潮:20世紀50到60年代,這段時(shí)間內科學(xué)家們在探索如何讓機器具備邏輯推理能力,并且成功研發(fā)出第一款感知神經(jīng)網(wǎng)絡(luò )軟件和聊天軟件。
第二次浪潮:20世紀 70 年代中期,這段時(shí)間學(xué)界提出了Hopfield神經(jīng)網(wǎng)絡(luò )和BT訓練算法,解決特定領(lǐng)域的專(zhuān)家系統問(wèn)世并得到廣泛應用。
第三次浪潮:進(jìn)入到2006年,人工智能再次迎來(lái)新發(fā)展?;ヂ?lián)網(wǎng)、云計算、大數據、芯片等新興技術(shù)都為AI產(chǎn)業(yè)發(fā)展提供充足的數據支持和算力支撐。深度學(xué)習大放異彩,算法的應用被普及到許多行業(yè)。
最近幾年,計算機視覺(jué)、自然語(yǔ)言處理、智能芯片、腦機接口等人工智能技術(shù)的分支,都獲得了不同程度的突破。
不過(guò),隨著(zhù)技術(shù)走向尖端,曾經(jīng)“野蠻生長(cháng)”的人工智能技術(shù),如果想要百尺竿頭更進(jìn)一步,學(xué)界的資源已無(wú)法滿(mǎn)足。目前人工智能已經(jīng)逐漸從學(xué)界主導轉移向業(yè)界主導,商業(yè)化的同時(shí)也背負上了爭議。隨著(zhù)AI走進(jìn)我們生活的方方面面,這種爭議聲也就越來(lái)越大。
陽(yáng)光下的陰影:強大的滲透力讓AI成了“雙刃劍”
人工智能在科學(xué)層次的發(fā)展帶動(dòng)了相關(guān)技術(shù)的成熟。隨著(zhù)人工智能多個(gè)分支研究的精進(jìn),其中較為成熟的技術(shù)就逐漸進(jìn)入到我們的生活當中。隨著(zhù)人工智能的覆蓋面越來(lái)越廣,對個(gè)人、企業(yè)乃至社會(huì ),都正發(fā)揮著(zhù)越來(lái)越重要的作用。
伴隨人工智能地位的提高,人工智能產(chǎn)業(yè)巨大的經(jīng)濟潛力也慢慢浮現出來(lái)。據統計,僅2020年,全球人工智能產(chǎn)業(yè)規模就達1565億美元,同比增長(cháng)率是12%,中國人工智能產(chǎn)業(yè)規模大約3100億元人民幣,同比增長(cháng)15%。另有統計稱(chēng),全球人工智能產(chǎn)業(yè)未來(lái)的趨勢仍是穩步向上。
巨大的利益背后,自然少不了科技巨頭們的身影。之前說(shuō)過(guò),限于研發(fā)資源的門(mén)檻,目前人工智能的發(fā)展已經(jīng)逐漸從學(xué)界主導走向了業(yè)界主導。目前像IBM、谷歌、亞馬遜、微軟和Facebook等巨頭,是少數擁有足夠資源投入對人工智能進(jìn)行開(kāi)發(fā)的公司。
但這些公司對人工智能的研發(fā)投入并非出于對科學(xué)的追求,而是希望技術(shù)革新能夠給公司帶來(lái)豐厚的回報。這本無(wú)可厚非,不過(guò)人工智能的特殊之處就在于,當公司因其而獲益時(shí),有可能是以傷害社會(huì )為代價(jià)。
例如作為人工智能重要分支之一的人臉識別,就曾被指存在“種族偏見(jiàn)”而在多個(gè)國家引起過(guò)爭議。據外媒表示,目前像美國各地警方以及FBI等執法部門(mén)存在高度依賴(lài)人臉識別技術(shù)來(lái)協(xié)助犯罪調查的現象,但出現了多起涉及有色人種的誤判,引起了廣泛的批評甚至是抵制。
美國波士頓市,就在去年6月通過(guò)了《波士頓禁止人臉監控技術(shù)條例》來(lái)抵制人臉識別在該市的應用。法案中稱(chēng),“人臉識別技術(shù)在識別非裔和亞裔群體時(shí)準確率更低。人臉識別監控中的種族偏見(jiàn)有可能傷害有色人種群體。”
這種批評和抵制并不是對技術(shù)的偏見(jiàn)。事實(shí)上,巨頭們的技術(shù)目前還沒(méi)有那么完善,對有色人種的誤判的確存在,而這有可能助推社會(huì )的撕裂。
回到谷歌AI倫理團隊的系列鬧劇中,首個(gè)被谷歌解雇的Timnit Gebru,就曾因揭露面部識別系統中的種族和性別偏差而聞名。而本次害她丟掉工作的導火索,是她的郵件內容中涉及了對谷歌AI倫理現存問(wèn)題的不滿(mǎn)。這不禁讓我們沉思,AI倫理問(wèn)題是巨頭們的“逆鱗”嗎?
巨頭口中的“科技向善”,真能實(shí)現嗎?
實(shí)際上,為了消除外界的質(zhì)疑,巨頭們也做出了很多努力。像2014年谷歌收購人工智能公司DeepMind時(shí),就要求后者成立倫理和安全委員會(huì ),來(lái)監督公司的AI研發(fā)方向。微軟在2018年也成立了人工智能倫理道德委員會(huì )AETHER,意圖來(lái)規范公司在人工智能方向的業(yè)務(wù)。
2016年時(shí),亞馬遜,微軟,谷歌,IBM和Facebook還聯(lián)合成立了一家非營(yíng)利性的人工智能合作組織(Partnership on AI),推進(jìn)AI研究的同時(shí)也希望針對倫理挑戰能做出解決方案。后面,蘋(píng)果、百度、英特爾、Salesforce、eBay、索尼、SAP、麥肯錫、Zalando和Cogitai等企業(yè)也紛紛加入該組織。
但問(wèn)題是,目前人工智能的問(wèn)題涉及的非常廣泛。除了偏見(jiàn)歧視,像人工智能作惡(如機器人在戰爭中的潛在應用)、責任歸屬(如無(wú)人車(chē)交通意外)、過(guò)度依賴(lài)(如算法造成的“信息繭房”現象)和技術(shù)鴻溝(如本次疫情中部分老年人對“健康碼”等要求的手足無(wú)措),都是AI給我們帶來(lái)絢麗而又方便生活背后的陰影。那么,企業(yè)自身對AI的倫理研究與問(wèn)題管控,真的可行嗎?
本次谷歌AI團隊的風(fēng)波,就把現實(shí)更真實(shí)地擺在了每個(gè)人面前:無(wú)論像谷歌等巨頭公司的承諾多么真誠,被企業(yè)所資助的研究,可能永遠無(wú)法逃離資本的權力邊界。
最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅動(dòng)創(chuàng )新
