算法時(shí)代七大主題,數據與模型將操控人類(lèi)

韓璐 8年前 (2017-02-20)

根據全球權威調查機構皮尤研究所發(fā)布的報告《算法時(shí)代》,千余專(zhuān)家中僅38%的人預測算法的積極影響將超過(guò)其負面影響。

算法是解決問(wèn)題或完成任務(wù)的指示說(shuō)明。配方是算法,數學(xué)公式也是算法。計算機代碼還是算法?;ヂ?lián)網(wǎng)依靠算法運行,所有的在線(xiàn)搜索都通過(guò)算法完成。有了算法,電子郵件才知道發(fā)去哪里。智能手機的應用程序不是別的,就是算法。計算機和視頻游戲是算法寫(xiě)就的故事。如果沒(méi)有了算法,在線(xiàn)約會(huì )、薦書(shū)系統和旅行網(wǎng)站將無(wú)法運行。GPS 地圖系統通過(guò)算法讓人從 A 移動(dòng)到 B。人工智能(AI)也是算法。人們在社交媒體上看到的東西是通過(guò)算法被呈現于他們眼前。實(shí)際上,人們在網(wǎng)絡(luò )上所見(jiàn)的和所做的一切都是算法的產(chǎn)物。電子表格每做一次排序,都需要用到算法,如今大多數金融交易都通過(guò)算法完成。是算法幫助各種設備響應語(yǔ)音命令、識別面部、排序照片,創(chuàng )造并且駕駛汽車(chē)。算法會(huì )遭遇黑客襲擊、網(wǎng)絡(luò )攻擊和破解加密代碼的侵襲。自學(xué)習算法和自編程算法正在興起,在未來(lái)很多算法將由算法編寫(xiě)完成。

算法通常是你完成任務(wù)時(shí)會(huì )用到的優(yōu)雅而極其有用的工具。算法大多是看不見(jiàn)的,它們以不可思議的方式在增強人類(lèi)的生活。然而,有時(shí)候好意開(kāi)發(fā)的算法制作的應用程序卻會(huì )導致意想不到的后果。最近的一些例子包括:

• 2016年10月7日,英鎊價(jià)值下跌6.1%,部分是因為算法觸發(fā)的貨幣交易。

• 去年春天,微軟開(kāi)發(fā)了Twitter機器人“Tay”與千禧一代聊天,但不出幾個(gè)小時(shí),Tay 便頻頻爆出種族主義、性別歧視、否認納粹大屠殺的推文,原因是它根據算法“學(xué)習”那些發(fā)送給它的內容,并以此回復他人。

• Facebook 想要推出一個(gè)根據信息流突出流行話(huà)題的功能。他們先是請人來(lái)編輯,但有人指出人類(lèi)編輯針對保守派觀(guān)點(diǎn)存在偏見(jiàn)后,Facebook 就讓算法來(lái)完成這項工作,結果發(fā)現無(wú)法辨別假新聞。

• 《數學(xué)破壞性武器:大數據如何增加不平等和威脅民主》一書(shū)作者 Cathy O'Neil 指出,基于算法的預測分析往往會(huì )剝削窮人,在書(shū)中她以算法招聘為例討論了這一點(diǎn)。

• 善意的算法可能遭到惡人破壞。DNS 是互聯(lián)網(wǎng)流量處理程序,2016年10月21日,黑客轟炸 Dyn DNS 使其信息過(guò)載,美國東海岸地區互聯(lián)網(wǎng)網(wǎng)速全面減緩,由此開(kāi)啟了使用聯(lián)網(wǎng)設備進(jìn)行互聯(lián)網(wǎng)攻擊的全新時(shí)代?;ヂ?lián)網(wǎng)安全專(zhuān)家 Bruce Schneier 在同年9月警告說(shuō),“有人在學(xué)習如何弄垮整個(gè)互聯(lián)網(wǎng)”。在2016年美國總統選舉期間,濫 Facebook 的新聞流算法和一般的在線(xiàn)假新聞算法引發(fā)了巨大的爭議。

• 研究員 Andrew Tutt 呼吁成立“算法 FDA”,Tutt 指出:“越來(lái)越復雜的算法的出現,使我們需要就如何最好地預防、阻止和補償它們造成的危害進(jìn)行批判性的思考……制定與算法相關(guān)的法規將需要采取聯(lián)邦統一手段、專(zhuān)家的判斷、政治獨立性和前期市場(chǎng)審查,在不扼殺創(chuàng )新的前提下,防止將危險算法引入市場(chǎng)。

• 白宮于2016年10月發(fā)布了兩份報告,詳細介紹了算法和人工智能的發(fā)展以及解決與之相關(guān)的問(wèn)題的計劃,并在12月還發(fā)布了一份報告,概述了 AI 驅動(dòng)自動(dòng)化對美國就業(yè)市場(chǎng)和經(jīng)濟的潛在影響。

• 2017年1月17日,Future of Life Institute 發(fā)布了有益人工智能原則的 23 條軍規,包括霍金、馬斯克、庫茲韋爾等數百名世界上最重要的人工智能研究人員在內的1600多人簽署了這份文件。

企業(yè)和政府正在創(chuàng )造、抓取和分析大量的數據,算法的使用也愈發(fā)普及。有些人將這稱(chēng)之為算法時(shí)代(Age of Algorithms),并預測這一與機器學(xué)習深度學(xué)習相關(guān)的算法未來(lái),將以前所未有的速度實(shí)現社會(huì )的進(jìn)步。

在 2016 年美國總統大選結束后,鑒于網(wǎng)絡(luò )工具在這場(chǎng)選舉中所發(fā)揮的重大作用,有很多分析都指出這些工具將對未來(lái)產(chǎn)生革命性的影響。但是,XPrize 基金會(huì )首席執行官 Peter Diamandis 預測,技術(shù)的發(fā)展將令這次選舉在技術(shù)含量上黯然失色。Diamandis 表示,計算以及嵌入在物聯(lián)網(wǎng)系統和設備中的 AI 和 AI 代理的快速演變,將帶來(lái)對選民的超級跟蹤、影響和塑造,以及超級個(gè)性化的廣告,并將創(chuàng )造出全新的方式歪曲現實(shí),將虛假信息固定為永恒。

算法時(shí)代七大主題

主題1:算法將無(wú)處不在

• 可見(jiàn)和不可見(jiàn)的好處將加深人類(lèi)對世界的認知

• 很多算法帶來(lái)的好處將伴隨著(zhù)挑戰

主題2:算法時(shí)代的益處

• 由數據驅動(dòng)的問(wèn)題解決方式將得到普及

• 代碼過(guò)程將得到優(yōu)化;道德倫理問(wèn)題得到解決

• “代碼無(wú)需完美,只要比人類(lèi)優(yōu)秀即可”

• 未來(lái),世界可能由仁慈的 AI(benevolent AI)管理

主題3:當數據和預測建模的重要性成為第一,人性和人類(lèi)判斷將消失

• 主要為了利益和效率進(jìn)行的編程活動(dòng)將帶來(lái)威脅

• 算法將操縱人類(lèi)、操縱結果,甚至“讀心”

• 所有這些都將促成一個(gè)有缺陷但卻無(wú)法避免的、由邏輯驅動(dòng)的社會(huì )

• 有人擔心人類(lèi)將失去決策能力,不再擁有智能

• 有人擔心復雜系統由代碼接管,人類(lèi)將被拋在一邊

主題4:算法組織的系統中將存在偏見(jiàn)

• 算法反映出編程者和數據的偏見(jiàn)

• 算法依靠數據,而數據往往是有限、不足或者是錯誤的

主題5:由算法進(jìn)行分類(lèi)將加深各種群體之間的差異

• 由此到來(lái)的不平等將加深

• 算法將創(chuàng )造出過(guò)濾器,將人限制在自己的圈子里,限制人們接觸更多外界信息

主題6:失業(yè)率將上升

• 更加智能、高效的算法將取代很多人類(lèi)工作崗位

• 有些人試圖重構全球經(jīng)濟以維持人類(lèi)生存

主題7:需要普及算法知識,加強算法透明度和監管

• 從普及算法知識做起,不僅僅是基本的數字化信息

• 對算法過(guò)程進(jìn)行責任劃分、監管和透明糾察

• 很多人對算法監管持消極看法

斯坦福大學(xué)的 Aneesh Aneesh 這樣的分析師預見(jiàn),在未來(lái),現在的“官僚等級制度”將成為全新“等級治理”(algocratic governance)補充,算法將掌管公共和私人活動(dòng)。哈佛大學(xué)的 Shoshana Zuboff 等人則描述了未來(lái)的“信息文明”,在信息文明里將出現一種“監督資本主義”(surveillance capitalism),組織人類(lèi)的經(jīng)濟行為。

為了闡明當前人們對算法在未來(lái)十年的潛在影響抱有什么態(tài)度,皮尤研究中心和伊隆大學(xué)對技術(shù)專(zhuān)家、學(xué)者、企業(yè)從業(yè)者和政府領(lǐng)導人進(jìn)行了大規模的調查。有1302人回答了這個(gè)問(wèn)題:

未來(lái)十年,算法對個(gè)人和社會(huì )的凈整體影響是積極的還是消極的?

結果發(fā)現,38%的特定受訪(fǎng)者預測算法的積極影響將超過(guò)其負面影響,而37%的人認為負面性超過(guò)積極性;25%表示算法的整體影響將保持在50%-50%左右。

我們要求參與者解釋他們的答案,大多數人都寫(xiě)了詳細的闡述,并且提供了針對有關(guān)趨勢的洞察。我們允許受訪(fǎng)者采用匿名回復;在回復中也是匿名占多數。這些發(fā)現并不代表所有可能出現的問(wèn)題的觀(guān)點(diǎn),但它們都是根據當前的趨勢揭示了有價(jià)值的觀(guān)察。

下面,我們將簡(jiǎn)要闡述回答中出現的七大關(guān)鍵主題。在介紹部分后,我們將援引部分受訪(fǎng)者的觀(guān)點(diǎn),深入論述他們對每個(gè)主題的看法。

積極影響

主題一:算法勢必無(wú)處不在

受訪(fǎng)者之間存在相當統一的看法,那就是算法對于公眾的影響通常是不可見(jiàn)的,并且這種影響將在未來(lái)十年中呈指數上升。

這一觀(guān)點(diǎn)的代表人物是 Sertain Research和StreamFuzion公司的創(chuàng )始人和總裁 Barry Chudakov。他回答說(shuō):

“如果每個(gè)算法突然停止工作,我們現在所知的世界就全完了。”事實(shí)是,我們已經(jīng)把世界交給了機器學(xué)習和算法?,F在的問(wèn)題是,如何更好地了解和管理這些算法。

“算法是人類(lèi)決策的新決定者,幾乎在我們可以想象的任何領(lǐng)域,從觀(guān)看電影(Affectiva 情感識別)到購買(mǎi)房子(Zillow.com)到自動(dòng)駕駛汽車(chē)(谷歌)。德勤全球預測,全球100家最大的企業(yè)軟件公司中,有80家將在2016年年底前將通過(guò)算法將認知技術(shù)集成到他們的產(chǎn)品中。”

算法提供了“一個(gè)更好的標準,用來(lái)與人類(lèi)的認知本身形成對比”,它們還促進(jìn)了對另一種相同認知的思考:我們是如何思考的?通過(guò)算法來(lái)思考,進(jìn)而改變世界,這件事到底意味著(zhù)什么?

“這個(gè)主要的積極結果是更好地理解如何做出理性的決定,并以此更好地了解自己。畢竟,算法是通過(guò)反復試驗,通過(guò)測試和觀(guān)察,根據數學(xué)公式得出的,這可以用于很難判斷的選擇和問(wèn)題,特別是在直覺(jué)上很難得出結論的。

“其次,算法能帶來(lái)的積極結果是連通性。一切都是或可以與其他一切相連的。利用算法的連通性,以前需要人類(lèi)操縱和思考的基本過(guò)程,現在都可以得到管理、監測和計量。我們的車(chē)可以告訴我們放慢速度。我們的電視可以向我們推薦電影觀(guān)。雜貨店可以為我們建議使用健康的肉類(lèi)和蔬菜的組合做晚餐。

“主要的負面影響可以歸結為一個(gè)簡(jiǎn)單、但現在還沒(méi)有很好解決方案的問(wèn)題:我們如何看待并徹底理解這些編程到日常行動(dòng)和決策中的算法的含義?我們不僅需要創(chuàng )造技術(shù)解決方案,而且在構建商業(yè)模式、公司和市場(chǎng)之前,更要看到這些方案的后果,特別是它們的局限性。”

Chudakov 補充說(shuō),在未來(lái)十年及以后,“通過(guò)擴展數據的收集和分析以及由此產(chǎn)生的信息應用,一個(gè)智能或思維操作的層(a layer of intelligence or thinking manipulation)將被創(chuàng )造出來(lái),添加到以往的操作過(guò)程或者對象當中。由此帶來(lái)的結果是,隨著(zhù)信息工具和預測動(dòng)力學(xué)被更廣泛地采用,我們的生活將越來(lái)越受其固有結論和過(guò)程的影響。”

主題二:前景光明

許多受訪(fǎng)者指出,算法能幫助理解大量數據,指出這將在日常生活中激發(fā)科學(xué)突破、新的便捷方式和人類(lèi)在日常生活中的能力,以及更好的將人們與所需信息聯(lián)接的能力。它們執行了在人類(lèi)看來(lái)神乎其神的任務(wù),而且將繼續大大增強人類(lèi)的智力,協(xié)助完成偉大的事情。持這種觀(guān)點(diǎn)的代表是加拿大國家研究委員會(huì )的研究員斯蒂芬·唐斯,他列出了以下積極變化:

一些例子:

銀行。 今天,銀行基于非常不完整的數據提供貸款。的確,許多今天有資格獲得貸款的人在未來(lái)是無(wú)法得到的。 然而,許多人 - 可以說(shuō)是多得多的人 – 在未來(lái)將能夠獲得貸款,因為銀行拒絕使用諸如種族、社會(huì )經(jīng)濟背景、郵政編碼等因素來(lái)評估適合度。 此外,隨著(zhù)更多的數據(以及銀行和客戶(hù)之間更具互動(dòng)關(guān)系),銀行可以降低風(fēng)險,從而提供更多貸款,同時(shí)提供一系列服務(wù),單獨指導,切實(shí)幫助個(gè)人的財務(wù)狀況。

醫療保健機構。 醫療保健是一個(gè)重要的和不斷增長(cháng)的開(kāi)銷(xiāo),不是因為人們的健康狀況越來(lái)越差(事實(shí)上,從整個(gè)社會(huì )來(lái)說(shuō),事實(shí)恰恰相反),而是由于需要支持越來(lái)越復雜的系統,包括開(kāi)處方、保險、醫療設施等,需要大量的開(kāi)銷(xiāo)。新技術(shù)將使醫療機構能夠將大部分負荷轉移給個(gè)人,將(在個(gè)人支持系統的幫助下)更好地管理人類(lèi)的健康,協(xié)調和管理自己的個(gè)人保健,減少系統負擔 。 隨著(zhù)醫療保健總體成本的下降,為整個(gè)人口提供單一付費人健康保險變得越來(lái)越可行,我們已經(jīng)知道這會(huì )對人民健康產(chǎn)生有益有效的影響。

政府。政府的相當一部分職能是基于監管和監測,隨著(zhù)自動(dòng)化生產(chǎn)和運輸系統以及傳感器網(wǎng)絡(luò )的部署,這將不再需要。 這包括許多我們今天與政府的日常(而且是常常令人不快的)互動(dòng),從交通違法、民事糾紛到商業(yè)和法律過(guò)程中的不公平待遇等等。一個(gè)簡(jiǎn)單的例子:美國最持久的政治問(wèn)題之一是為了對任職者有利,造成了選區劃分的不公正。 通過(guò)算法創(chuàng )建的選舉分類(lèi)在很大程度上可以消除這種不公正(且當選取劃分公開(kāi)并存有爭議時(shí),可以修改完善該結果)。

來(lái)自其他匿名受訪(fǎng)者的其他回答:

“算法以自動(dòng)化的方式發(fā)現知識,比傳統的方法更快。”

“算法可以足夠快地壓縮數據庫,以緩解目前拖慢進(jìn)度的一些繁文縟節和官僚作風(fēng)。”

“我們將看到更少的污染,改善人體健康,減少經(jīng)濟浪費。”

“算法具有平等獲取信息的可能性。”

“算法的效率將引領(lǐng)更多的創(chuàng )造力和自我表達。

“算法可以減少交通問(wèn)題;它們可以識別堵車(chē),規劃替代路徑。”

“無(wú)人駕駛汽車(chē)可以大大減少每年的事故數量,以及提高大多數人的生活質(zhì)量。”

“更有針對性地提供新聞、服務(wù)和廣告。”

“使用算法從社交媒體收集數據和點(diǎn)擊蹤跡,出現更多基于證據的社會(huì )科學(xué) 。”

“定位可以防止犯罪的地區,改善并更主動(dòng)地進(jìn)行警務(wù)工作。”

“欠發(fā)達地區減少,國際商業(yè)交流增多。”

“算法減少了決策、采購、運輸和大量其他行為中的消耗。”

“機器人會(huì )根據你的指令購買(mǎi)股票。數字經(jīng)紀人將找到你需要的材料。”

“任何錯誤都可以糾正。這意味著(zhù)算法只會(huì )隨著(zhù)時(shí)間的推移變得更能滿(mǎn)足人類(lèi)的需求。”

擔憂(yōu)與挑戰

這項研究的參與者都嚴重同意:加速代碼依賴(lài)帶來(lái)的大量積極影響將繼續推動(dòng)算法的傳播,然而,與所有偉大的技術(shù)革命一樣,這種趨勢有一個(gè)黑暗面。大多數參與者指出了自己的擔憂(yōu)。主要的擔憂(yōu)集中體現在報告接下來(lái)的這 5 個(gè)主題中,每一個(gè)主題都包含子主題。

主題3:當數據和預測建模的重要性成為第一,人性和人類(lèi)判斷將消失

算法的進(jìn)步能夠讓技術(shù)企業(yè)和政府搜集、存儲、分類(lèi)和分析海量的數據集。

專(zhuān)家在這項調查中指出,這些算法主要是為了優(yōu)化效率和提高盈利能力而寫(xiě),對數據建模和分析潛在的社會(huì )影響并沒(méi)有作過(guò)多的考慮。這些受訪(fǎng)者認為,在這個(gè)過(guò)程中,人類(lèi)被看出是一種“輸入”,而不是真實(shí)的,會(huì )思考的,有感覺(jué),隨時(shí)都在變化的生命。

他們說(shuō),這是在創(chuàng )造一個(gè)有缺陷的,僅憑邏輯驅動(dòng)的社會(huì ),隨著(zhù)這一過(guò)程不斷演化,也就是說(shuō),隨著(zhù)算法開(kāi)始編寫(xiě)算法,人類(lèi)可能在社會(huì )的循環(huán)中被遺棄,從而把決定權交給機器。

代表觀(guān)點(diǎn):

Clemson大學(xué)人本計算( human-centered computing)專(zhuān)業(yè)的助理教授 Bart Knijnenburg 回答說(shuō):“算法將會(huì )把便利和利潤放在首要位置,從而造成對特定人群的歧視,并破壞另一些人積累起來(lái)的經(jīng)驗。算法的目標是滿(mǎn)足一些人的偏好,而不一定是所有人的偏好。從本質(zhì)上看,算法呈現的是我們的口味和偏好。我最大的擔憂(yōu)是,除非我們讓算法可以做到“自我實(shí)現”(self-actualization),否則,人們遵循一個(gè)算法的建議變得過(guò)于容易,也過(guò)于簡(jiǎn)單了(也就是說(shuō),人類(lèi)將很難超越這些算法提供的建議),同時(shí),人們也會(huì )漸漸把這些算法變成一個(gè)能自圓其說(shuō)的哲學(xué)家,用戶(hù)則會(huì )成為專(zhuān)門(mén)消費易于消費項目的“僵尸”。

這將是很方便的人們遵循一個(gè)算法的建議(或太難以超越這樣的建議),把這些算法變成自我實(shí)現預言和用戶(hù)進(jìn)入僵尸誰(shuí)專(zhuān)門(mén)消費易于消費的項目。

一個(gè)匿名的未來(lái)主義者說(shuō),“從工業(yè)革命開(kāi)始以來(lái),這樣的事一直在發(fā)生。每當你設計一個(gè)針對效率或盈利能力進(jìn)行優(yōu)化的人力系統時(shí),你就是在將勞動(dòng)力非人性化 。這種非人性化現在已經(jīng)蔓延到我們的醫療和社會(huì )服務(wù)上。當你從包含人類(lèi)的系統中移除人性時(shí),人類(lèi)就成為了受害者。

另一個(gè)匿名回答者寫(xiě)道:“我們根本不能捕捉到用于代表一個(gè)人和他的需要,愿望,希望和渴望的每一個(gè)數據元素。數據由誰(shuí)來(lái)收集?收集什么?數據點(diǎn)所代表的那個(gè)人,他是否知道或者說(shuō)同意服務(wù)條款,又或者是因為他們根本沒(méi)有選擇?

誰(shuí)從數據賺錢(qián)?任普通人如何知道他/她的數據如何被使用?用于什么目的?在這個(gè)過(guò)程中,沒(méi)有透明性,監督也成為一場(chǎng)鬧劇。所有的一切都被隱藏起來(lái)。我將始終堅信數據應該用于豐富和/或保護眾人,而不是個(gè)人。這是我們所處的經(jīng)濟制度的基本性質(zhì)。

其他受訪(fǎng)者對這一主題的反饋:

• 潛力是巨大的,但誤用和濫用的可能性,不管是故意的或無(wú)意的,可能性更大。

• 公司尋求的是將利潤最大化,而不是將社會(huì )利益最大化。更糟糕的是,他們將對利潤的追逐重新包裝為對社會(huì )利益的努力。我們正在接近波浪的波峰,波谷的一邊是一種新的操縱,營(yíng)銷(xiāo),幾乎完全缺乏隱私的倫理。

• 我們今天看到的是,實(shí)際上,像“差別定價(jià)”這樣的東西并不能幫助消費者,它只是幫助銷(xiāo)售東西的公司。

• 隨著(zhù)法治、社會(huì )正義和經(jīng)濟遭受可預見(jiàn)的破壞,個(gè)體人類(lèi)將像牛一樣被圈養起來(lái)。

• 算法正在放大數據代溝和隔離帶來(lái)的消極影響。

主題4:算法組織的系統中將存在偏見(jiàn)

兩個(gè)思路在這里連在一起。一個(gè)是算法創(chuàng )建者(代碼編寫(xiě)者),即使他們努力做到包容,客觀(guān)和中立,但是他們也還是在創(chuàng )造中建立了自己的觀(guān)點(diǎn)和價(jià)值觀(guān)。另一個(gè)是,算法所采用的數據集有自己的局限和缺陷。即使是包含了數十億條信息的數據集,也難以完全捕捉到人們生活的豐富性和經(jīng)驗的多樣性。此外,數據集本身并不完美,因為它們不包含每個(gè)人的輸入或每個(gè)人的代表性樣本。這兩個(gè)主題在這些答案中得到體現:

麻省理工學(xué)院教學(xué)系統實(shí)驗室執行主管 Justin Reich 指出:“算法將主要由白人和亞洲人設計,數據也由這些掌握特權的人來(lái)選擇,他們的出發(fā)點(diǎn)將是和自己一樣的消費者的利益。大多數處于特權地位的人會(huì )發(fā)現這些新工具更方便、安全和有用。新技術(shù)的危害將成為已經(jīng)在社會(huì )中處于不利地位的人最多的經(jīng)歷,比如,廣告算法提供保釋債券人廣告,這里面會(huì )假定接收到廣告的讀者是罪犯;貸款申請廣告會(huì )投放給那些正在尋找代理人的人,這些都與人類(lèi)族群相關(guān)。

軟件工程師Dudley Irish說(shuō):“所有,讓我重復一遍,是所有的訓練數據都包含偏見(jiàn)。其中大部分是種族或階級相關(guān)的。套用伊曼努爾·康德的話(huà),就是,從這些數據集的彎曲的木材中,從來(lái)沒(méi)有出現過(guò)直線(xiàn)的東西。

其他受訪(fǎng)者對這一主題的反饋:

• 根據定義,算法是非人性的,并且基于總數據和一般假設。人們編寫(xiě)的算法,甚至那些基于數據的算法,只是人口的一個(gè)非代表性的子集。

• 如果你從一個(gè)不平等的地方開(kāi)始,并且使用算法來(lái)尋找一個(gè)人/系統的可能結果,你一定會(huì )帶來(lái)不平等。

• 我們都會(huì )被視為一種同質(zhì)化的物種,這顯然是一種錯誤。

• 結果可能會(huì )成為偏見(jiàn)和有害的決定的制度化借口,他們會(huì )說(shuō):計算機做出決定,所以我們必須接受。

• 算法將反映人們帶有偏見(jiàn)的思維。垃圾進(jìn)垃圾出(Garbage in, garbage out)。生活的許多方面將受到影響,但很少有人會(huì )得到幫助。監督將是非常困難或不可能的。

主題5:由算法進(jìn)行分類(lèi)將加深各種群體之間的差異

許多受訪(fǎng)者的答案中提出了兩個(gè)關(guān)于社會(huì )分裂的相關(guān)觀(guān)點(diǎn)。首先,他們預測,算法輔助的未來(lái)將擴大數字精英(主要是最富裕的,新信息生態(tài)系統中最想要得到的人群)和那些幾乎沒(méi)有連接或能夠參與的人之間的差距。第二,他們說(shuō)社會(huì )和政治分裂將被算法所推動(dòng),因為算法驅動(dòng)的分類(lèi)會(huì )引導人們重復和強化媒體上和政治上的內容。兩個(gè)說(shuō)明性答案:

Fit to Tweet的所有者Ryan Hayes評論說(shuō):“二十年前,我們談到了”數字?zhù)櫆?ldquo;,即在家里有計算機的人 VS 家里沒(méi)有計算機的人,或者可以訪(fǎng)問(wèn)互聯(lián)網(wǎng)的人VS不可以訪(fǎng)問(wèn)互聯(lián)網(wǎng)的人。但是,從現在開(kāi)始的未來(lái)十年,一個(gè)由帶有傳感器和處理能力的強大AI以及與大量的數據相聯(lián)網(wǎng)所增強的人類(lèi),他的能力和對世界的認知,將與那些無(wú)法擁有這些工具或者不知道如何使用這些工具的人迥異。

人與人之間的這種鴻溝將是自我永恒的,那些能力較弱的人在許多方面將更容易受到更多的傷害。

波士頓學(xué)院的訪(fǎng)問(wèn)學(xué)者 Adam Gismondi 寫(xiě)道:“我擔心,隨著(zhù)用戶(hù)被隔離到不同的意識形態(tài)領(lǐng)域時(shí),人類(lèi)的同理心可能會(huì )受損。面對對立的觀(guān)點(diǎn),如果我們能夠(主動(dòng)地或被動(dòng)地)以不同的角度避免與他人產(chǎn)生沖突,這將對我們的社會(huì )產(chǎn)生負面影響。

關(guān)注主要社交媒體公司在未來(lái)幾年會(huì )增加什么功能是比較有說(shuō)服力的,因為在信息流的結構中,他們有巨大的權力。

其他受訪(fǎng)者對這一主題的反饋(詳情請參閱完整報告中的更全面的版本):

• 如果當前的經(jīng)濟秩序繼續下去,那么我看不到數據驅動(dòng)算法的增長(cháng)除了對社會(huì )上最富有的人以外,還會(huì )對其他人有任何好處。

• 社會(huì )不平等大概會(huì )變得更加豐富。

• 主要風(fēng)險是,不太規律的用戶(hù),特別是那些集中在一個(gè)或兩個(gè)站點(diǎn)或平臺上的用戶(hù),將不會(huì )開(kāi)發(fā)這種導航和選擇的設備,他們自己也將處于不利地位。

• 算法使得選擇更有效。積極的影響將是增加利潤,組織能夠避免風(fēng)險和降低成本。負面影響將被所有算法所認為具有風(fēng)險或利潤較低承擔。

• 效率和命令帶來(lái)的好處被高估了。在我們的生活中保持一些混亂是很重要的。

主題6:失業(yè)率將上升

人工智能的普及可能造成大面積失業(yè)以及由此帶來(lái)的各種不良后果。

一個(gè)匿名的CEO 說(shuō),“如果工作可以由算法有效表達,那么這個(gè)工作很容易由機器完成。我所看到的負面趨勢是——隨著(zhù)算法的崛起,人類(lèi)會(huì )在很多職位和工作上被機器/計算機取代。那么人類(lèi)的命運往何處去?”

其他受訪(fǎng)者對這一主題的反饋:

• AI 和機器人很可能瓦解勞動(dòng)力市場(chǎng)導致人類(lèi)百分百的失業(yè)。它們更聰明、更有效率、更高產(chǎn)、成本更少,所以企業(yè)和商業(yè)應該會(huì )往這個(gè)方向發(fā)展。

• 自動(dòng)化引發(fā)產(chǎn)能大爆發(fā),這將會(huì )加大從業(yè)者和資本方的不對等。

• 現代西方社會(huì )建立在一種社會(huì )模式上,資本被交換為勞動(dòng)力來(lái)提供經(jīng)濟增長(cháng)。 如果勞動(dòng)力不再是交換的一部分,那么影響是巨大的。

• 沒(méi)有工作,人口不斷增長(cháng),對普通人自主運作需求減少。這算什么溫暖?

• 我預測算法幾乎全面取代工作人員,被替代的人類(lèi)毫無(wú)選擇。

• 長(cháng)期看來(lái),這可能對人類(lèi)是件好事,不再需要做低價(jià)值、重復性的工作,可以激勵他們創(chuàng )造更高的價(jià)值。

• 但愿各國會(huì )以實(shí)施最低保障生活工資和K-12以上的免費教育,以應對這樣的形勢。否則最聰明的人將利用在線(xiàn)資源快速超過(guò)平均個(gè)人水平,最富有的人將利用他們的經(jīng)濟力量獲得更多的政治優(yōu)勢。

主題7:需要普及算法知識,加強算法透明度和監管

這次調查的受訪(fǎng)者對個(gè)人及社會(huì )應該如何應對生活的算法化(algorithmization)提出了許多不同想法。他們主張在公共教育中加入有關(guān)算法在公眾生活中的作用的知識,他們還指出,那些創(chuàng )造和發(fā)展算法的人目前沒(méi)有對社會(huì )解釋?zhuān)⒄J為他們應該以某些方式負責。

代表意見(jiàn)如下:

Susan Etlinger,Altimeter 集團行業(yè)分析師,她說(shuō):“就像我們想知道一件商品,例如食品或服裝,它們是在什么地方、以何種方式生產(chǎn)出來(lái)的,我們也應該質(zhì)疑我們的數據和決策是如何得出的。這些信息的供應鏈是怎樣的?有明確的管理和審計跟蹤嗎?所得的假設是基于部分信息,有缺陷的來(lái)源還是不相關(guān)的基準?數據是否得到了充分的訓練?是否有合適的利益相關(guān)者參與,是否從錯誤的經(jīng)驗中學(xué)習?所有這一切的要點(diǎn)是,在未來(lái)十年內,我們的管理組織的整個(gè)管理方式都需要改變。創(chuàng )造及改變現實(shí)的力量將存在于只有少數人理解的技術(shù)中。因此,為了確保我們能正確地使用算法,無(wú)論是為了賺錢(qián)還是為了人類(lèi)福利,還是兩者兼具,我們都需要有管理和問(wèn)責的機構。說(shuō)起來(lái)容易做起來(lái)難,但假如說(shuō)工業(yè)上和學(xué)術(shù)界最聰明的頭腦需要聚在一起解決這個(gè)問(wèn)題,現在正是應該這樣做的時(shí)候。”

Chris Kutarna 是《發(fā)現的時(shí)代》(Age of Discovery )的作者,同時(shí)也是牛津大學(xué)馬丁學(xué)院院士,他寫(xiě)道:“算法是一種明確的啟發(fā)式形式,是一種規律化的進(jìn)行選擇和決策的方式,所以我們不需不斷地處理知覺(jué)輸入。這種應對策略一直與人類(lèi),以及與我們的整個(gè)社會(huì )系統和數據環(huán)境的復雜性共同演變。明確地意識到我們的簡(jiǎn)化的假設和啟發(fā)法是我們的智力和影響力變得成熟的重要位點(diǎn)?,F在的不同之處是,明確地對這些啟發(fā)式方法進(jìn)行編程的能力日益增強,在人類(lèi)心智之外,在機器和平臺之上執行這種簡(jiǎn)化的能力也日益增強。我們需要一些時(shí)間來(lái)發(fā)展智慧和道德以理解并指導這種能力。在此期間,我們確實(shí)不知道應用這種能力的安全程度如何。最重要的一點(diǎn)是提高社會(huì )對它的認識,即誰(shuí),怎樣,在哪里應用這些能力。”

其他受訪(fǎng)者對這一主題的反饋:

• “資本無(wú)利不起早,不愿意去打擊filter bubbles, profiling 以及相關(guān)的負面影響。政府/國際組織也幾乎無(wú)能為力。“

• “監督機制可能包括更嚴格的訪(fǎng)問(wèn)協(xié)議;簽署數字管理倫理守則后才能被任命為信息管理員;個(gè)人對信息調用的在線(xiàn)追蹤;選擇退出功能;設置訪(fǎng)問(wèn)時(shí)間;未經(jīng)同意禁止第三方出售。”

• “除非更努力地讓真正的讀寫(xiě)信息的能力成為基礎教育的一部分,否則將會(huì )出現兩個(gè)階級,一個(gè)能夠使用算法,一個(gè)被算法使用。”

• “電腦用戶(hù)需要更多了解和掌握電腦的使用,他們的使用習慣也需要被關(guān)注,這應該是21世紀電腦素質(zhì)教育的核心。”

• “找到一個(gè)框架,以允許透明度和評估結果將是至關(guān)重要的。還需要對算法‘價(jià)值鏈’有廣泛的理解,并且理解數據是關(guān)鍵的驅動(dòng)因素,并且與其訓練的算法一樣有價(jià)值。”

• “算法問(wèn)責制是一個(gè)大項目,需要理論家、實(shí)踐者、律師,社會(huì )科學(xué)家、記者和其他人的智慧。這是一個(gè)緊急的、全球性的事業(yè),投身其中的專(zhuān)家們也需要支持。 ”

• “最終,軟件責任法將被面臨改革,因為從現在開(kāi)始,程序員真的可以從謀殺中脫罪。

• “The Law of Unintended Consequences 表明,算法中越來(lái)越多的社會(huì )層面和技術(shù)層面的復雜性肯定會(huì )造成不可預見(jiàn)的災難性事件的發(fā)生 - 可能完全出乎我們的意料。

• “最終,我們將發(fā)展現有的機制,給消費者更大的控制權,這應該導致更多的理解和信任……這種推動(dòng)是不可避免的而且非常必要的,從長(cháng)遠來(lái)看,會(huì )讓我們每個(gè)人都受益。“

• “我們需要某種彩虹聯(lián)盟來(lái)制定規則,以避免出現先入為主的偏見(jiàn)和群體思維影響結果。”

• “算法太復雜,無(wú)法完全透明或永遠徹底安全。這些因素將持續影響我們文化的方向。”

• “我期望元算法的研發(fā),以努力抵消算法的負面影響。“

一些匿名回答者針對這一主題說(shuō):

• “黃金法則:擁有黃金的人會(huì )制定法則。“

• “壞人似乎遠遠超過(guò)好人了。”

• “抵抗是徒勞的。“

• “算法是由想要向你銷(xiāo)售東西(商品、服務(wù)、意識形態(tài))的人們定義的,并且會(huì )扭曲結果以利于此。”

• “算法肯定有幫助,但除非結合人類(lèi)的知識和政治意愿,否則可能不夠。”

最后,我們以這位自匿名參與者的預測結尾,他/她看到可能的是兩個(gè)極端之一:“總體的影響將是烏托邦的誕生或人類(lèi)的滅亡;沒(méi)有可預見(jiàn)的中間路線(xiàn)。我懷疑是烏托邦,鑒于我們已經(jīng)從一次生存危機中挺了過(guò)來(lái)(核戰爭),我們邁向和平的腳步盡管緩慢,卻也依然堅定。”

【編者按】本文轉載自 新智元。文章來(lái)源:pewinternet.org,編譯:聞菲、胡祥杰、劉小芹、張易。

最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長(cháng)按識別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅動(dòng)創(chuàng )新

分享到