那些年我們一起看過(guò)的人工智能大片

周彤 10年前 (2015-09-19)

一個(gè)成熟的人工智能未必與人類(lèi)相似,也不一定任由人類(lèi)所支配。如果我們用錯誤的方式追求人工智能,人工智能就會(huì )以這樣的形式出現:難以識別等

今天小編帶給你的信息量比較大,首先我們來(lái)看一段燒腦視頻。

那些年我們一起看過(guò)的人工智能大片1

德國研究者展示的人工智能研究成果

第一部分

人工智能正在迎接屬于它的時(shí)代,盡管烙印尚淺。

去年以來(lái),包括霍金、Musk和蓋茨等名人不斷警告人工智能可能帶來(lái)的危害。在讀了Nick Bostrom的書(shū)《Superintelligence 》以后,Musk公開(kāi)質(zhì)疑人工智能可能是「我們最大的生存威脅」。

我們對人工智能的觀(guān)點(diǎn)被謬誤的人類(lèi)中心論所扭曲了。

分歧并不僅僅體現在人工智能威脅論上,人們對人工智能的看法也各不相同。有些人堅持認為,智能程度與人類(lèi)相當的「強人工智能」永遠不可能存在,另一些人則認為這是不可避免的趨勢。然而,這些爭論卻常忽略一個(gè)事實(shí)——人工智能存在和思考的形式與人類(lèi)自身是截然不同的。

簡(jiǎn)而言之,一個(gè)成熟的人工智能未必與人類(lèi)相似,也不一定任由人類(lèi)所支配。如果我們用錯誤的方式追求人工智能,人工智能就會(huì )以這樣的形式出現:難以識別、風(fēng)險擴大并阻滯益處,而這些都是毫無(wú)必要的。

這不僅僅是杞人憂(yōu)天。人工智能早已走出了實(shí)驗室,深入到我們生活的方方面面?!溉跞斯ぶ悄堋?,比如蘋(píng)果的Siri和亞馬遜的推薦引擎,還有一些基礎設施方面的人工智能,比如高速算法交易、智能汽車(chē)和工業(yè)機器人,正日益成為我們日常生活的一部分——與工具使用、城市交通、經(jīng)濟建設以及商品貿易息息相關(guān)。

不幸的是,人工智能的流行觀(guān)點(diǎn),特別是在數不清的電影、游戲和小說(shuō)中,依然假定擬人特征(比如生氣、嫉妒、困惑、貪婪、驕傲、欲望等,更別提冷酷的疏離)是人工智能最重要的部分。這種謬誤的人類(lèi)中心論可能與現代人工智能的研究相去甚遠,但它也從一個(gè)側面反映了我們的文化如何看待自身與高級合成認知的遭遇。

那些年我們一起看過(guò)的人工智能大片2

電影《人工智能》劇照

在斯蒂文·斯皮爾伯格2001年的電影《人工智能》中,那個(gè)小男孩機器人想成為一個(gè)真正的男孩,盡管他只有一顆小小的金屬心。而《終結者》系列中的天網(wǎng)則沉醉于將人類(lèi)趕盡殺絕。1968年,在斯坦利·庫布里克執導、改編自亞瑟·克拉克作品的電影《2001太空漫游》中,我們總是自動(dòng)假定那塊巨石想要和人類(lèi)主角戴夫交流,而不是他飛船上的人工智能HAL 9000。

我認為,我們應該摒棄這樣一種觀(guān)念:「真正的」人工智能必須深切關(guān)心人類(lèi),并總將人類(lèi)作為焦點(diǎn)和動(dòng)機的想法。也許,我們真正害怕的不是一臺想殺光人類(lèi)的大機器,而是這臺機器認為我們無(wú)足輕重。比被看做敵人更難受的,是根本不把你放在眼里。

除非我們假定人類(lèi)的智能包含了所有智能可能的形式(這當然是個(gè)彌天大謊),否則為何要將高級的人工智能定義為與人類(lèi)相似呢?畢竟,想要定義「智能」是一件難于上青天的事情,而人類(lèi)的智能根本無(wú)法窮盡所有的可能性。誠然,這么做對實(shí)驗室研究有一定的實(shí)際意義,但是從文化方面來(lái)說(shuō),這是弄巧成拙、不符倫理,甚至可能是危險的。

我們不需要一個(gè)狹隘和自戀的人工智能流行文化——為我們人類(lèi)尋找一個(gè)機器版本的自我映射。因為,如果將這種觀(guān)點(diǎn)作為人類(lèi)與人工智能交流的基礎,這將是一個(gè)有嚴重缺陷的前提。更不用說(shuō),即便縱觀(guān)人類(lèi)的文明史,所有文化上的「首次接觸」都沒(méi)有留下什么快樂(lè )的回憶。

第二部分

從《銀翼殺手》(Blade Runner,1982)到《她》(Her, 2013)的無(wú)數科幻電影的內容都以這樣一種觀(guān)點(diǎn)為藍本:測量人工智能的發(fā)達程度,要看它是否能夠被「以人相待」。這個(gè)觀(guān)點(diǎn)伴隨現代人工智能研究持續至今。最早的出處還得追溯到1950年,英國數學(xué)家圖靈發(fā)表的《Computing Machinery and Intelligence 》。在這篇論文中,圖靈詳述了「模仿游戲」,也就是我們今天所說(shuō)的「圖靈測試」。雖然測試版本不相同,但是,它們揭示了為什么我們研究人工智能的文化道德的方法定義了人工智能本身,無(wú)論好壞。最為人所知的版本是這樣的,提問(wèn)的人向兩名隱藏的選手提問(wèn),一個(gè)是人類(lèi),另一個(gè)是臺電腦。圖靈認為,如果提問(wèn)者通常分不清哪個(gè)是哪個(gè),電腦能成功地被識別為人類(lèi),那么,從實(shí)踐目的來(lái)看,不就能認為電腦是「智能」的嗎?

不得不說(shuō),讓機器通過(guò)人類(lèi)詢(xún)問(wèn)測試隱藏機器屬性才被視為具有「人類(lèi)智能」,和圖靈自己需要隱藏同性?xún)A向才被「以直男相待」,兩者之間真是異曲同工。

那些年我們一起看過(guò)的人工智能大片3

圖靈

遺憾的是,更多的人僅僅是「知道」圖靈測試,卻沒(méi)有真地讀過(guò)。因為他的文本既精彩又奇怪,還令人吃驚。在文中,圖靈把自己的測試解釋為當時(shí)流行的一個(gè)室內游戲變種:在這個(gè)游戲中有兩個(gè)藏在幕后的玩家,一位是男性(A玩家),一位是女性(B玩家),他們通過(guò)手寫(xiě)回答問(wèn)題,盡力讓第三方相信自己是一名女性。為了獲勝,其中一名玩家必須令人信服地扮演真正的自己,而另一個(gè)必須試圖以另一種性別通過(guò)測試。圖靈說(shuō),當「計算機取代玩家A」之后,就是他的測試方法。因此,就字義解釋來(lái)看,在他的測試版本中,計算機并不僅僅假裝是個(gè)人,而且得假裝是一個(gè)女人,才能通過(guò)測試。

那些年我們一起看過(guò)的人工智能大片4

圖靈測試示意圖

其他版本就漸漸改成,B玩家可以是女的,也可以是男的。一人假裝、兩人假裝或者都不假裝,也可以是完全不同的游戲測試。既然我們給電腦一個(gè)玩家的座位,那么,我們就可以讓它假裝是個(gè)女的或者男的,甚至欺騙提問(wèn)者,讓其分辨孰男孰女?;蛘呖梢愿鼜碗s些,讓計算機假裝成個(gè)試圖扮成女人的男人,同時(shí)還有一位試圖裝成女人的男人,甚至讓計算機假裝成這樣一位女性,她假扮成裝作女人的男人!畢竟現實(shí)生活中,以上情形也的確皆有可能。

由莫滕泰杜姆(Morten Tyldum)導演的2014年奧斯卡獲獎?dòng)捌赌7掠螒颉分v述的就是圖靈的故事?;厮莸侥莻€(gè)同性戀還被批判的時(shí)代,即使是身為數學(xué)家的圖靈不得不「通過(guò)」自己是直男的測試。當隱瞞的性取向被公開(kāi)后,他被迫接受稱(chēng)為「化學(xué)閹割」的可怕治療(荷爾蒙療法)。最終,無(wú)法忍受身體和精神上雙重折磨的圖靈選擇了自殺來(lái)結束自己的生命。更荒誕的是,在當時(shí)圖靈對于打敗希特勒做出的巨大貢獻卻被當做國家機密而被歷史塵封。直到最近,已經(jīng)去世多年的圖靈終于得到英女王頒發(fā)的皇家赦免,但成千上萬(wàn)根據類(lèi)似法律判處的其他英國男人卻沒(méi)有。

要求人工智能通過(guò)測試以證明其具有智力,要求圖靈用測試來(lái)證明自己的性取向,這兩件事具有相同的諷刺意味,既嘩眾取寵又嚴重不公。

就好比,判斷一個(gè)人是白人還是黑色皮膚的人,是男人還是女人,都取決于其他人的觀(guān)察和解釋。因為其他人已經(jīng)習慣根據傳統的線(xiàn)索(比如種族、性別、種類(lèi)等)進(jìn)行判斷。任何正在經(jīng)受測試的人或事,只有與那些觀(guān)察他(或她、它)的人共謀,才會(huì )讓測試成功通過(guò)。至于人工智能是否愿意通過(guò)測試,則是這個(gè)測試上久拖不決的另一個(gè)問(wèn)題了。無(wú)論是哪種方式,所謂的「通過(guò)」更多的是觀(guān)眾看法,而不是被測試者的表現。

我們最好還是假定:宇宙中,「思考」是種更加多樣化的行為,外星人也會(huì )思考,思考并不限于我們人類(lèi)這種特殊個(gè)案。與其說(shuō),人工智能的哲學(xué)課題是人類(lèi)教會(huì )機器如何思考,不如說(shuō)是機器告訴人類(lèi)什么才是一個(gè)更加全面、更加真實(shí)的思考行為。

第三部分

我們曾經(jīng)希望,把「人工智能是否存在」的定義聯(lián)系到它能否模仿人類(lèi)思考的能力。它基于一種這種奇怪的人類(lèi)優(yōu)越感:只有人類(lèi)能夠思考。正是這種自負的想法讓曾經(jīng)的研究者希望在現有的機器上重現人類(lèi)的思維,然而卻挫敗連連,最后徒勞無(wú)功。因為它根本不對。當代的人工智能研究表明,「能為任何一件特定的事做安排」就可以說(shuō)是「智能的」。它恰恰不反映我們人類(lèi)的思考模式,甚至可以說(shuō)沒(méi)有任何關(guān)系?,F任谷歌的兩名研究主管——斯圖爾特.羅素和彼得.諾維格在他們最經(jīng)典的人工智能教材里提出:仿生設計,或者說(shuō)對生物形態(tài)的模仿,并不是我們設計復雜技術(shù)的通用方法。比如:飛機并不像鳥(niǎo)一樣飛翔,我們當然也不會(huì )用「欺騙鳥(niǎo)兒讓它們以為飛機是鳥(niǎo)」這樣的標準,來(lái)檢驗這些飛機是否真的具有飛行能力。既然如此,那為什么對人工智能要采用這個(gè)標準?現在,那些務(wù)實(shí)的人工智能研究已經(jīng)不把焦點(diǎn)放在圖靈測試上了,它并不能視作一個(gè)客觀(guān)的智能標準。但在我們的流行文化里,頑固的人類(lèi)中心主義思想卻依然認為這個(gè)智能測試很重要。就像是迪斯尼影片里那些像年輕人一樣說(shuō)話(huà)的動(dòng)物,它的想法要讓人類(lèi)接受,最好得采用這種幼稚的腹語(yǔ)術(shù)。

可以說(shuō),人工智能的擬人化標準就是一種「前哥白尼」態(tài)度。這種態(tài)度有什么不好?我們想要人工智能以人性化的方式陪伴我們每一天,這不好嗎?

答案是,如果我們對其余的生命體持有這種幻想,將損失太多知識;只有保持真誠和清醒的認識,才能從不同的綜合智能中獲得好處。我并非是在說(shuō)哲學(xué)觀(guān)點(diǎn),因為有些哲學(xué)家在討論:人工智能作為有知覺(jué)的實(shí)體,是否應該賦予它們倫理權利。我的意思是,更真實(shí)的視角能更好的讓我們思考自己的技術(shù)。Musk、蓋茨和霍金說(shuō)「人工智能可能帶來(lái)的危險」,它成了頭條新聞。這個(gè)觀(guān)點(diǎn)當然很重要,但我擔心大多數讀者都誤解了他們的意思。

那些年我們一起看過(guò)的人工智能大片5

「機器人三定律」

自從1942年由艾薩克.阿西莫夫提出「機器人三定律」,人們就指望靠程序的設計,足以讓人工智能不會(huì )「傷害人類(lèi)」。但這必須建立在一個(gè)基礎上——人工智能必須知道人類(lèi)是什么,以及做什么事會(huì )傷害人類(lèi)。其實(shí),人工智能是否會(huì )傷害我們,與它對人類(lèi)有沒(méi)有惡意,壓根沒(méi)有關(guān)系。傷害可能會(huì )在很多情況下發(fā)生,而且這些情況大多和我們最愚蠢的極端的善意的指示相關(guān)。與以往假設的傷害情況相反,傷害的發(fā)生既不是因為人工智能發(fā)生機械故障,也不是因為它們違背了道德定律,人工智能的巨大風(fēng)險恰恰是因為它的強大和對人類(lèi)的公正。如果我們只是在擬人化的特質(zhì)上認識人工智能,或者認為它有這重義務(wù),那么我們很難避開(kāi)這些困境。

不管「強人工智能」是否真的會(huì )誕生,如果我們還在堅持那些明知是錯誤的觀(guān)念,就會(huì )在探索和求知的道路上止步不前。在1950年的那篇論文中,圖靈對自己提出的人工智能觀(guān)點(diǎn)其實(shí)還舉了很多反例,包括把它和早期反對哥白尼的天文學(xué)進(jìn)行比較?!傅厍蚴怯钪嬷行摹?、「人類(lèi)是絕對特殊的存在」、「人類(lèi)是無(wú)價(jià)的完美生命」...雖然持有這些錯誤觀(guān)點(diǎn)人們的幼小心靈受到了哥白尼學(xué)說(shuō)的打擊,但之后的人類(lèi)文明終于可以基于宇宙真實(shí)的樣子去探索,而不是基于那種狹隘自私的觀(guān)點(diǎn)。圖靈在文中把那些稱(chēng)為「神學(xué)偏見(jiàn)」,所以,我們也可以把人工智能的擬人化標準說(shuō)成是「前哥白尼」態(tài)度,但它們卻在俗世橫流。如果存在一種強大的非擬人的人工智能,它可能會(huì )讓我們更加清醒的認識自己,了解我們的現狀,并對復雜的「智能」有更完整的理解。我們就能從這樣的起點(diǎn)出發(fā),滿(mǎn)懷希望地改造世界。而且我們將充滿(mǎn)信心,因為這樣的睿智總是幫我們提出更好的模型去模擬未知的世界。

錯誤的觀(guān)念還會(huì )最后導致一種長(cháng)期的危害,這種人類(lèi)奴役技術(shù)的關(guān)系已經(jīng)把我們帶到了「第六次物種大滅絕」(前5次自然滅絕和人類(lèi)活動(dòng)加速的第6次滅絕)的懸崖邊上??梢哉f(shuō),「人類(lèi)世」(地質(zhì)學(xué)上認為人類(lèi)活動(dòng)進(jìn)入工業(yè)化后地球進(jìn)入新的地質(zhì)年代)本質(zhì)上并不是人類(lèi)技術(shù)的發(fā)展,而是人類(lèi)觀(guān)念的產(chǎn)物——世界已經(jīng)可以根據我們的需求和愿望而改變。我們從這個(gè)詞中能嗅到些許宗教領(lǐng)袖傳播的美好福音世界:機器完全屈從于人類(lèi)的需求和愿望工作。如果你也這么認為,請谷歌搜索「豬頭屠宰機」,雖然這并非我的本意,但還是請你先了解它的血腥殘酷再來(lái)和我談?wù)?,如何?chuàng )造一個(gè)機器完全臣服于人類(lèi)愿望的世界吧。

也許有人還心存天真的幻想,認為我們社會(huì )也經(jīng)歷過(guò)奴隸制度、神權制度再到法制,所以即便已經(jīng)是2015年,對機器來(lái)這套又何嘗不可? 正是這種感情用事——所謂的技術(shù)倫理——構成了現在「人類(lèi)世」的基本算法,也造成了基本困境。繼續順從這樣的情感,只會(huì )讓我們在遭遇人工智能后一敗涂地?,F在,正是我們朝前邁進(jìn)的時(shí)候。你不覺(jué)得,我們已經(jīng)為這樣自命不凡的風(fēng)俗付出了太多的代價(jià)了嗎?

最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長(cháng)按識別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅動(dòng)創(chuàng )新

分享到