除了擁有智力,機器人還需要情感嗎?
事實(shí)上,所有和人工智能相關(guān)的問(wèn)題都值得認真思考。
一提到人工智能,大多數人自然而然就會(huì )聯(lián)想到被稱(chēng)為計算機之父、人工智能之父的阿蘭·圖靈。有些人也會(huì )對阿達·洛夫萊斯頗有印象,美國國防部曾將一種計算機語(yǔ)言命名為Ada語(yǔ)言,來(lái)紀念她。另外,作為詩(shī)人拜倫的女兒,阿達·洛夫萊斯認為機器人模擬大腦思考、產(chǎn)生情感是詩(shī)意的。
阿蘭·圖靈和阿達·洛夫萊斯都發(fā)明過(guò)人工智能測試,尤其是圖靈測試十分有名,可以用來(lái)測試機器是否能和人類(lèi)一樣思考。比如當人類(lèi)和機器進(jìn)行交流時(shí),如果一個(gè)人無(wú)法區別和自己進(jìn)行交流的是人還是機器,那么這臺機器就算是通過(guò)了圖靈測試。不過(guò),“思考”的定義本來(lái)就很模糊。
一、在2014年已有機器人可以“欺騙”人類(lèi)
為了讓自己設計的機器人通過(guò)圖靈測試,現在的計算機程序員趨向設計一些“滑頭”的機器在本質(zhì)上能掩蓋真實(shí)的對話(huà),迷惑人類(lèi)判斷。
在去年7月7日,英國皇家學(xué)會(huì )的圖靈測試大賽中,一個(gè)名為Eugene Goostman的機器人偽裝成13歲的烏克蘭男生,成功“欺騙”了三分之一的評委。
據悉,Eugene是一個(gè)人工智能聊天程序,一款專(zhuān)門(mén)設計與人類(lèi)進(jìn)行聊天的計算機程序或聊天機器人。當然,受到某些超現實(shí)主義的影響,這款機器人還能和其他聊天機器人進(jìn)行對話(huà)交流。一起來(lái)通過(guò)視頻感受一下:
不過(guò),很快就有人站出來(lái)說(shuō),根本算不上真正的人工智能。因為將人類(lèi)智能設置為一個(gè)13歲的烏克蘭男生,并且測試是使用的英語(yǔ),那么測試的時(shí)候就算出現一些低級錯誤,人們也不會(huì )懷疑:還能怎么樣,他只是一個(gè)孩子?這人為的設定本身就為成功“欺騙”人類(lèi)創(chuàng )造了得天獨厚的條件。
二、除了聊天,機器人將擁有創(chuàng )造性思維
在現在看來(lái),與Eugene一樣的聊天機器人已經(jīng)算得上人工智能的里程碑。不過(guò),研究人員還有更具挑戰性的使命:讓機器人擁有人類(lèi)最重要的品質(zhì)——創(chuàng )造力!
四年前,Selmet Bringsjord、Paul Bello以及David Ferrucci三位研究人員擬建了“洛夫萊斯測試”,它是以十九世紀著(zhù)名的數學(xué)家、程序員阿達·洛夫萊斯伯爵夫人的名字命名的。你可以要求計算機去創(chuàng )造一些東西,比如編一個(gè)故事或寫(xiě)一首詩(shī)。
事實(shí)上,《三體》的作者劉慈欣就曾經(jīng)開(kāi)發(fā)了一個(gè)簡(jiǎn)單的寫(xiě)詩(shī)小程序“電子詩(shī)人”,實(shí)現了計算機自主寫(xiě)詩(shī)、編故事。
但是要通過(guò)所謂的“洛夫萊斯測試”,所有設計相關(guān)程序的人必須能夠解釋它是如何生成這些創(chuàng )意作品的。
Mark Riedl來(lái)自佐治亞理工大學(xué)交互計算學(xué)院,他提出對“洛夫萊斯測試”進(jìn)行升級,也就是“洛夫萊斯測試2.0版本”,一臺計算機必須要完成一系列越來(lái)越苛刻的創(chuàng )意挑戰,之后會(huì )獲得一個(gè)分數,并以此評估創(chuàng )造性。
顯然,洛夫萊斯測試2.0版本具有一定挑戰性,但同時(shí),又有人提出異議,因為他們認為不應該把創(chuàng )造力看做是人類(lèi)最重要的品質(zhì)。
三、人工智能系統產(chǎn)生感情共鳴
不過(guò)現在,請先忘記“圖靈測試”和“洛夫萊斯測試”吧,因為筆者要提出一個(gè)全新的人工智能測試——弗蘭普頓測試(Frampton Test)?;蛟S你會(huì )感到好奇,什么是“弗蘭普頓測試”呢?
事實(shí)上,在本月初舉辦的Robotronica 2015機器人創(chuàng )力大會(huì )上,Jared Donovan和機器人學(xué)家Michael Milford,以及舞蹈家Kim Vincs教授對人工智能創(chuàng )造力進(jìn)行了一次專(zhuān)題討論。最近,很多業(yè)界人士都認為人工智能在未來(lái)是人類(lèi)最大的威脅,甚至是人類(lèi)的“終結者”。而在本屆機器人創(chuàng )力大會(huì )上的這次專(zhuān)題討論更多地是去關(guān)注創(chuàng )造力和機器人的現狀,以及人類(lèi)更希望智能機器去表達什么樣的情緒或情感。
在人類(lèi)的精神層面上,共鳴可以算得上是最高層次的一種情緒表達了,人類(lèi)具有理解彼此,分享彼此感受的能力,而且在絕大多數情況下,彼此之間根本不需要做太多識別判斷,僅僅是一個(gè)眼神、一個(gè)動(dòng)作,就能做到心有靈犀。
因筆者提出了“弗蘭普頓測試”這一概念之所以要用著(zhù)名搖滾傳奇Peter Frampton的名字來(lái)命名,其實(shí)是因為他在1973年的一首歌曲中提出了一個(gè)重要的問(wèn)題……“你能像我們一樣感覺(jué)彼此嗎?”
我們知道,人類(lèi)會(huì )在某些特定狀態(tài)里產(chǎn)生共鳴,同感彼此的感覺(jué)。弗蘭普頓測試也希望能夠達到這一目標,它要求人工智能系統必須在類(lèi)似的某些特定狀態(tài)里,給出一個(gè)令人信服、且適當的情緒或情感回應。
不得不提,人們已經(jīng)開(kāi)始在相關(guān)領(lǐng)域里進(jìn)行探索了,這種所謂“情感計算”的人工智能,希望能夠給機器灌輸模擬人類(lèi)共鳴的能力。
當然,要想通過(guò)弗蘭普頓測試可能還有很長(cháng)的路要走。另外,現階段那些機器人身上所表現出的強烈的情緒、情感,其實(shí)都是繼承自它們的創(chuàng )造者而已。
四、人工智能帶來(lái)值得思考的問(wèn)題
據悉,人工智能和機器人研究人員在今年7月發(fā)布了一封公開(kāi)信。這些大佬們在信里提出,如果機器人可以自動(dòng)控制武器,未來(lái)將會(huì )是非常危險的。毫無(wú)疑問(wèn),機器人越來(lái)越聰明了,那么為了人工智能不威脅到人類(lèi),又引發(fā)人們廣泛的思考。
其中,有一個(gè)有趣的思考,在為機器人設計程序時(shí)是否加入情感?如果機器人具備了人類(lèi)情感,比如同情心,就算機器人具有自動(dòng)控制武器的能力,它也不會(huì )去殺人了。
但是,讓機器人具備人類(lèi)情感就真的是件好事兒?jiǎn)??我們知道,人?lèi)情感并不都是積極正面的,比如憎恨、憤怒、忿怨等等?;蛟S我們真的應該感到慶幸,自己生活在一個(gè)沒(méi)有情感機器人的世界里面。比如,你調戲Siri之后,得到的是惡語(yǔ)相向的回答,真不知道會(huì )是個(gè)什么樣的場(chǎng)景。
雖然社會(huì )新聞常常出現“暴力”新聞,但是縱觀(guān)生活中的大環(huán)境,不難發(fā)現占據人類(lèi)生活中主導地位的依然是積極正面的情感情緒。
事實(shí)上,所有和人工智能相關(guān)的問(wèn)題都值得認真思考,機器人是否會(huì )在未來(lái)某一天具有創(chuàng )造力,我們人類(lèi)是否希望機器人具有創(chuàng )造力呢?諸如此類(lèi)。
畢竟,人工智能潛伏著(zhù)滅亡人類(lèi)的可能性,所以現在對人工智能的思考不能停止。
最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅動(dòng)創(chuàng )新
