如果人工智能殺了人,誰(shuí)來(lái)承擔責任?
如果能夠仔細思考這些問(wèn)題的話(huà),說(shuō)不定會(huì )有助于減少未來(lái)可能存在的風(fēng)險。
我們對人工智能的第一印象基本來(lái)自科幻電影,那些喜歡電影《終結者》的粉絲也許堅信未來(lái)人工智能將與人對抗,是一種人類(lèi)已知威脅。這并不是毫無(wú)根據隨著(zhù)時(shí)間的推移,人工智能系統將會(huì )越來(lái)越不依靠傳統的經(jīng)典算法和代碼,而且他們也會(huì )展示出更多我們無(wú)法預料到的行為。
顯然,人工智能背后可以牽扯出很多倫理問(wèn)題,并亟待有相應的法律來(lái)完善這個(gè)行業(yè)。法律哲學(xué)家John Donaher表示,如果能夠仔細思考這些問(wèn)題的話(huà),說(shuō)不定會(huì )有助于減少未來(lái)可能存在的風(fēng)險。
一、人工智能需要規章制度嗎?
如果從監管的角度來(lái)看人工智能,那么你會(huì )發(fā)現,嚴格的安全標準,以及建立完善的安全認證流程是非常必要的。不過(guò),如何設計一個(gè)合適的機構與流程框架,并且讓這個(gè)框架得以有效運行,依然是一個(gè)非常棘手的問(wèn)題。
人工智能領(lǐng)域復雜難懂,而且外部世界對于人工智能研發(fā)圈子普遍缺乏認識,這也就是人工智能專(zhuān)家需要盡快創(chuàng )建行業(yè)框架的原因所在。實(shí)際上,這里所說(shuō)的框架,就是規章制度,說(shuō)通俗些也就是游戲規則。因此,這意味著(zhù)人工智能顧問(wèn)委員會(huì )需要和政府一起,盡快立法,建設行業(yè)標準。
我們不得不承認,人工智能行業(yè)存在巨大的潛在效益;但是標準和流程,需要不斷的創(chuàng )建、更新、并且執行,這樣才能達到一種持續性平衡,繼而最大限度地提高公共福利和安全;當然,也只有這樣,才不會(huì )扼殺創(chuàng )新,更不會(huì )出現不必要的法律負擔。
事實(shí)上,站在國家的角度上,建立任何一個(gè)法律框架或游戲規則,都必須要足夠靈活,監管機構不僅需要考慮到本國利益,也要從全球角度出發(fā)。這意味著(zhù)在某種程度上,你不僅要考慮本國的人工智能產(chǎn)量,以權衡進(jìn)口其他各國人工智能技術(shù),同時(shí),你還要思考該如何任何不同國家之間的安全標準和認證,必要的時(shí)候,你是否還需要遵守未來(lái)可能出現的國際條約或公約,等等。所有這一切,遠比我們想象的要復雜得多。
因此,當我們沿著(zhù)人工智能研發(fā)的道路上前行,圍繞人工智能構建規章制度是必須要去做的事情,不要當一切都來(lái)不及時(shí)再后悔莫及。
二、人工智能犯了事,就沒(méi)人擔責任嗎?
上面關(guān)于人工智能的監管的分析,但是現在我們要談?wù)勜熑螁?wèn)題。人工智能的監管與責任,和安全與公共福利一樣,都像是硬幣的正反面。監管的目的,是為了確保人工智能系統盡可能的安全;而責任,其實(shí)就是為了當人工智能系統出錯時(shí),我們可以找到可以追究問(wèn)題的人,或者再說(shuō)的準確一點(diǎn)兒,就是找誰(shuí)可以獲得法律上的賠償。
首先,我們可以模擬一個(gè)侵權(民事)責任問(wèn)題,想象下,在不遠的將來(lái)可能會(huì )發(fā)生這樣一個(gè)場(chǎng)景:一輛無(wú)人駕駛拖拉機原本應該按照指令在A(yíng)農民的田里播種,但是奇怪的是,它卻把種子播種到了B農民家的田里。
讓我們先假設A農民是完全按照操作手冊來(lái)使用那輛無(wú)人播種拖拉機的,同時(shí),我們也假設A農民無(wú)需再做其他額外的操作,比如在農田交界處設置無(wú)線(xiàn)電信標,等等。那么現在,假設農民B要來(lái)控告這次錯誤播種事件(我們暫且不考慮諸如滋擾和侵犯等問(wèn)題),會(huì )遇到哪些問(wèn)題呢?。
實(shí)際上,有很多問(wèn)題需要被回答,這個(gè)事故是農民A的責任嗎?可能不是;那么,是無(wú)人播種拖拉機廠(chǎng)商的責任嗎?有可能,但在此之前,我們是不是該明確與這些問(wèn)題相關(guān)的責任和標準呢?比如無(wú)人播種拖拉機的行業(yè)標準是什么,制造商的產(chǎn)品規格是否符合相關(guān)標準呢?不僅如此,如果自己的土地被他人種植上了其他農作物,這是否算是財產(chǎn)損失,又是否能否追溯經(jīng)濟賠償呢?
在一連串問(wèn)題之前,我們其實(shí)是先假定了無(wú)人播種拖拉機里面的系統軟件是由制造商開(kāi)發(fā)的。那么接下來(lái)又有新的問(wèn)題出現了,如果那套人工智能系統是由第三方開(kāi)發(fā)公司完成開(kāi)發(fā)的,該如何處理?還有,系統內部的軟件代碼是由多人合作完成的,又該如何界定各自的職責?
未來(lái),人工智能到底會(huì )做出什么事來(lái),包括人工智能系統的創(chuàng )造者也無(wú)法預料。但重要的是,可預見(jiàn)性,其實(shí)是處理責任過(guò)失問(wèn)題中一個(gè)非常關(guān)鍵的組成部分。
為了能夠讓讀者更好地理解可預見(jiàn)性問(wèn)題,我們才會(huì )假設了上面那個(gè)無(wú)人播種拖拉機的案例,或許十年、二十年之后,人工智能已經(jīng)不再是簡(jiǎn)單的種錯莊稼這件事兒了,它可能會(huì )是某個(gè)意外讓人們受傷,更嚴重一些,人工智能可能會(huì )不小心殺人。所以,如果我們的法律無(wú)法適時(shí)作出改變,那么未來(lái)將會(huì )導致更多問(wèn)題出現。就拿上面那個(gè)人工智能種錯莊稼的事情為例,當無(wú)法實(shí)現可預見(jiàn)性,最終的結果就是沒(méi)人承擔責任!
三、不可以直接責怪人工智能機器人嗎?
由上面一連串的分析,也許你會(huì )想為什么我們不干脆去責怪機器人呢?畢竟,關(guān)于人工智能人格也有過(guò)討論,而且人工智能系統本身也有擔負刑事責任的可能。
但是,這種方法在實(shí)際應用時(shí)又有什么不一樣呢?這里,還是借用別人曾經(jīng)說(shuō)過(guò)的一句話(huà)吧。“人工智能系統真的會(huì )像著(zhù)名小說(shuō)家艾薩克·阿西莫夫筆下的機器管家那樣嗎?遵守法律,遵從道德良知,還能保護銀行存款?”
我們姑且不去討論人工智能系統是否可以被起訴,但人工智能制造商和開(kāi)發(fā)商們必須受到監管。只有這樣,才有可能將一些無(wú)法歸責的各方,用嚴格責任賠償(注:嚴格責任賠償是指只要造成了損害,不論行為人有無(wú)過(guò)錯,都要承擔賠償責任。 常見(jiàn)的適用于無(wú)過(guò)錯責任原則的,有從事高壓、劇毒、高速、放射等作業(yè)造成他人損害的。工傷是典型的適用無(wú)過(guò)錯責任原則的,也就是說(shuō)只要勞動(dòng)者在工作期間因公受傷了,排除勞動(dòng)者個(gè)人主觀(guān)故意的因素之外,雇用單位無(wú)論有無(wú)過(guò)錯都要承擔工傷賠償的責任的。)約束起來(lái),
實(shí)際上,在我們的日常生活里,嚴格責任賠償已經(jīng)應用到了很多地方。當然除了這種責任賠償之外,如果需要對人工智能追責,其實(shí)也可以采用無(wú)過(guò)錯責任賠償和賠償方案池等方式。
我們可以大膽猜測一下,在過(guò)幾年無(wú)人駕駛也許會(huì )占領(lǐng)汽車(chē)領(lǐng)域,必定會(huì )掀起熱烈的討論。當我們將無(wú)人駕駛汽車(chē)所涉及到的問(wèn)題解決的差不多時(shí),人工智能還會(huì )是事兒?jiǎn)幔?/p>
最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅動(dòng)創(chuàng )新
