無(wú)人駕駛汽車(chē)背后的倫理困境
為什么Google的無(wú)人駕駛汽車(chē)不能在追尾即將發(fā)生時(shí)進(jìn)行變道而避免事故發(fā)生呢?這背后有一些道德上和法律上的問(wèn)題需要解決。
盡管Google的無(wú)人駕駛汽車(chē)已經(jīng)測試多年,就在7月1日的一次測試中,一輛經(jīng)過(guò)Google改裝的雷克薩斯SUV在加州山景城遭到追尾,車(chē)上的3名Google員工受了輕微的皮外傷。然而無(wú)一例外,這些事故的原因都不是Google無(wú)人駕駛汽車(chē)自己的問(wèn)題,至少Google一直堅持這么說(shuō);畢竟這些事故中有很多都是Google的無(wú)人駕駛汽車(chē)被追尾導致的。這次無(wú)人駕駛汽車(chē)事件再次將人工智能牽涉的倫理問(wèn)題推到風(fēng)口浪尖。
那么為什么Google的無(wú)人駕駛汽車(chē)不能在追尾即將發(fā)生時(shí)進(jìn)行變道而避免事故發(fā)生呢?
事實(shí)上,他們可以辦到這一點(diǎn),但是在這么做之前,他們還有一些道德上和法律上的問(wèn)題需要解決。
汽車(chē)防撞的技術(shù)一直都存在,不管對方是另一輛汽車(chē),還是一個(gè)行人或者其它物體,裝備這項技術(shù)的汽車(chē)應該都能對可能發(fā)生的撞擊采取措施而進(jìn)行規避。到目前為止,這項技術(shù)都還只用到防止前方撞擊上,但理論上,這些技術(shù)也可以用在防止追尾上,但首先,還需要考慮以下的問(wèn)題:
可能的事故場(chǎng)景
想象一下你的自動(dòng)駕駛汽車(chē)停在路口等待著(zhù)你前面的行人過(guò)馬路,這時(shí)候,你的車(chē)子發(fā)現后面有另一輛卡車(chē)沖過(guò)來(lái)了,看起來(lái)無(wú)可避免地要發(fā)生追尾事故了,但是你坐在前排座位上,這樣的事故只會(huì )給你帶來(lái)一點(diǎn)小傷——至少不會(huì )致命。如果你的汽車(chē)具備規避程序,那么你的汽車(chē)應該怎么做呢?如果你的車(chē)子可以立馬躲開(kāi),移到旁邊的車(chē)道去,那么這輛卡車(chē)就會(huì )沖進(jìn)路口,碾壓行人。
那么這樣的自動(dòng)駕駛程序是合情合理的嗎?在大部分的追尾事故中,這樣的規避也許無(wú)可厚非,但是在類(lèi)似于這種情況的特殊情況(其實(shí)并不罕見(jiàn))下,讓自己受一點(diǎn)小傷還是拱手送上無(wú)辜行人的性命,選擇顯而易見(jiàn)。
因為,這個(gè)時(shí)候可以認為你(或你的車(chē))應該對被無(wú)辜碾壓的行人負責,因為正是你(或你的車(chē))的規避動(dòng)作導致了這一事故的發(fā)生。由此帶來(lái)的道德和法律后果就需要你(或車(chē)輛負責人)承擔。
這樣的狀況可能在今天的汽車(chē)駕駛中也會(huì )出現,在發(fā)生事故時(shí),你可能******地保護自己而給別人造成傷害??雌饋?lái)和無(wú)人駕駛汽車(chē)造成的后果一樣,但是人類(lèi)不是全然理性的生物,在遇到緊急狀況時(shí)并不能做出理智的決定——人類(lèi)會(huì )感到驚慌。然而無(wú)人駕駛的機器就不一樣了,它的決定都來(lái)自于經(jīng)過(guò)了深思熟慮之后的程序和算法,由此帶來(lái)的后果就不太容易讓人原諒。而且如果是程序員故意設置這樣的程序,那么甚至可以將這種事故定義為“蓄意謀殺”,即使是考慮不周,也可能被定義為“重大過(guò)失”。
不管哪種可能,對程序員和開(kāi)發(fā)者來(lái)說(shuō)都是難逃法律干系的。當科技公司用機器來(lái)取代人做決定的時(shí)候,也就給自己帶來(lái)了新的責任和義務(wù)。
道德困境
但是別急,這樣的問(wèn)題難道在前端碰撞時(shí)就不存在嗎?后端碰撞有什么不同?
其中最大的不同之處在于,追尾發(fā)生的時(shí)候,責任通常是在后車(chē)——通常是因為后車(chē)跟車(chē)太緊,沒(méi)法對前車(chē)的動(dòng)作做出及時(shí)的反應;或者后車(chē)駕駛員分心了。所以對于無(wú)人駕駛汽車(chē)而言,被追尾是沒(méi)有法律責任的。而如果無(wú)人駕駛汽車(chē)在行進(jìn)過(guò)程中發(fā)現了前方車(chē)輛,那么它就有責任進(jìn)行規避,避免可能發(fā)生的事故。
在無(wú)人駕駛引起的倫理問(wèn)題上,這兩種情況也是不同的。這個(gè)問(wèn)題有一個(gè)被稱(chēng)為“電車(chē)難題”的通用版本,由哲學(xué)家Phillipa Foot和Judith Jarvis Thomson提出,在這種情況下,無(wú)人駕駛汽車(chē)做出的規避選擇是完全合法的:它躲開(kāi)了可能直接造成的傷害,也沒(méi)有給其他人帶來(lái)直接的傷害,但是這種合法卻是不道德的,所以也就是說(shuō),僅僅讓無(wú)人駕駛汽車(chē)的程序滿(mǎn)足法律規范是不夠的。
無(wú)人駕駛技術(shù)是人工智能領(lǐng)域的一種,而人工智能研究與生俱來(lái)具有“哲學(xué)特質(zhì)”。有學(xué)者認為,不同人工智能專(zhuān)家推出的人工智能產(chǎn)品背后有不同哲學(xué)預設和思路,由兩個(gè)不同編程思維的機器預測同一件事就會(huì )得出不一樣的結論;同樣,也不能指望通過(guò)造一臺機器解決所有問(wèn)題,因為造機器的人本身是有限性的,選擇也必須有所偏重。如何做到規避事故而又減少對他人未知的傷害,與之同時(shí),又要符合道德和法律,這是對無(wú)人駕駛技術(shù)乃至人工智能領(lǐng)域的挑戰。要好好的解決這個(gè)問(wèn)題,也許需要倫理學(xué)家與人工智能學(xué)家好好溝通,人工智能涉及的問(wèn)題需要與業(yè)界編程思路和哲學(xué)思辨相結合。
最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅動(dòng)創(chuàng )新
