道德迷宮,不該成為無(wú)人駕駛發(fā)展的攔路虎!

Joker 9年前 (2016-08-30)

當事故無(wú)法避免,你會(huì )選擇撞人還是撞車(chē)?那無(wú)人駕駛車(chē)輛又該怎么選擇?

機器人學(xué)的三大法則:

第一法則:機器人不得傷害人類(lèi),或坐視人類(lèi)受到傷害;

第二法則:除非違背第一法則,機器人必須服從人類(lèi)的命令;

第三法則:在不違背第一及第二法則下,機器人必須保護自己。

道德迷宮,不該成為無(wú)人駕駛發(fā)展的攔路虎!

當碰上必須做出犧牲的時(shí)刻,無(wú)人駕駛應該做出什么選擇?

老司機們都知道,道路情況瞬息萬(wàn)變,有很多事故往往都在你想不到情況下發(fā)生?,F如今憑借高速發(fā)展的計算機技術(shù)和制造技術(shù),無(wú)人駕駛已經(jīng)離我們越來(lái)越近。

傳統車(chē)廠(chǎng)現階段已經(jīng)基本上已經(jīng)將ADAS(高級輔助駕駛系統)商業(yè)化,成功的搭載于旗下高端車(chē)型。智能巡航、行人探測系統、車(chē)道保持等等功能已經(jīng)廣泛運用于沃爾沃旗下車(chē)型;新一代的寶馬7系已經(jīng)可以實(shí)現鑰匙遙控車(chē)輛的出入車(chē)庫;甚至于Uber和谷歌等高科技公司,已經(jīng)將研發(fā)成形的無(wú)人駕駛原型車(chē)開(kāi)上道路進(jìn)行測試。

道德迷宮,不該成為無(wú)人駕駛發(fā)展的攔路虎!

就在大家都在為無(wú)人駕駛上路而全力以赴的時(shí)候,來(lái)自圖盧茲經(jīng)濟學(xué)院的 Jean-Francois Bonnefon在去年卻提出這樣一個(gè)觀(guān)點(diǎn):當碰上必須做出犧牲的時(shí)刻,無(wú)人駕駛應該做出什么選擇?

當你坐在一輛無(wú)人駕駛的車(chē)輛里,很不幸的發(fā)生了車(chē)輛快速沖向前方行車(chē)的情況。此時(shí),無(wú)人駕駛車(chē)輛可以有兩個(gè)選擇:撞向旁邊的圍墻,犧牲自己保全前方的行人;撞向行人,以保全車(chē)內的乘員。后來(lái),Bonnefon又修改了當中的細節。比方說(shuō),當這種情況發(fā)生時(shí),車(chē)輛的決策權是否應該交還給司機?如果你的車(chē)上此時(shí)有一個(gè)嬰兒,應該怎么辦?如果前方也有一輛車(chē),撞墻的話(huà),自己必然會(huì )有犧牲,但是不會(huì )波及到前方車(chē)輛;但是如果選擇撞車(chē),可能會(huì )保全雙方,但是同時(shí)也會(huì )有雙方都有人受傷的情況發(fā)生。這時(shí)又該怎么選擇?

在這一些列問(wèn)題的基礎之上,還有一個(gè)責任劃分的問(wèn)題。無(wú)人駕駛車(chē)輛發(fā)生事故之后,責任歸屬于車(chē)上的司機還是無(wú)人駕駛機器?如果劃分給機器的話(huà),應該由汽車(chē)廠(chǎng)家負責還是由算法提供商負責?還是說(shuō)雙方應該共同來(lái)承擔責任?

不得不說(shuō),這一些列的觀(guān)點(diǎn)提出,鎂客君覺(jué)得無(wú)疑給正在飛速發(fā)展的無(wú)人駕駛潑上一盆冷水。仿佛進(jìn)入了道德迷宮,你永遠面臨著(zhù)選擇,而不同選擇的背后,都會(huì )有相應的后果。

麻省理工似乎有解決方案

道德迷宮,不該成為無(wú)人駕駛發(fā)展的攔路虎!

就在人們對于無(wú)人駕駛車(chē)輛上路后,所要面對的道德問(wèn)題進(jìn)行討論的時(shí)候,麻省理工的實(shí)驗室里,似乎傳來(lái)一種解決方案。而這個(gè)解決方案是基于他們開(kāi)發(fā)出來(lái)的一臺道德機器。

很有意思的是,這臺機器人會(huì )先要求人們來(lái)回答一些列的問(wèn)題。而這些問(wèn)題也很尖銳,讓很多參與者感到不安。比方說(shuō):沒(méi)有乘客的無(wú)人駕駛汽車(chē)突然撞向馬路中間的一條狗和逃跑的罪犯,你是去救狗還是去救罪犯?在測試結束之后,機器會(huì )把所有結果進(jìn)行對比。最終得出的結論是:人們更多的是關(guān)心無(wú)人駕駛車(chē)輛是否會(huì )對道路上的其他人員造成傷害,而更少的關(guān)注乘坐無(wú)人駕駛車(chē)輛的人員。

這個(gè)解決方案看起來(lái)似乎有點(diǎn)意思,從結果出發(fā)來(lái)解決問(wèn)題。只是,道德向來(lái)是一種社會(huì )意識形態(tài),是一種虛無(wú)的意識形態(tài)。這一個(gè)機器所做的無(wú)非是將各類(lèi)數據收集,然后分析出來(lái)一個(gè)結果。如果是基于真實(shí)案例,不管是對行人或者乘坐人一旦造成傷害,想必還是會(huì )遭受到輿論的抨擊。

也就是說(shuō),麻省理工所提出的并不是一個(gè)解決方案,而更多的是提供一個(gè)數據分析,僅此而已。

連谷歌都不知道答案,無(wú)人駕駛該何去何從?

道德迷宮,不該成為無(wú)人駕駛發(fā)展的攔路虎!

上周,來(lái)自谷歌的工程總監Ray Kurzweil,在奇點(diǎn)大學(xué)做演講時(shí)回答了這個(gè)問(wèn)題,當時(shí)他說(shuō)了五個(gè)字:我們不知道。

他承認,目前對于無(wú)人駕駛的道德品性方面,沒(méi)有任何現成的答案,就連分析都沒(méi)做過(guò)。而作為谷歌的首席工程師Andrew Chatham則認為,當無(wú)人駕駛車(chē)輛面臨選擇的時(shí)候,往往第一時(shí)間做出的決策是——踩剎車(chē)。

所以,就連擁有世界無(wú)人駕駛領(lǐng)先水平的谷歌都不知道應該怎么去面對這些道德迷宮,而他們現在能做的只有踩剎車(chē)。

鎂客君在這里不得不說(shuō),道德倫理一直伴隨著(zhù)人類(lèi)文明的發(fā)展而進(jìn)步,也會(huì )隨著(zhù)科技的發(fā)展而發(fā)生變化。所以,道德迷宮不應該成為無(wú)人駕駛發(fā)展道路上的攔路虎。

要知道,現階段的無(wú)人駕駛技術(shù),還并沒(méi)有完善和商業(yè)化,僅僅是停留在研發(fā)測試階段。哪怕我們大膽設想未來(lái)不超過(guò)5年的時(shí)間,無(wú)人駕駛車(chē)輛將上路行駛。那么到5年后,人們的道德輿論標準是否會(huì )發(fā)生相應的變化?當人們都有意識去規范自己的行為,遵守規定的時(shí)候,咱們的道路是否會(huì )形成一種相對的安全,從而避免上述的選擇出現,從根本上改變?

科技的發(fā)展,不應受到道德的約束,這種無(wú)謂的鉆牛角尖,只會(huì )阻礙人類(lèi)科技文明的進(jìn)步。

最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長(cháng)按識別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅動(dòng)創(chuàng )新

分享到