阻止機器人上戰場(chǎng),霍金求禁“人工智能武器”
近日,霍金、馬斯克、史蒂夫等科技及人工智能領(lǐng)域“大佬”共同簽署了一封公開(kāi)信,號召禁止人工智能武器,阻止機器人在戰爭中普及。
據報道,機器人像科幻電影系列《終結者》那樣在戰爭中得到普及的速度可能比我們預想的更快,而一群科技及人工智能領(lǐng)域的領(lǐng)導者們正試圖阻止其發(fā)生。
近日,著(zhù)名天體物理學(xué)家霍金、特斯拉CEO埃隆·馬斯克(Elon Musk)和蘋(píng)果聯(lián)合創(chuàng )始人史蒂夫·沃茲尼亞克(Steve Wozniak)與其他上百位專(zhuān)業(yè)人士共同簽署了一封號召禁止人工智能武器的公開(kāi)信。公開(kāi)信稱(chēng),人工智能武器是繼火藥和核武器后“戰爭領(lǐng)域的第三次革命”,禁止人工智能武器的禁令必須盡快頒布。
“任何推動(dòng)人工智能武器開(kāi)發(fā)的軍事力量,都有可能導致全球性的軍備競賽,”公開(kāi)信稱(chēng),“那些自動(dòng)‘選擇并打擊目標,無(wú)需人工干預’的武器可能成為明天的AK 47,成為助長(cháng)戰爭、恐怖主義的全球不穩定因素。”據悉,公開(kāi)信還包括其他知名簽署人,如Skype聯(lián)合創(chuàng )始人賈安·塔里安(Jaan Tallinn)、杰出語(yǔ)言學(xué)家諾姆·喬姆斯基(Noam Chomsky)等。
這些專(zhuān)家稱(chēng),人工智能系統可能將在數年內,而非數十年內成為可能。“不同于核能,人工智能武器不需要高昂的成本及難以獲得的原材料,所以這種武器很容易在各軍事力量中普及。他們出現在黑市和恐怖分子手中只是時(shí)間的問(wèn)題。”
該公開(kāi)信表示,帶有武器的四軸無(wú)人機就是一個(gè)很好的例子。雖然人工智能武器可以減少戰場(chǎng)上的人員傷亡,但這本身就是一個(gè)錯誤,因為它會(huì )降低走向戰爭的門(mén)檻。并強烈要求,禁止人工智能武器的禁令必須盡快頒布,以避免軍備競賽,這比“控制人口數量的意義更加深遠”。
人工智能一直是一項備受爭議的課題。目前半自動(dòng)武器系統已經(jīng)大幅增加,美國空軍預測,“到2030年機械性能將極大增強,人類(lèi)反而將成為最弱的系統組件。” 無(wú)論是人工智能的批評者和支持者都表示,人工智能武器系統的界限很難拿捏。
不過(guò),雖然現在越來(lái)越多的公司在投資研發(fā)該技術(shù),從IBM的Watson電腦系統到蘋(píng)果的Siri智能語(yǔ)音助手等。并且,人工智能已經(jīng)在商業(yè)及醫療保健領(lǐng)域得到運用。
事實(shí)上,早已有公司未雨綢繆。例如,人工智能公司DeepMind被谷歌收購時(shí),該公司在收購協(xié)議中加入了一項條款,要求谷歌不能將其技術(shù)運用于軍事領(lǐng)域。
最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅動(dòng)創(chuàng )新
