五角大樓AI倫理原則公布:負責、公平、可追蹤、可靠和可管理
在“公平”的討論上,五角大樓國防創(chuàng )新委員會(huì )給出了不太一樣的“解釋”。
據外媒報道,五角大樓內部成立的國防創(chuàng )新委員會(huì )投票批準了國防部的AI倫理原則,包含5個(gè)主要原則(負責、公平、可追蹤、可靠和可管理)、12條建議,指導美軍將來(lái)如何在戰斗和非戰斗AI系統中應用道德規范。
原則指出,人類(lèi)應繼續對“發(fā)展、部署、使用和成果”負責,軍方使用的人工智能系統應避免可能導致意外傷害的偏見(jiàn)。國防部部署的AI還應該可靠、可管理,并使用“透明且可審核的方法、數據源以及設計過(guò)程和文檔。”
其中“避免意外傷害和破壞以及避免人為部署系統的脫離接觸”這一點(diǎn),被部分委員會(huì )成員認為是“可管理原則”中應該明確的一點(diǎn)。而在這一點(diǎn)的實(shí)踐上,軍方需要在使用的AI系統上配備一個(gè)關(guān)門(mén)開(kāi)關(guān),以防情況出錯時(shí)能夠進(jìn)行人為制止。
令人“較為意外”的是,在“公平”這一原則上,國防創(chuàng )新委員會(huì )給出了一個(gè)較為不同的解釋。國防創(chuàng )新委員會(huì )成員和卡耐基梅隆大學(xué)研究副總裁Michael McQuade表示,“您可能會(huì )在‘AI倫理原則文檔’中看到公平一詞引起的共鳴。我會(huì )告誡您,在許多情況下,國防部不應該公平。這應該是一個(gè)堅定的原則,即我們的系統中不應有意外的偏見(jiàn)。”這與人們一般理解中的“公平”還是不同的。
近一兩年來(lái),圍繞“AI倫理”這一點(diǎn),五角大樓沒(méi)少受到來(lái)自業(yè)界專(zhuān)家和群眾的質(zhì)疑和抨擊,譬如與谷歌合作“Maven項目”,基于后者AI技術(shù)讓無(wú)人機自動(dòng)追蹤有關(guān)對象等等。對于五角大樓而言,AI倫理原則的落實(shí)是較為急迫的。
據了解,該AI倫理原則雖然已經(jīng)得到了國防創(chuàng )新委員會(huì )的批準,但最終還是將由國防部領(lǐng)導來(lái)決定是否采納任何原則。國防部發(fā)言人表示,目前“人工智能原則:國防部關(guān)于人工智能在倫理上的使用的建議”文件和相關(guān)白皮書(shū)已經(jīng)上傳至國防創(chuàng )新委員會(huì )的網(wǎng)站,將與國防部領(lǐng)導進(jìn)行共享。
最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅動(dòng)創(chuàng )新
