五角大樓AI倫理原則公布:負責、公平、可追蹤、可靠和可管理

韓璐 6年前 (2019-11-01)

在“公平”的討論上,五角大樓國防創新委員會給出了不太一樣的“解釋”。

據外媒報道,五角大樓內部成立的國防創新委員會投票批準了國防部的AI倫理原則,包含5個主要原則(負責、公平、可追蹤、可靠和可管理)、12條建議,指導美軍將來如何在戰斗和非戰斗AI系統中應用道德規范。

五角大樓AI倫理原則公布:負責、公平??勺粉?、可靠和可管理

原則指出,人類應繼續對“發展、部署、使用和成果”負責,軍方使用的人工智能系統應避免可能導致意外傷害的偏見。國防部部署的AI還應該可靠、可管理,并使用“透明且可審核的方法、數據源以及設計過程和文檔。”

其中“避免意外傷害和破壞以及避免人為部署系統的脫離接觸”這一點,被部分委員會成員認為是“可管理原則”中應該明確的一點。而在這一點的實踐上,軍方需要在使用的AI系統上配備一個關門開關,以防情況出錯時能夠進行人為制止。

令人“較為意外”的是,在“公平”這一原則上,國防創新委員會給出了一個較為不同的解釋。國防創新委員會成員和卡耐基梅隆大學研究副總裁Michael McQuade表示,“您可能會在‘AI倫理原則文檔’中看到公平一詞引起的共鳴。我會告誡您,在許多情況下,國防部不應該公平。這應該是一個堅定的原則,即我們的系統中不應有意外的偏見。”這與人們一般理解中的“公平”還是不同的。

近一兩年來,圍繞“AI倫理”這一點,五角大樓沒少受到來自業界專家和群眾的質疑和抨擊,譬如與谷歌合作“Maven項目”,基于后者AI技術無人機自動追蹤有關對象等等。對于五角大樓而言,AI倫理原則的落實是較為急迫的。

據了解,該AI倫理原則雖然已經得到了國防創新委員會的批準,但最終還是將由國防部領導來決定是否采納任何原則。國防部發言人表示,目前“人工智能原則:國防部關于人工智能在倫理上的使用的建議”文件和相關白皮書已經上傳至國防創新委員會的網站,將與國防部領導進行共享。

最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!

鎂客網


科技 | 人文 | 行業

微信ID:im2maker
長按識別二維碼關注

硬科技產業媒體

關注技術驅動創新

分享到