歐盟發布“可信賴AI”道德準則草案,提出兩大要素、數個不可為
關于AI的“道德行為框架”,這早已是一個國際性問題。
日前,歐盟委員會(EC)任命的人工智能高級專家小組(AI HLEG)發布了一份內容長達37頁的AI開發和使用道德草案——可信賴AI的道德準則草案(Draft Ethics Guidelines for Trustworthy AI)。其中提出,可信賴AI應該具備兩大要素,以及AI不可為的基本原則。
據了解,人工智能高級專家小組由歐盟委員會于去年4月任命,組內共有52位代表學術界、工業界和民間社會的獨立專家。彼時,這一小組的建立也有消息露出,按照當時的說法,他們的任務主要有三個,包括:
一、就委員會如何在“歐洲人工智能聯盟”中建立廣泛而多樣化的利益相關者社區向歐盟委員會提供建議;
二、支持即將實施的歐洲人工智能倡議(2018年4月);
三、在年底前出臺基于歐盟基本權利的倫理發展和人工智能使用準則草案,充分考慮公平性、安全性、透明度、未來工作、民主以及更廣泛地影響“基本權利憲章”的適用等問題。該指導方針將在歐洲委員會獨立咨詢機構歐洲科學和新技術倫理組織(EGE)的發言中進行廣泛的磋商和建設之后起草。
如今,這一小組已經完成了任務。
具體來看,根據道德草案準則,可信賴AI有兩個組成要素:
一、應該尊重基本權利,使用法規、核心原則和價值觀,以確保符合“道德目的”;
二、兼具技術魯棒性和可靠性,因為即使有良好的意圖,缺乏技術掌握也會造成無意的傷害。
不過,不怕一萬,就怕萬一。為了應對AI出現問題,還應該準備一個“應急計劃”,比如系統出現問題后,將控制權交由人類手中一般。
另外,該草案還提出了幾點AI的不可為——AI不應該以任何方式傷害人類;AI不應該限制人的自由;AI應被公平使用,不得歧視或污蔑;AI應透明的運作,即人類需要知道AI正在開發的目的,以及如何使用它;AI應該只為個人和整個社會的福祉而發展。
在整體框架上,草案可分為三部分,第一部分闡述了AI必須遵守的基本權利和價值觀,以確保其能夠符合“道德目的”;第二部分提出了實現可信賴AI的指導方針,同時兼顧道德目的和技術穩健性,并列出了可信賴AI的要求,包括技術和非技術方法;第三部分則提供了一個可信賴AI的評估表,涵蓋問責機制、數據治理、非歧視、尊重隱私等等。
據悉,該草案目前還處于意見征集階段,時間截止于本月18日。而在今年3月,該草案將被正式提交到歐盟委員會。
一直以來,隨著AI越來越多的帶來便利性,其背后的道德隱患問題也一直備受關注,關于“AI威脅論”的爭論也一直沒有停歇。作為一個國際性聯盟,歐盟近年來一直都在關注人工智能,除了推動此次草案的完成,其還于去年發布了AI行動計劃等等。同時,在企業方面,作為AI的研究者和商業化推動者,包括微軟、谷歌等在內,均針對AI推出了自己的AI準則。
最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!
硬科技產業媒體
關注技術驅動創新
