谷歌AI倫理團隊鬧劇仍未完結,巨頭們所說的“科技向善”還能相信嗎?
AI給我們帶來絢麗而又方便生活的背后,是對社會造成潛在傷害的陰影。
近期,谷歌AI倫理團隊(Ethical AI group)的“連續劇”又有了新料:谷歌下屬機構——谷歌大腦(Google Brian)的知名機器學習專家Samy Bengio宣布本月底將從谷歌離職。外界普遍認為,這是他對谷歌此前解雇兩名AI倫理研究者的抗議。
在諸多媒體的筆下,該事件正成為一場娛樂大眾的鬧劇,充滿了“氣急敗壞的巨頭公司”、“犧牲自己做出反抗”、“不畏強權的平民英雄”等等觀眾喜聞樂見的元素。
不過,較少有人注意到這件事背后的一些關鍵詞,例如AI倫理、人工智能、種族歧視、少數群體和算法等等。盡管這些詞我們早已經司空見慣,但它們距離現實的生活卻顯得遙遠且無從觸及。
格奧爾格曾在詩中寫道:“詞語破碎處,無物可存在”。想要真正吃好谷歌AI倫理團隊的瓜,還得從AI這個詞講起。
AI的三次浪潮:從學界走向業界
AI,即ArtificialIntelligence,中文通常翻譯為人工智能。在相關科學技術仍在迅猛發展的今天,我們還不能給AI下一個本質性的定義。不過,今天人工智能已經覆蓋到了我們生活的方方面面,哪怕是從個人的角度,我們也可以在許多場景中觸摸到它的影子。
比如我們手機支付需要用到的指紋和人臉識別,新聞客戶端中“千人千面”的信息流、外賣軟件中的個性化推薦等等。
不過,從學界到業界,人工智能的誕生與發展并非一帆風順的連續不斷,深入到我們生活中也只不過是最近十幾年的事情。這里需要簡單回顧一下人工智能發展的三次浪潮,而這也正是構成如今人工智能倫理問題的底層邏輯。
現在普遍認為,“人工智能”這一概念最早出自1956年美國的達特茅斯會議上。
2006年,五十年后,達特茅斯會議當年的與會者重聚。
左起:摩爾,麥卡錫,明斯基,賽弗里奇,所羅門諾夫
1956年的夏天,被后人認為是最早提出人工智能這一概念的約翰·麥卡錫,組織了一場“人工智能夏季研討會”(Summer Research Project on Artificial Intelligence),會議主要探討如何讓機器模仿人的智能。
但兩個月過去,會議最終也沒有達成共識。不過,對這一問題的探索以及提出建立人工智能這一學科,也就使1956年成為了人工智能元年。人工智能的三次發展浪潮也就隨之而來。
第一次浪潮:20世紀50到60年代,這段時間內科學家們在探索如何讓機器具備邏輯推理能力,并且成功研發出第一款感知神經網絡軟件和聊天軟件。
第二次浪潮:20世紀 70 年代中期,這段時間學界提出了Hopfield神經網絡和BT訓練算法,解決特定領域的專家系統問世并得到廣泛應用。
第三次浪潮:進入到2006年,人工智能再次迎來新發展?;ヂ摼W、云計算、大數據、芯片等新興技術都為AI產業發展提供充足的數據支持和算力支撐。深度學習大放異彩,算法的應用被普及到許多行業。
最近幾年,計算機視覺、自然語言處理、智能芯片、腦機接口等人工智能技術的分支,都獲得了不同程度的突破。
不過,隨著技術走向尖端,曾經“野蠻生長”的人工智能技術,如果想要百尺竿頭更進一步,學界的資源已無法滿足。目前人工智能已經逐漸從學界主導轉移向業界主導,商業化的同時也背負上了爭議。隨著AI走進我們生活的方方面面,這種爭議聲也就越來越大。
陽光下的陰影:強大的滲透力讓AI成了“雙刃劍”
人工智能在科學層次的發展帶動了相關技術的成熟。隨著人工智能多個分支研究的精進,其中較為成熟的技術就逐漸進入到我們的生活當中。隨著人工智能的覆蓋面越來越廣,對個人、企業乃至社會,都正發揮著越來越重要的作用。
伴隨人工智能地位的提高,人工智能產業巨大的經濟潛力也慢慢浮現出來。據統計,僅2020年,全球人工智能產業規模就達1565億美元,同比增長率是12%,中國人工智能產業規模大約3100億元人民幣,同比增長15%。另有統計稱,全球人工智能產業未來的趨勢仍是穩步向上。
巨大的利益背后,自然少不了科技巨頭們的身影。之前說過,限于研發資源的門檻,目前人工智能的發展已經逐漸從學界主導走向了業界主導。目前像IBM、谷歌、亞馬遜、微軟和Facebook等巨頭,是少數擁有足夠資源投入對人工智能進行開發的公司。
但這些公司對人工智能的研發投入并非出于對科學的追求,而是希望技術革新能夠給公司帶來豐厚的回報。這本無可厚非,不過人工智能的特殊之處就在于,當公司因其而獲益時,有可能是以傷害社會為代價。
例如作為人工智能重要分支之一的人臉識別,就曾被指存在“種族偏見”而在多個國家引起過爭議。據外媒表示,目前像美國各地警方以及FBI等執法部門存在高度依賴人臉識別技術來協助犯罪調查的現象,但出現了多起涉及有色人種的誤判,引起了廣泛的批評甚至是抵制。
美國波士頓市,就在去年6月通過了《波士頓禁止人臉監控技術條例》來抵制人臉識別在該市的應用。法案中稱,“人臉識別技術在識別非裔和亞裔群體時準確率更低。人臉識別監控中的種族偏見有可能傷害有色人種群體。”
這種批評和抵制并不是對技術的偏見。事實上,巨頭們的技術目前還沒有那么完善,對有色人種的誤判的確存在,而這有可能助推社會的撕裂。
回到谷歌AI倫理團隊的系列鬧劇中,首個被谷歌解雇的Timnit Gebru,就曾因揭露面部識別系統中的種族和性別偏差而聞名。而本次害她丟掉工作的導火索,是她的郵件內容中涉及了對谷歌AI倫理現存問題的不滿。這不禁讓我們沉思,AI倫理問題是巨頭們的“逆鱗”嗎?
巨頭口中的“科技向善”,真能實現嗎?
實際上,為了消除外界的質疑,巨頭們也做出了很多努力。像2014年谷歌收購人工智能公司DeepMind時,就要求后者成立倫理和安全委員會,來監督公司的AI研發方向。微軟在2018年也成立了人工智能倫理道德委員會AETHER,意圖來規范公司在人工智能方向的業務。
2016年時,亞馬遜,微軟,谷歌,IBM和Facebook還聯合成立了一家非營利性的人工智能合作組織(Partnership on AI),推進AI研究的同時也希望針對倫理挑戰能做出解決方案。后面,蘋果、百度、英特爾、Salesforce、eBay、索尼、SAP、麥肯錫、Zalando和Cogitai等企業也紛紛加入該組織。
但問題是,目前人工智能的問題涉及的非常廣泛。除了偏見歧視,像人工智能作惡(如機器人在戰爭中的潛在應用)、責任歸屬(如無人車交通意外)、過度依賴(如算法造成的“信息繭房”現象)和技術鴻溝(如本次疫情中部分老年人對“健康碼”等要求的手足無措),都是AI給我們帶來絢麗而又方便生活背后的陰影。那么,企業自身對AI的倫理研究與問題管控,真的可行嗎?
本次谷歌AI團隊的風波,就把現實更真實地擺在了每個人面前:無論像谷歌等巨頭公司的承諾多么真誠,被企業所資助的研究,可能永遠無法逃離資本的權力邊界。
最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!
硬科技產業媒體
關注技術驅動創新
