那些年我們一起看過的人工智能大片
一個成熟的人工智能未必與人類相似,也不一定任由人類所支配。如果我們用錯誤的方式追求人工智能,人工智能就會以這樣的形式出現:難以識別等
今天小編帶給你的信息量比較大,首先我們來看一段燒腦視頻。
德國研究者展示的人工智能研究成果
第一部分
人工智能正在迎接屬于它的時代,盡管烙印尚淺。
去年以來,包括霍金、Musk和蓋茨等名人不斷警告人工智能可能帶來的危害。在讀了Nick Bostrom的書《Superintelligence 》以后,Musk公開質疑人工智能可能是「我們最大的生存威脅」。
我們對人工智能的觀點被謬誤的人類中心論所扭曲了。
分歧并不僅僅體現在人工智能威脅論上,人們對人工智能的看法也各不相同。有些人堅持認為,智能程度與人類相當的「強人工智能」永遠不可能存在,另一些人則認為這是不可避免的趨勢。然而,這些爭論卻常忽略一個事實——人工智能存在和思考的形式與人類自身是截然不同的。
簡而言之,一個成熟的人工智能未必與人類相似,也不一定任由人類所支配。如果我們用錯誤的方式追求人工智能,人工智能就會以這樣的形式出現:難以識別、風險擴大并阻滯益處,而這些都是毫無必要的。
這不僅僅是杞人憂天。人工智能早已走出了實驗室,深入到我們生活的方方面面?!溉跞斯ぶ悄堋?,比如蘋果的Siri和亞馬遜的推薦引擎,還有一些基礎設施方面的人工智能,比如高速算法交易、智能汽車和工業機器人,正日益成為我們日常生活的一部分——與工具使用、城市交通、經濟建設以及商品貿易息息相關。
不幸的是,人工智能的流行觀點,特別是在數不清的電影、游戲和小說中,依然假定擬人特征(比如生氣、嫉妒、困惑、貪婪、驕傲、欲望等,更別提冷酷的疏離)是人工智能最重要的部分。這種謬誤的人類中心論可能與現代人工智能的研究相去甚遠,但它也從一個側面反映了我們的文化如何看待自身與高級合成認知的遭遇。
電影《人工智能》劇照
在斯蒂文·斯皮爾伯格2001年的電影《人工智能》中,那個小男孩機器人想成為一個真正的男孩,盡管他只有一顆小小的金屬心。而《終結者》系列中的天網則沉醉于將人類趕盡殺絕。1968年,在斯坦利·庫布里克執導、改編自亞瑟·克拉克作品的電影《2001太空漫游》中,我們總是自動假定那塊巨石想要和人類主角戴夫交流,而不是他飛船上的人工智能HAL 9000。
我認為,我們應該摒棄這樣一種觀念:「真正的」人工智能必須深切關心人類,并總將人類作為焦點和動機的想法。也許,我們真正害怕的不是一臺想殺光人類的大機器,而是這臺機器認為我們無足輕重。比被看做敵人更難受的,是根本不把你放在眼里。
除非我們假定人類的智能包含了所有智能可能的形式(這當然是個彌天大謊),否則為何要將高級的人工智能定義為與人類相似呢?畢竟,想要定義「智能」是一件難于上青天的事情,而人類的智能根本無法窮盡所有的可能性。誠然,這么做對實驗室研究有一定的實際意義,但是從文化方面來說,這是弄巧成拙、不符倫理,甚至可能是危險的。
我們不需要一個狹隘和自戀的人工智能流行文化——為我們人類尋找一個機器版本的自我映射。因為,如果將這種觀點作為人類與人工智能交流的基礎,這將是一個有嚴重缺陷的前提。更不用說,即便縱觀人類的文明史,所有文化上的「首次接觸」都沒有留下什么快樂的回憶。
第二部分
從《銀翼殺手》(Blade Runner,1982)到《她》(Her, 2013)的無數科幻電影的內容都以這樣一種觀點為藍本:測量人工智能的發達程度,要看它是否能夠被「以人相待」。這個觀點伴隨現代人工智能研究持續至今。最早的出處還得追溯到1950年,英國數學家圖靈發表的《Computing Machinery and Intelligence 》。在這篇論文中,圖靈詳述了「模仿游戲」,也就是我們今天所說的「圖靈測試」。雖然測試版本不相同,但是,它們揭示了為什么我們研究人工智能的文化道德的方法定義了人工智能本身,無論好壞。最為人所知的版本是這樣的,提問的人向兩名隱藏的選手提問,一個是人類,另一個是臺電腦。圖靈認為,如果提問者通常分不清哪個是哪個,電腦能成功地被識別為人類,那么,從實踐目的來看,不就能認為電腦是「智能」的嗎?
不得不說,讓機器通過人類詢問測試隱藏機器屬性才被視為具有「人類智能」,和圖靈自己需要隱藏同性傾向才被「以直男相待」,兩者之間真是異曲同工。
圖靈
遺憾的是,更多的人僅僅是「知道」圖靈測試,卻沒有真地讀過。因為他的文本既精彩又奇怪,還令人吃驚。在文中,圖靈把自己的測試解釋為當時流行的一個室內游戲變種:在這個游戲中有兩個藏在幕后的玩家,一位是男性(A玩家),一位是女性(B玩家),他們通過手寫回答問題,盡力讓第三方相信自己是一名女性。為了獲勝,其中一名玩家必須令人信服地扮演真正的自己,而另一個必須試圖以另一種性別通過測試。圖靈說,當「計算機取代玩家A」之后,就是他的測試方法。因此,就字義解釋來看,在他的測試版本中,計算機并不僅僅假裝是個人,而且得假裝是一個女人,才能通過測試。
圖靈測試示意圖
其他版本就漸漸改成,B玩家可以是女的,也可以是男的。一人假裝、兩人假裝或者都不假裝,也可以是完全不同的游戲測試。既然我們給電腦一個玩家的座位,那么,我們就可以讓它假裝是個女的或者男的,甚至欺騙提問者,讓其分辨孰男孰女?;蛘呖梢愿鼜碗s些,讓計算機假裝成個試圖扮成女人的男人,同時還有一位試圖裝成女人的男人,甚至讓計算機假裝成這樣一位女性,她假扮成裝作女人的男人!畢竟現實生活中,以上情形也的確皆有可能。
由莫滕泰杜姆(Morten Tyldum)導演的2014年奧斯卡獲獎影片《模仿游戲》講述的就是圖靈的故事?;厮莸侥莻€同性戀還被批判的時代,即使是身為數學家的圖靈不得不「通過」自己是直男的測試。當隱瞞的性取向被公開后,他被迫接受稱為「化學閹割」的可怕治療(荷爾蒙療法)。最終,無法忍受身體和精神上雙重折磨的圖靈選擇了自殺來結束自己的生命。更荒誕的是,在當時圖靈對于打敗希特勒做出的巨大貢獻卻被當做國家機密而被歷史塵封。直到最近,已經去世多年的圖靈終于得到英女王頒發的皇家赦免,但成千上萬根據類似法律判處的其他英國男人卻沒有。
要求人工智能通過測試以證明其具有智力,要求圖靈用測試來證明自己的性取向,這兩件事具有相同的諷刺意味,既嘩眾取寵又嚴重不公。
就好比,判斷一個人是白人還是黑色皮膚的人,是男人還是女人,都取決于其他人的觀察和解釋。因為其他人已經習慣根據傳統的線索(比如種族、性別、種類等)進行判斷。任何正在經受測試的人或事,只有與那些觀察他(或她、它)的人共謀,才會讓測試成功通過。至于人工智能是否愿意通過測試,則是這個測試上久拖不決的另一個問題了。無論是哪種方式,所謂的「通過」更多的是觀眾看法,而不是被測試者的表現。
我們最好還是假定:宇宙中,「思考」是種更加多樣化的行為,外星人也會思考,思考并不限于我們人類這種特殊個案。與其說,人工智能的哲學課題是人類教會機器如何思考,不如說是機器告訴人類什么才是一個更加全面、更加真實的思考行為。
第三部分
我們曾經希望,把「人工智能是否存在」的定義聯系到它能否模仿人類思考的能力。它基于一種這種奇怪的人類優越感:只有人類能夠思考。正是這種自負的想法讓曾經的研究者希望在現有的機器上重現人類的思維,然而卻挫敗連連,最后徒勞無功。因為它根本不對。當代的人工智能研究表明,「能為任何一件特定的事做安排」就可以說是「智能的」。它恰恰不反映我們人類的思考模式,甚至可以說沒有任何關系?,F任谷歌的兩名研究主管——斯圖爾特.羅素和彼得.諾維格在他們最經典的人工智能教材里提出:仿生設計,或者說對生物形態的模仿,并不是我們設計復雜技術的通用方法。比如:飛機并不像鳥一樣飛翔,我們當然也不會用「欺騙鳥兒讓它們以為飛機是鳥」這樣的標準,來檢驗這些飛機是否真的具有飛行能力。既然如此,那為什么對人工智能要采用這個標準?現在,那些務實的人工智能研究已經不把焦點放在圖靈測試上了,它并不能視作一個客觀的智能標準。但在我們的流行文化里,頑固的人類中心主義思想卻依然認為這個智能測試很重要。就像是迪斯尼影片里那些像年輕人一樣說話的動物,它的想法要讓人類接受,最好得采用這種幼稚的腹語術。
可以說,人工智能的擬人化標準就是一種「前哥白尼」態度。這種態度有什么不好?我們想要人工智能以人性化的方式陪伴我們每一天,這不好嗎?
答案是,如果我們對其余的生命體持有這種幻想,將損失太多知識;只有保持真誠和清醒的認識,才能從不同的綜合智能中獲得好處。我并非是在說哲學觀點,因為有些哲學家在討論:人工智能作為有知覺的實體,是否應該賦予它們倫理權利。我的意思是,更真實的視角能更好的讓我們思考自己的技術。Musk、蓋茨和霍金說「人工智能可能帶來的危險」,它成了頭條新聞。這個觀點當然很重要,但我擔心大多數讀者都誤解了他們的意思。
「機器人三定律」
自從1942年由艾薩克.阿西莫夫提出「機器人三定律」,人們就指望靠程序的設計,足以讓人工智能不會「傷害人類」。但這必須建立在一個基礎上——人工智能必須知道人類是什么,以及做什么事會傷害人類。其實,人工智能是否會傷害我們,與它對人類有沒有惡意,壓根沒有關系。傷害可能會在很多情況下發生,而且這些情況大多和我們最愚蠢的極端的善意的指示相關。與以往假設的傷害情況相反,傷害的發生既不是因為人工智能發生機械故障,也不是因為它們違背了道德定律,人工智能的巨大風險恰恰是因為它的強大和對人類的公正。如果我們只是在擬人化的特質上認識人工智能,或者認為它有這重義務,那么我們很難避開這些困境。
不管「強人工智能」是否真的會誕生,如果我們還在堅持那些明知是錯誤的觀念,就會在探索和求知的道路上止步不前。在1950年的那篇論文中,圖靈對自己提出的人工智能觀點其實還舉了很多反例,包括把它和早期反對哥白尼的天文學進行比較?!傅厍蚴怯钪嬷行摹?、「人類是絕對特殊的存在」、「人類是無價的完美生命」...雖然持有這些錯誤觀點人們的幼小心靈受到了哥白尼學說的打擊,但之后的人類文明終于可以基于宇宙真實的樣子去探索,而不是基于那種狹隘自私的觀點。圖靈在文中把那些稱為「神學偏見」,所以,我們也可以把人工智能的擬人化標準說成是「前哥白尼」態度,但它們卻在俗世橫流。如果存在一種強大的非擬人的人工智能,它可能會讓我們更加清醒的認識自己,了解我們的現狀,并對復雜的「智能」有更完整的理解。我們就能從這樣的起點出發,滿懷希望地改造世界。而且我們將充滿信心,因為這樣的睿智總是幫我們提出更好的模型去模擬未知的世界。
錯誤的觀念還會最后導致一種長期的危害,這種人類奴役技術的關系已經把我們帶到了「第六次物種大滅絕」(前5次自然滅絕和人類活動加速的第6次滅絕)的懸崖邊上??梢哉f,「人類世」(地質學上認為人類活動進入工業化后地球進入新的地質年代)本質上并不是人類技術的發展,而是人類觀念的產物——世界已經可以根據我們的需求和愿望而改變。我們從這個詞中能嗅到些許宗教領袖傳播的美好福音世界:機器完全屈從于人類的需求和愿望工作。如果你也這么認為,請谷歌搜索「豬頭屠宰機」,雖然這并非我的本意,但還是請你先了解它的血腥殘酷再來和我談談,如何創造一個機器完全臣服于人類愿望的世界吧。
也許有人還心存天真的幻想,認為我們社會也經歷過奴隸制度、神權制度再到法制,所以即便已經是2015年,對機器來這套又何嘗不可? 正是這種感情用事——所謂的技術倫理——構成了現在「人類世」的基本算法,也造成了基本困境。繼續順從這樣的情感,只會讓我們在遭遇人工智能后一敗涂地?,F在,正是我們朝前邁進的時候。你不覺得,我們已經為這樣自命不凡的風俗付出了太多的代價了嗎?
最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!
硬科技產業媒體
關注技術驅動創新
