從達拉斯事件看機器人武器的倫理困境:我們恐懼的到底是什么?

鎂客 9年前 (2016-07-12)

在這場事件背后,隱憂和質疑也如影相隨,警方的做法是否合理?

【編者按】本文由機器之心原創,作者:盛威、吳攀、微胖

當地時間 7 月 7 日,大批民眾聚集在達拉斯市中心,為在明尼蘇達州和路易斯安那州發生的兩起非裔男子被警察槍殺的案件「Black Lives Matter」游行抗議。20 時 45 分左右,游行隊伍行進至 Lamar 大街和 Main 大道時突發槍擊,人群立刻分散各處尋找掩護,場面一度混亂?,F場警車與直升機轟鳴,全副武裝的執法人員在現場。有民眾表示,至少聽到 30 聲槍響。

這一針對警方的暴力事件導致 5 名警察死亡、7 名警察受傷。當地警方稱,槍手 Micah Xavier Johnson 今年 25 歲,是一名退伍軍人,作案動機很可能是因為對「警方對黑人的暴力執法」不滿。

這一事件過程中,槍手和警方進行了數小時的對峙。最終,達拉斯警方將 1 磅 C4 炸藥安裝在機器人的機器臂上,然后通過遠程控制的方式讓機器人接近嫌犯后引爆了炸彈,炸死了嫌犯。

從達拉斯事件看機器人武器的倫理困境:我們恐懼的到底是什么?

所謂的「警察使用機器人殺人事件」迅速引發各大媒體關注。大眾態度可謂喜憂參半。

大多數人表示,警方及時止損,成功防止了更大悲劇的發生?!肝艺J為,我們所有人在第一時間里應該感到如釋重負,」美國科學技術中心主管 Michael Kalichman 說,「......我們能夠確定的是這次行動讓一個原本會造成更大損失的悲劇提前結束了。......」也有達拉斯人在 Medium 上撰文表示,達拉斯警方處理得當。

不過,慶幸成功避免更大悲劇的同時,隱憂和質疑也如影相隨。警方的做法是否合理?是否意味著警察軍隊化的開始?

是否合法合理?

美國警方使用機器人已經有很長時間了。大眾之所以會有這樣的疑問,原因在于這次使用機器人的行為與以往經驗不同。

過去,警方主要讓機器人從事相對中立(中性)行為,比如,給嫌疑犯、人質或其他人員傳遞物品,或者用于分散對方注意力,與嫌疑犯交流等。去年,一把持有匕首的嫌疑犯威脅要跳下大橋(位于加州圣何塞),警方通過機器人給對方送去手機和匹薩,讓其冷靜下來,隨后成功將其拘捕。2014年12月,阿爾伯克基警方使用機器人部在一間汽車旅館的房間里部署化學武器,房間里持有槍支的嫌疑人最后繳械投降。

但在這次事件中,機器人被直接用于剝奪對方生命,也是美國警方首次使用機器人載爆炸物,開了「先例」。人們自然而然會擔憂,其他警察局會否效法這種行為?正如 Michael Kalichman 所言,「我們還是不得不思考這種事情會不會在別的地方再次發生?!?/p>

不過,無論是警方還是刑事法律專家、機器人技術專家都認為,警方行為合法。關鍵理由:人類始終牢牢支配著機器人,或者說,這個機器人載爆炸物并非自主型武器。

新南威爾士大學的人工智能教授 Toby Walsh 反對將這次事件視為科幻小說噩夢般場景的實現,他說:很簡單,機器人仍然是受人類遠程控制的。這和遠程遙控飛行在伊拉克、巴基斯坦或其他地區上空的殺人無人機沒什么兩樣?!溉祟惾匀徽瓶刂鴻C器人,這是件好事?!?/p>

卡耐基梅隆大學的機器人技術教授 Red Whittaker 認為,事實上,機器人不過一個工具而已。具備這些功能的工具已經存在好多年了。遠程控制——無異于扣動扳機或者扔手榴彈或者其他可能的行為。

與學界觀點稍有不同,警方更多強調對警員安全的維護:面對致命危險,警察沒有義務將自身置于險境。本質上,這和讓狙擊手從遠處射擊并無不同。

「我們沒有其它選擇,只能使用我們的炸彈機器人,我們將一個設備放在了它的擴展部分,然后在目標位置引爆?!惯_拉斯警察局長 David Brown 在事件后一天的新聞發布會上說,「其它選擇會將我們的警員暴露在致命的危險中?!?/p>

達拉斯市長 Mike Rawlings 在上周五告訴記者,他知道未來再次遇到這種情況時警方還是會采取這種措施,但是它只能被當做「最終手段」?!戈P鍵是讓警察從傷害中脫離出來,」他說。

之后在接受 CNN 采訪時他又表示槍手—— 25 歲的前陸軍預備役士兵 Micah Xavier Johnson 有「聰明的頭腦,下定決心要傷害更多警員。如果沒有我們的行動,他就會傷害更多警員。所以,在我看來,我們別無選擇,只能使用所有必要的工具來終止這場對峙?!?/p>

警方軍隊化?執法還是戰爭?

有觀點表示,警方的任務是執法,不是宣戰,是否需要這種軍隊化的裝備?或許,這個問題應該置換成:如果犯罪嫌疑人的攻擊力越來越強,執法手段是不是也應該與時俱進?

據報道,這個機器人由軍火商諾斯洛普·格魯門公司制造,常被警察、軍隊和世界各地的緊急事件處理人員用來處理遠程拆彈等任務。該機器人使用輪子前進,重量大約為 220 千克,配備了多種傳感器和一個帶吸盤的機器臂。其型號為 Remotec F5。類似的遙控四輪驅動機器人早就被美軍和美國警察部隊廣泛改裝并用于拆彈任務或其他維持和平的任務。

警方的裝備升級淵源,可溯及上世紀 80 年代。當時,由于美國毒品犯罪猖獗,毒梟火力強悍,美國國會通過了一個「美軍 1033 計劃」,授權美國警察部隊向美國軍隊購買多余的武器。因此,達拉斯警察依據該法案向軍方購買了 Remotec F5、MARCbot IV 等多款爆炸拆除機器人。

稍作深入思考,我們不難理解上述現象:驅動軍事技術演化的首要因素就是救命,或者說,風險減少。讓機器為人類上刀山、下火海,將傷亡降至最低,這里的風險可以延伸至來自犯罪嫌疑人的致命攻擊。達拉斯警方購買、使用裝備的行為,不僅合法,也是軍事技術演進使然。

曾擔任 LAPD SWAT 助理指揮官(assistant unit commander)長達十三年的退休警官 Ron McCarthy 坦言,這些機器很方便很有用,在這次事件中使用這些武器很完美。如果有人威脅到公民或者警方,我們不會讓警員冒生命危險。

密蘇里-圣路易斯大學的犯罪學家 David Klinger 分析地很清楚,「法律并不區分各種傳遞致命武器的系統種類。如果警員可以射擊犯罪嫌疑人,他們就可以使用其它任何致命武器,這是合理的。如果你能射擊某人,或者可以碾過嫌疑人,我留意過有幾次警方還使用了燃燒彈,為什么不能合法使用爆炸裝置?」

真正的難題:自主型系統

從達拉斯事件看機器人武器的倫理困境:我們恐懼的到底是什么?

這次事件的發酵與奪人眼球,主要源自美國由來已久的矛盾(白人警察與黑人平民),或者說,更多的是一個社會文化問題。

達拉斯市所面臨的種族問題卻無可回避。作家 Albert Samaha 在 BuzzFeed 上寫道:

這座城市……涉及警方的槍擊事件已經減少了。從 2010 年到 2014 年,達拉斯警方共射殺了 34 人——其中超過一半是黑人——人均比率比休士頓、芝加哥、洛杉磯和紐約都高。

目前的報道并沒有增進我們對基于人工智能的自主型系統(包括武器)難題的思考。比如:

1.失靈。自主機器決策導致相關死亡事件。今年 5 月份,佛羅里達一位特斯拉 Model S 車主在使用「Autopilot」自動駕駛功能時發生事故死亡。特斯拉公司在調查原因后在博客寫道:「在光線過于強烈的環境下,無論是自動駕駛系統還是駕駛員都未能及時察覺前方拖車的邊緣,因此未能施加制動。在極為罕見的情況下,拖車高度與其在馬路當中的位置造成特斯拉 Model S 直接撞進了拖車底部?!?/p>

2.道德兩難。自動駕駛系統是否應該不惜一切代價來保護它們的乘客?還是應該通過編程選擇犧牲乘客,從而保護他人?近期《科學》雜志網絡版報告指出,盡管一些人爭論道,自動駕駛汽車控制的道路會更安全,但提供這種安全性的特有編程也許會阻止它們最終上路。

3.濫用。2015年,科技媒體 The Intecept 刊登了一份文件,詳述了NSA的天網計劃(SKYNET programme)。根據文件顯示,這項計劃旨在大規模監控巴基斯坦移動電話網絡,然后使用機器學習算法分析5500萬用戶移動網絡元數據,并試圖評估每個人成為恐怖分子的可能性。然而,根據這種機器學習程序,最高得分目標是 Ahmad Zaidan,他長期擔任半島電視臺駐伊斯蘭堡的總編輯。

4.歧視。算法和數據驅動的產品總會反映設計者本身的設計選擇,假設這些歧視不存在是不負責任的行為。有證據表明在線購物,以及預設為由中立算法驅動的定價策略中都存在歧視。另外一項研究中,哈佛教授 Latanya Sweeney 分別搜索了白色人種兒童(Geoffrey, Jill, Emma)和黑色人種兒童(DeShawn, Darnell, Jermaine)的常用名字,她發現,80%的「黑色」姓名搜索旁邊推送的 Google AdSense 廣告會出現「逮捕」字樣,而「白色」姓名搜索中該數據低于30%。

5.控制。隨著技術的進步,自動化程度更高的機器人也出現了。自主殺人機器人的正式稱呼是「致命自主武器系統(LAWS)」。從已經公開的消息看,至少中國、美國和俄羅斯已經在從事這方面的研究了。比如,美國海軍艦載的「密集近防御系統」(Phalanx)。前段時間,美國的一款人工智能系統甚至在模擬空戰中擊敗了人類戰術專家 。而環球網也曾報道:

中國、俄羅斯和美國正致力于可以獨立執行軍事行動的自動化機器人。美國國防部常務副部長羅伯特•沃克發表聲明稱,五角大樓有落后的危險。他稱:「我們知道中國已經在機器人和自動化領域進行了巨大投資?!苟砹_斯國防部第一副部長兼武裝力量總參謀長格拉西莫夫大將稱:俄羅斯也將打機器人戰,在不久的將來,俄羅斯有可能開發出完全機器人化的部隊獨立完成軍事任務。

誰該為這些自主系統的行為負責?如何給自動化程度更高的人工智能系統安置一個「紅色按鈕」?

6.劃分防御/攻擊。最近,軍火商開發出了首個攻擊性自助武器。以色列航空工業公司的「哈比和哈洛普」無人機可自動追蹤敵方航空系統的無線電發射,并通過撞擊摧毀目標,該公司表示,無人機「已經銷往世界各地?!?/p>

問題是,如果使用智能武器,那么,傳統的自衛與侵犯之間的界限也將難以維系。

加利福尼亞大學伯克利分校的的人工智能專家 Stuart J. Russell 是禁止自主化武器運動的領袖,他說,人們需要搞清楚界限劃在哪里,我們應該站在這條界線的正確一邊?!缚偟恼f來,清晰界分進攻和防衛性武器,對此,我沒有信心?!?/p>

華盛頓的政策組織、新美國安全中心(New American Security)的武器分析員Paul Scharre 說,「如果界限很容易劃清,國家早就同意研發『防御型』武器了?!?/p>

回避不了的難題

《華盛頓時報》報道,達拉斯警察局局長 David Brown 在上周日為其使用致命機器人殺死槍殺警察的犯罪分子的決定進行了辯解,他說下一次遇到這種充滿不確定性的危險情況時還會使用類似的致命機器人?!甘俏蚁碌臎Q定。在相同的情況下我還會作出此決定,」Brown 局長對 CNN 說。

達拉斯市長 Mike Rawlings 也對警方的行動表示了支持,他說他為警方感到「驕傲」。

不過,減少風險的人類本能(想想霍布斯吧)和軍事經費不僅會繼續推動軍事技術的演化,也會推動軍事技術向執法機構流動??傆幸惶?,上面所有自主型武器問題,也是警方需要面對的難題。 「驕傲」、「在相同的情況下我還會作出此決定」這樣的回答也不再能滿足大眾的要求。

最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!

鎂客網


科技 | 人文 | 行業

微信ID:im2maker
長按識別二維碼關注

硬科技產業媒體

關注技術驅動創新

分享到