未來戰爭里,AI才是最危險的武器?
AI武器,只是隨著歷史的潮流,發展到如今的危險一步。
AI會殺人嗎?
答案是肯定的。
本月,俄羅斯媒體衛星通訊社揭露了第一例記錄在案的AI無人機殺人案例。
在利比亞首都郊外,一只國民軍武裝小隊正按照計劃撤退。
突然,一架無人機出現在小隊上空,在一陣機槍掃射過后,一名武裝人員倒在血泊中。
事后,聯合國安理會利比亞問題專家小組調查發現,這臺由土耳其STM公司生產的“卡古-2”(kargu)型無人攻擊機并沒有后臺人員去操控,完全是憑著預先編程好的程序進行跟蹤并攻擊。
也就是說,當時這架“卡古-2”無人機是在沒有人為命令的情況下擅自作主將人殺死。
AI成戰場新寵
這一類與“卡古-2“無人機相似、具備自主攻擊能力的軍用設備都屬于致命性自主武器系統(LAWS),俗稱“殺人機器人”。
它們可以在自動模式下完成許多操作:按照設定的參數發現和識別目標、跟蹤目標、武器引導,在完成軍事任務的同時,減少己方人員和平民的傷亡。
作為新型作戰力量的代表,致命性自主武器正受到越來越多國家的重視。
早在上世紀80年代,美國軍方就成立了人工智能中心,專門從事人工智能軍事應用方面的研究,希望在未來用機器人士兵代替傳統士兵。
截至目前,美國、法國、俄羅斯、日本、英國、土耳其、伊朗、韓國等國紛紛加大了對致命性自主武器系統的研發和采購力度,已經公開的自治武器和軍事機器人系統就多達近400種。
相比于人類士兵,機器人士兵的優點很明顯:
隨著AI能力的提升,自主武器可以替代人類士兵執行高難度和高風險任務,最大限度地避免己方人員傷亡;
提高目標判斷的準確性和打擊精度,減少平民傷亡和其他附帶損傷;
通過自主識別和智能分析等技術,可以避免由于控制者精神不集中、目標誤判等人為失誤引起的誤傷。
在今年五月初的巴以沖突里,AI技術已經在信息戰方面嶄露頭角。
據報道,以色列國防軍利用煉金術士(Alchemist)、福音(Gospel)以及深智(Depth of Wisdom)三大AI系統,共計殺死了150多名哈馬斯特工,其中包括高級指揮官和導彈等軍事項目研發人員,并且大大降低了平民的誤傷率。
對于這一次戰斗,以色列定義為“世界上第一場人工智能參與的戰爭”。
圖 | 以色列防空系統
我們看到,以色列依靠著強大的AI實力牢牢占據著信息層面的主導方面,而哈馬斯只能任由以色列情報部門收集數據。
一名以色列國防軍(IDF)情報部門的高級官員對媒體表示:“這是AI第一次成為與敵人作戰的關鍵組成部分和戰力放大器,對于以色列軍方來說,這是史無前例的。”
馬斯克帶頭反對
凡是硬幣都有兩面,AI軍用化也不例外。
當致命性自主武器智能化水平發展到一定程度,也會帶來相應的風險。
對于AI的軍事運用,美國新安全中心技術與國家安全項目某研究員曾認為,AI可能會像核武器、計算機或飛機的發明一樣對軍事產生重大影響。
多年前,美國新安全中心在一份長達132頁的報告里就談到AI軍用化的幾點危害,例如:隨著無人機成本下降,軍隊會制造出大量小型、廉價的軍用AI機器人;數百萬小型人工智能無人機的擴散,將會威脅美國的國家安全。該報告還假設了一個場景,一個航空母艦戰斗群將如何應對來自數百萬架神風式自殺無人機的攻擊?
這個報告并非危言聳聽,這類武器極易被恐怖武裝或極端分子獲得,或被處于戰爭中的國家大規模裝備使用,從而引發新的沖突和軍備競爭。
傳言包括極端組織“伊斯蘭國”在內的多個武裝組織已經裝備無人機。敘利亞恐怖分子也曾多次使用無人機襲擊敘利亞政府軍和俄羅斯駐敘軍事設施。
這一類AI武器已經擴散到越來越多的國家,并且價格更加低廉,種類更加繁多。
正因如此,科學家和企業家們相比于軍方,一直以來都對AI軍用化存在著反對意見。
譬如特斯拉創始人馬斯克,就特別反對武器AI化,并一直在公開場合發表“人工智能威脅論”。
馬斯克曾發推文稱,人工智能的大國競爭“最有可能”成為第三次世界大戰的原因,甚至會成為沖突的導火索。
潘多拉的盒子已經打開?
“我們沒有太長時間來采取行動了。一旦這個潘多拉的盒子打開,將很難關閉。”
在2018年的日內瓦首腦會議上,聯合國常規武器公約(CCW)的一個小組就自主武器問題展開正式談判,希望制定一個禁止自主武器的條約。
然而,參與國只是達成了一系列非約束性建議,對于政策的搭建卻避而不談,畢竟誰都不想在AI武器的建設道路上落后于其他國家。
在會議期間,美國、澳大利亞、俄羅斯、韓國、以色列等國家多次表達了他們繼續探索發展殺人機器人的優勢和益處的意愿。
許多人表示,自主武器禁令可能會阻礙人工智能的發展。另一些人則擔心,若是一些國家允許一些國家禁止,會產生嚴重的安全隱患。
最終在美俄的堅決反對下,這項全面禁止AI自主武器的談判無果而終。
不過相比于政府的模棱兩可,AI領域的科學家和企業家們的態度倒是堅持得多:決不允許“殺人機器人”出現!
在這次日內瓦首腦會議開幕前,有來自36個國家的多達160家人工智能相關公司、覆蓋90個國家的2400名個人聯名簽署宣言,誓言絕不將他們的技能用于開發“殺人機器人”。
這份協議全稱《致命性自主武器宣言》(lethal autonomous weapons pledge),在瑞典斯德哥爾摩舉辦的2018國際人工智能聯合會議上推出,核心內容就是宣誓不參與致命性自主武器系統的開發、研制工作,而且“殺人機器人”的研發及使用應當被嚴格禁止。
宣誓人中就有我們的老熟人馬斯克。
但不得不說的是,雖然很多人都在抵制武器AI化,但武器的人工智能發展從未間斷,并且全球人工智能軍用物品數量正在成倍增長。
波士頓咨詢集團的數據顯示,2000年至2015年間,全球軍用機器人在無人駕駛工具上的支出增加了兩倍,從24億美元增至75億美元。預計到2025年將再翻一番,將達到165億美元。
道德是AI武器最后的屏障
2013年4月起,和平組織PAX創立了國際知名的停止殺手機器人運動,一直在推進禁止自主武器的開發、生產和部署,以及關注其中的法律、道德和安全問題。對于PAX而言,AI武器必須被禁止的最重要原因,就是其中的道德問題。
當技術問題無法阻止AI武器的發展時,道德就成了AI武器最后的屏障。
許多人認為,致命性自主武器難以分辨傷員及戰俘,可能會導致“誤殺”。如果將決定生與死的權力交給機器,意味著“道義責任的缺失”。
由于戰場形勢過于復雜或程序出錯,致命性自主武器脫離人類控制后,很難完全避免誤傷已經喪失戰斗力的傷員和準備投降的士兵,遵守相關國際法變得越發困難。
這些問題的出現,以及由之引發的道德和倫理問題,使得越來越多的人開始探討如何從道德、條約、法律等不同層面規制致命性自主武器的發展和使用。
同樣的,任何AI技術在戰場上都不能避免誤傷,據加沙衛生官員報告稱,巴以沖突中,至少有243名巴勒斯坦平民在這場沖突中喪生,其中包括66名兒童,AI技術并沒有阻止這些慘案的發生。
結語
時間回到一個世紀之前,化學武器的出現同樣給無數生命帶來了痛苦。
但我們并不曾因為化學武器的危害性而停滯了化學的發展,只是禁止了使用化學武器。
同樣地,AI武器只是隨著歷史的潮流“走”到如今這一步,它本身沒有對錯。任何技術都有正反面,既然AI用于軍事的趨勢是不可阻擋的,那就需要通過法律和政治去限制。
諸如人類士兵擁有日內瓦公約等法律協議來指導他們,AI武器野蠻發展的原因之一就是受到的限制太少,目前僅涉及標準武器的武裝沖突法的保護。
從積極的方面來看,隨著政策的不斷完善,未來國際禁令的勢頭正在增長。
目前,有超過30個國家明確支持禁止使用完全自主武器。此外,受AI武器威脅的發展中國家也已經組團呼吁禁止,相信在政策不斷完善之后,我們會看到AI在保護平民等方面做出更大的努力。
最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!
硬科技產業媒體
關注技術驅動創新
