午夜精品久久久久久久99樱桃_久久天堂av综合合色蜜桃网_国产乱码精品_97精品国产一区二区三区

當前位置:首頁 > 人工智能

人工智能重塑未來戰爭格局

發布時間:2019-06-14 09:26:17

過去,關于未來戰爭的預測往往會過多強調新型技術和理論。19 世紀,普魯士軍隊在 1870 年力挫法國,接連的勝利使歐洲的軍士們明白了一件事:軍隊借助鐵路形成的快速機動力、快速發射的火炮以及對攻擊的專注會在短時間內決定戰爭的勝利。這些想法在第一次世界大戰開始時就被付諸實驗。而西線長達四年的陣地戰證明了他們戰法的錯誤。


過去,關于未來戰爭的預測往往會過多強調新型技術和理論。19 世紀,普魯士軍隊在 1870 年力挫法國,接連的勝利使歐洲的軍士們明白了一件事:軍隊借助鐵路形成的快速機動力、快速發射的火炮以及對攻擊的專注會在短時間內決定戰爭的勝利。這些想法在第一次世界大戰開始時就被付諸實驗。而西線長達四年的陣地戰證明了他們戰法的錯誤。

二十世紀三十年代,人們普遍認為對城市進行大規模空中轟炸就足以讓對方立即投降。但是這個預測卻是在 10 年之后核武器問世之后才真正實現。當美國在 1990 - 1991 年的海灣戰爭中展示出精確制導導彈、新型情報、監控和偵查方法、空基通信和隱形技術等高新技術的組合能夠獲得的巨大的勝利后,許多人認為未來西方可以一直取得這種迅速、傷亡小的勝果。但是在 2001 年 9 月 11 日美國的恐怖襲擊發生之后,戰爭就有了不同的進程。

因此,這份特別報告將以謙卑之心提供預測。所提供的預測范圍也僅限于 20 年左右,如果超出這個年限,不確定性將會占據主導地位。本報告不會推測圍繞朝鮮核武器爆發戰爭所引發的清晰而現實的危險,幸好這一現狀現在仍舊處于可控狀態。相反,本次報告對概述戰爭的長期趨勢有一定的信心。

在過去的半個世紀,國家之間的戰爭已經非常罕見。而大國與盟國之間的戰爭更是幾乎不存在,這主要是因為核武器的相互破壞力、國際法律的制約以及相對繁榮的社會下不斷下降的對暴力的渴望等因素。另一方面,國內戰爭或者內戰則較為頻繁,這一現象特別是在脆弱和衰敗中的國家尤為明顯,而且通常戰爭一旦打響就將是持久戰。氣候變化、人口增長和宗派或種族極端主義都有可能使戰爭延續。

戰爭的爆發地會逐漸移向城市,因為到 2040 年,世界上 2/3 的人口將居住在城市之中。人口超過 1000 萬 的特大型城市在過去 20 年間里數量翻了一番,達到了 29 座,每年有近 8 千萬人從農村流向城市。近日,阿勒頗和摩蘇爾之間仍然日夜不休的在城市間激戰,這將繼續為善意的西方調停力量帶來困難。技術將改變城市戰爭以及其他各類戰爭,但是城市戰仍然必須一個街區一個街區地進行近距離交鋒。

盡管大國之間全面開戰的可能性不大,但是彼此之間仍然存在較為緩和的軍事競爭。尤其是現在俄羅斯和中國似乎都不愿意接受冷戰結束的 20 年來美國占據國際主導地位這一事實,兩者似乎都有興趣挑戰美國支持的國際秩序,最近兩國都表示他們準備用武力捍衛他們所認為的合法利益:俄羅斯吞并克里米亞半島,破壞烏克蘭的穩定,中國則建立了軍事化的人造島嶼與東海、南海的鄰國發生爭端。

過去十年,中國和俄羅斯都斥巨資提升各個方面的軍事力量,以此對抗美國威脅和霸凌鄰國的強權。用軍事術語來說,這些能力被稱為反介入(anti-access)/區域組織(area denial)或者是 A2/AD。他們的目的不是要和美國開戰而是要讓美國的干預更有風險,耗費更加巨大。這讓俄羅斯和中國愈發利用介于戰爭和和平之間的「灰色地帶」。灰色地帶行動的目標是在不與強大對手進行戰爭的前提下,取得與公然的軍事侵略相關的政治或是領土利益。都是一些關于定標、施加影響和模糊性的行動。灰色地帶特別適合混合戰爭,這個術語在十年前才被首次提出。對混合戰爭的定義各不相同,但實質上是模糊軍事、經濟、外交、情報和犯罪手段等以實現政治目標。

大國想要達到其政治目標卻又不直接發動戰爭最主要的原因還是核威脅,但是這不意味著冷戰時期的特色「恐怖均勢」將會與過去一樣穩定。俄羅斯和美國正在以巨大的代價實現核武器的現代化,而中國也正在擴大其核武器庫,所以核武器的戰備至少要到本世紀末才能結束。普京和特朗普正在以各自不同的方式享受著核武器帶來的武力威脅。現有的核武控制條約正在逐漸瓦解。而冷戰時期避免世界末日的約定和理解卻并未得到延續。

俄羅斯和中國現在擔心,技術進步可能會讓美國不用進行核打擊就能威脅到他們的核武器庫。十多年來,盡管還未部署武器,但是美國一直致力于一個被稱為「常規快速全球打擊能力(Conventional Prompt Global Strike)」的概念。該想法是即使是在防控力量最密集的區域,也能以超音速(至少比音速快 5 倍)實現極高精度的傳統導彈打擊。可能的任務包括,反衛星武器;定向針對敵方 A2/AD 網絡指揮控制節點;打擊北韓等流氓擴散者的核設施;擊殺重要的恐怖分子。俄羅斯和中國稱,如果與先進的導彈防御系統配合,CPGS 將會非常不穩定。同時他們也在自己開發類似的武器。

對核穩定還存在其他潛在威脅——利用各國正在投資的網絡和反衛星武器直接攻擊核指揮和控制系統,這些武器可使核力量暫時癱瘓。至關重要的是,攻擊者的身份可能難以確定,這讓受攻擊者不知應該對誰反擊。

殺人機器人的崛起

至少全世界都知道生活在核武器陰影下究竟是種什么滋味。而人工智能和深度學習的快速發展將會帶來更大的問題,它們會如何影響戰爭的方式,甚至它們會如何影響人們思考戰爭的方式。最大的擔憂在于,這些技術可能會創建出自主武器系統,這些系統可能獨立于創建或部署系統的人類自行選擇殺死人類。一場國際性的「阻止殺手機器人運動」正在進行,試圖在致命的自主武器被開發之前將其扼殺在搖籃之中。2015 年,包括 Stephen Hawking、Elon Musk 和 Demis Hassabis 在內的 1,000 多名人工智能專家簽署了一封信,聯名警告即將到來的自主武器軍備競賽。

這種禁令似乎不太可能被真正提出,但是人們應該如何與不同程度的自治機器交互仍然有商量的余地,無論是在循環內(人類不間斷監控操作,并保有關鍵決策的負責人),還是在循環上(人類監督機器,并可以在任務的任何階段干預機器)亦或是跳出循環(機器執行任務時沒有人員干預)。西方軍事機構堅持認為,遵守武器沖突法,人類必須始終處于循環之中。但是如果看到完全自治系統所帶來的軍事優勢,一些國家可能就不會那么審慎了。

這些技術正在全球范圍內發展,而其中大部分在民間發展,所以這些技術必然會激增。2014 年,五角大樓宣布了「第三次抵消戰略」,戰略內容包括利用機器人技術、自主系統和大數據在內的一系列技術重新獲取軍事優勢,并且要比潛在的對手更快、更有效地完成任務。但即使是最殷切的擁護者也明白,西方再也無法依賴其在軍事技術的優勢了。支持第三次抵消戰略的副國防部長 Robert Work 認為,西方最持久的軍事優勢將是開放社會下的人民素質。如果認為過去戰爭中一直是重要組成部分的人力因素仍然可以算作是將來的軍事優勢的話,這很令人欣慰。但是即便如此,仍舊存在不確定性。

有效——還便宜

新美智庫(New America think-tan)的「未來戰爭專家」Peter Singer 非常確信。「我們擁有的是一系列顛覆性的技術。他們不是科幻小說,而是提出了新的問題:還有什么可能發生?就是什么才是合適的?」Singer 先生正在談論人工智能、機器學習、機器人技術和大數據分析。他們將共同生產擁有不同程度自主能力的系統和武器——從能夠在人類的監督下工作到能為自己「思考」。在未來戰場上,最關鍵的因素可能是雙方算法的質量。戰斗可能會加速到人類肉體無法再跟上的速度。

美國國防大學的研究員 Frank Hoffman 發明了「混合戰爭」一詞,他認為,這些新技術不僅有可能改變戰爭的特點,甚至可能改變長久以來被認為是永恒不變的「意志較量」的本質。他說,有史以來第一次,在戰爭中決定成功與否的人類因素,「意志、恐懼、決策甚至是人類的天才火花,可能都不再那么明顯了。」

能夠有限地自主控制的武器并不新鮮。1943 年,德國制造了一種帶有聲波導航裝置的魚雷,幫助它找到了通往目標的路徑。「戰斧」(Tomahawk)巡航導彈一旦發射,就可以使用地球表面的數字地圖調整航線。反導彈系統也是預先設定好的,以決定什么時候開火以及接觸進入監控范圍的目標,因為人類大腦的反應速度不夠快。

但是,如此程度上的自主控制是截然不同的。五角大樓國防科學委員會在 2016 年發布的一份報告稱,「要實現自主,一個系統必須具備基于其對世界、自身和形勢的認識和理解,獨立構建和選擇不同行動路線以實現其目標的能力。」自主系統與可能應該更精確地被描述為計算機化的自動系統的區別在于,它們在運行過程中想出辦法,根據傳感器的數據輸入推測實現目標的最佳方式。在倫敦皇家國際事務研究所的一篇論文中,杜克大學的 Mary Cummings 說,一個自主系統通過傳感器感知世界并重構世界,以提供給它的計算機「大腦」一個可以用來做決定的世界模型。有效的自主系統的關鍵是「世界模型的逼真度和更新的及時性」。

我們需要區分一下「狹義」人工智能以及「通用」人工智能。狹義人工智能讓機器比人類更好地完成特定任務,而通用人工智能的應用范圍更廣。狹義人工智能已經廣泛用于民用任務,如搜索和翻譯、垃圾郵件過濾器、自動駕駛、高頻率股票交易和國際象棋計算機。

等待奇點

通用人工智能可能還需要至少 20 年的時間。一臺通用的人工智能機器應該能夠執行人類所能完成的幾乎任何智力任務。它將具有推理、計劃、解決問題、抽象思考和快速學習經驗的能力。去年,AlphaGo Zero 機器學會了圍棋這種古老的戰略棋盤游戲。AlphaGo Zero 被譽為創造出通用算法的重要一步,這種算法將為真正的智能機器提供動力。在 40 多天的時間里,通過數百萬次的對弈,它發現了人類花了幾千年才發展起來的策略,并添加了一些自己的新策略,展現出其創造力和直覺。

「奇點」是科幻作家 Vernor Vinge 創造的術語,來代指機器變得比他們的創造者更聰明的那一時刻。雖然人類離「奇點」還有很長一段路要走,但是機器人殺手的可能性再也不能被忽視了。Stephen Hawking、Elon Musk、Bill Gates 和許多其他專家都認為,如果處理得不好,人工智能可能會成為人類生存的威脅。

與此同時,狹義人工智能的軍事應用已經快要帶來另一場革命。美國「第三個抵消戰略」的設計師 Robert Work 強調說,這并不完全是關于無人機的,盡管它們將越來越重要。他的主要工作重點是人機協作,幫助人類更快地做出更好的決策,以及「戰斗合作」,將無人系統和載人系統結合在一起。

自主系統將利用機器深度學習以「光速」運行,在這種情況下,人類對諸如網絡攻擊、超音速導彈或電子戰等事件的反應速度都不夠快。人工智能在大數據分析中也變得越來越重要。軍事分析家們目前被大量的數據所淹沒,尤其是視頻,這些數據是由監視無人機和監控恐怖組織的社交媒體發布的動態。在離開五角大樓之前,他建立了一個算法作戰團隊,來思考人工智能如何幫助在敘利亞追捕伊斯蘭國戰士和在朝鮮的移動導彈發射裝置。特別是網絡戰可能會成為算法之間的較量,因為人工智能系統會尋找網絡漏洞攻擊,而反自主軟件會從攻擊中學習,以設計最佳響應。

在高級的人機戰斗合作中,無人機將會飛到 F-35 等駕駛飛機的前面或周圍。人類飛行員將向無人機下達一般任務說明并明確目標,比如擊打特定的目標位置。但無人機能夠自主決定它如何從一組預定義的行為中進行選擇,來達成這一目標,此外還將響應任何意想不到的挑戰和機會。或者,無人駕駛的地面車輛可能與配備了可穿戴電子設備和外骨骼的特種部隊一起工作,以提供機器的力量和保護。正如 Work 先生所言:「從現在開始的 10 年內,如果首個突破居然不是機器人,那我們真該感到羞恥。」

自主的「無人」車,無論是在空中、地面上還是在海上,都比類似的載人設備有很多優勢。除了在人工費上省錢,他們通常還比人類更大膽、更持久,因為他們不會感到勞累、害怕、無聊或生氣。它們可能也比有人操縱的設備更便宜、更小,因為它們不需要保護人們免受敵人的攻擊。所以它們可以更大量地部署在更危險的環境下。

越來越多的自主無人機將能夠執行一系列任務,這些任務將很快使它們不可或缺。無人機將執行全部的偵察或打擊任務,而隱形變種將成為穿透復雜防空武器的矛頭。有些在等待目標出現時會被設計成在某一高度巡航。以色列已經部署了一種自主的防輻射無人機 Harop,可以飛行長達 6 個小時,只在敵人防空雷達亮起的時候進行攻擊。自主高空無人機將被用作以防衛星被摧毀的備份數據鏈路,或作為反導彈固體激光器的平臺。更大的無人機將被部署為加油機和運輸機,這些飛機可以在靠近行動的地方運行。

水下戰爭在未來將變得更加重要,因為海洋提供了某種程度上的圣地,可以向 A2/AD 區域內投射戰力。無人海底車(Unmanned undersea vehicles,UUVs)將能夠執行許許多多困難而又危險的任務,例如掃雷或在敵方海岸附近布雷;在有爭議的水域分布和收集海底反潛傳感器網絡的數據;用主動聲納巡邏;向載人潛艇補給導彈;甚至成為導彈平臺本身。而成本也僅僅是核動力攻擊潛艇的一小部分。仍有一些技術上的難題需要克服,但是進步正在加速。

可能對戰爭的方式最大的改變將來自于同時部署大量的機器人。Paul Scharre 是 CNAS 的自主武器專家,他率先提出了「集群化」的概念,他認為「集體的,集群的機器人系統有可能使軍事行動發生更戲劇性的、破壞性的變化。」集群能帶來更大的質量、協調性、智力和速度。

多數,而不是少數

正如 Scharre 先生所指出的,集群將解決美國的一個大問題。這個國家目前依靠的是日益減少的極具能力但貴得令人淚目的多任務平臺,如果在戰爭沖突的一開始就損毀了,不可能重新購置。一架 F-35 型飛機的造價將超過 1 億美元,一艘攻擊型潛艇價值 27 億美元,一艘福特航空母艦加上上面的飛機造價接近 200 億美元。

相比之下,低成本、可消耗的分布式平臺可以被大量構建并由相對較少的人控制。集群會使敵人的日子變得非常難過。它們會有許多不同的形狀和大小,每一個都設計來執行一個特定的任務,比如在廣闊的區域進行偵察,在地面上保護船只或部隊等等。他們將能夠找出完成任務的最佳方式,同時也可能被網絡連接成一整個「集群組」。Scharre 先生說,3D 打印出來的小型無人機,每架成本可能只有一美元,它可以形成「智能云」,可以滲透到建筑物中,或者被空投到一大片范圍內,以尋找隱藏的敵力量軍。

可以肯定的是,自主武器系統將在未來幾年內出現在戰場上。不太清楚的是,美國是否能率先部署它們。2017 年 7 月,中國推出了《新一代人工智能發展規劃》,該規劃將人工智能指定為未來經濟和軍事力量的轉型技術。它的目標是,到 2030 年,中國將利用美國難以復制的「軍民融合」戰略成為人工智能領域的卓越力量。此外,2017 年 9 月,普京對剛開學的俄羅斯孩子說:「人工智能就是未來,不僅對俄羅斯而言,更是對整個的人類社會…誰成為這一領域的領導者,就將成為世界的統治者。」特斯拉和 SpaceX 的創始人 Elon Musk 在推特上回應道,「在國家層面上人工智能優勢的競爭是最可能導致第三次世界大戰的原因。」

Peter Singer 沒有 Musk 那么悲觀,但他也同意,對人工智能主導地位的競爭正在加劇一場軍備競賽,而這場軍備競賽本身就會產生不安全感。這種軍備競賽可能會使國際局面特別不穩定,因為機器人武器系統的能力在有人想要真正使用之前都不會很清晰。最大的問題是,這種競爭能否被控制,以及確保人類能控制自主系統的這一規則是否真的可能——更不用說能不能執行了

人工智能機器人將成為全新的,或許是存在主義式的威脅

這份特別報告指出,種種戰爭趨勢雖然令人擔憂,但至少尚在人類的經驗范圍內。大國競爭可能卷土重來。企圖在灰色地帶利用混合戰來達到目的的修正主義勢力,正在嘗試新的戰爭形式。但是,大國一向都會通過武力來與弱小鄰國談判,這并不是什么新鮮事。新技術的出現增加了核武器國之間的不穩定性,令人擔憂,但過去的軍備控制協議提供了一些減少風險升級的可能途徑。

然而,即將到來的軍事機器人革命則不可同日而語。它在倫理、法律、政策和實踐領域所引發的問題令人生畏,可能會造成一種全新的(被一些人認為是)存在主義式的危險。人們的日漸擔憂已經持續了一段時間。聯合國特定常規武器(Certain Conventional Weapons,CCW)公約已經就致命自動化武器(lethal autonomous weapon,LAW)問題組織了討論,意在禁止或限制某些被視為會對人類造成不合理痛苦的武器。11 月的一次 CCW 會議匯聚了一批政府專家,以及來自 Campaign to Stop Killer Robots 的一些非政府組織,后者要求通過制定具有法律約束力的國際條約來取締 LAW,正如過去一直被禁止的集束炸彈、地雷和致盲激光那樣。

問題在于,自動化武器的范圍太廣,涵蓋了從具有選擇性瞄定能力的導彈,到具有認知能力的學習機器,后者可以決定何人、何時以及如何作戰。大多數人都同意,致命武力的使用離不開人類參與。但更為棘手的問題是,人類應該如何參與控制才會合適?況且技術發展如此之快,國際外交追之莫及。

更為復雜的是,在人工智能和自動化機器領域,其中最引人注目的進步是由具有商業動機的私營公司創造的。即使達成了禁止軍事機器人的協議,自動化武器技術也非常易于轉讓,并將普及開來。

此外,政府有責任保護公民的安全。說他們不使用化學武器或集束炸彈就能很好地進行管理,這是一回事;而由于一些運動團體引起了關注,就允許潛在對手壟斷技術,使他們能夠發動粉碎性攻擊,這是另一回事。

正如 Peter Singer 指出的那樣,人工智能軍備競賽是由不可阻擋的力量所推動:地緣政治競爭、推動知識前沿的科學,以及追求利潤的技術企業。所以問題是,其中一些更令人不安的方面是否以及如何能夠受到限制。簡言之,大多數人都會被這種想法所震驚,即認為機器被允許擁有自主殺人選擇權。雖然我們還只能在科幻小說中看到機器人厭惡人類、發動暴亂并采取種族滅絕策略,這種終極噩夢還只是天方夜譚,但其它方面的恐懼卻是有據可依的。

噩夢情景

Paul Scharre 擔心,自動化系統可能會失靈,比如代碼編寫出錯,或是受到網絡攻擊。這可能導致機器攻擊自己人,或由于系統升級太快,人類伙伴無法及時響應。很難對自動化武器的可靠性進行測試。會思考的機器的行事方式可能會超出其人類控制者的想象。

在針對人類與機器人系統「協作」問題的探討中,很多是圍繞人類在「觀察、定位、決定、行動(OODA)決策循環中的位置。一輛 Reaper 遙控無人機需要人類來決定其目的地和行動,因此該名人類操作員是處于 OODA 循環中的。相反,一個閉環系統可以在沒有人類操作員的情況下執行大部分任務,但是人類可以隨時對其進行調解,比如目標發生了變化,人類就可以中止任務。而一個全自動系統會負責完成所有決策任務,包括目標選擇,只需操作員按下啟動按鈕,此時人類是脫離了決策循環的。對于處于自動駕駛汽車決策循環中的司機來說,他可以讓汽車去完成大部分的工作,但如果需要,也可以隨時恢復控制權。然而,如果用戶只提供給汽車目的地,沒有給出任何進一步的干預,且最終汽車自行抵達了目的地,那么在這種情況下,人類就脫離了決策循環。

就目前而言,西方武裝力量決定保留決策循環中的部分或全部人類控制。2012 年,五角大樓發布了一條政策指示:「這些 [自動化] 系統的設計應該允許指揮者和操作者的決策權限高于機器,保證人類對武力使用的控制。這些系統的直接使用人,或操作員,必須給予適當關注,并遵照戰爭法、適用條約、武器系統安全規則和交戰適用規則來行事。」

這仍然只是政策。但是五角大樓前國防政策副秘書長 James Miller 說,盡管美國將試圖在一個決策循環中保留一個人類操作者,但是交戰對手可能不會。例如,如果他們的指揮與控制節點受到攻擊,他們可能會即刻采取預授權決策。據信,如果俄羅斯探測到其地震、光線、放射性和壓力傳感器受到了核攻擊,就會自動發射其核導彈。

Miller 先生認為,如果人類是在高度競爭的氛圍中運作自動化系統,就會難以抑制讓機器接管一切的誘惑:「有人會越過感性和道德的界限。」并且一旦有人這樣做之后,其他人肯定也會這么做。對于戰爭的未來,可以確定的是,技術潛力總能造成各個利益集團對優勢資源的爭奪。

來源:經濟學人