本文是Brookings研究所外交政策研究主任Michael O’Hanlon最近發表的文章介紹:Artificial intelligence, international security, and the risk of war。
人工智能(AI)將以無數方式影響人類社會,包括國際安全領域。不過O'Hanlon博士這篇文章所關注的是:AI可能會增加戰爭爆發的危險。也就是說,他想要警告美國、中華人民共和國以及世界各國的領導人。
他的警告是根據他所了解的歷史:當侵略者以為他有了某種快速且相對容易獲勝的理論時,往往會發起戰爭。通常,這種理論部分地根據某種新技術的開發及納入武裝部隊戰爭計劃--侵略者相信自己比對手早獲得這種能力,就發動攻擊,期望輕鬆獲勝。
AI可能會引發上述情況,因為AI能夠加快戰爭節奏,直接攻擊敵國的指揮控制系統,所以特別可能引發危險,例如提供快速斬首對方領導層的可能途徑。
O'Hanlong博士舉第一次世界大戰為例,說德國就是因為有了優秀的鐵路系統和生產大量武器的頂級工業基地,變得過於自信。它臭名昭著的Schlieffen計劃迅速擊敗法國,然後重新調動軍隊對抗俄羅斯,就是因為這種過度的自信--政治和軍事領導人確信他們找到了快速征服敵人的公式。但是四年以後,德國戰敗,造成1,000萬人死亡,國家幾近崩潰。
當然,有時候發動戰爭的人不是因為能夠快速得勝,只是認為值得。例如如20世紀30年代納粹德國Adolf Hitler,願意長期艱苦作戰是因為缺乏道德、同情心和正義感,屬於病態。在對法國的閃電戰取得成功之後,希特勒對迅速取勝產生了不切實際的期望(他派德軍深入俄羅斯而不準備冬衣)。二戰期間,他對德國的技術和軍事實力感到非常自豪,幾乎認為他能夠擊敗任何人。
義大利的Giulio Douhet將軍和美國的Billy Mitchell將軍都相信,空中力量和戰略轟炸(用常規武器或核武)能夠迅速恐嚇民眾,使他們屈服。然而德國「閃電戰」或美國與盟軍轟炸德國和日本時,這種情況並未發生。
或者看看韓戰和越戰,起初朝鮮人、後來美國人、或許中國人也是,過於自信,但美國無法藉直升機和戰略轟炸等高科技優勢擊敗越共。
2003年美國入侵伊拉克時,同樣的事情再次發生:布什政府希望美國的精確打擊能力很容易「震撼」和撤換薩達姆政府。沒錯,推翻進展得很快,然後就收拾不好了。普京在2022年入侵烏克蘭時也犯了類似的錯誤,錯誤地預期這次會像他在2014年巧妙奪取克里米亞一樣輕鬆。
有時戰爭確實會迅速取勝,但往往沒有迅速結束,然後再想撤銷戰爭或假裝戰爭從未發生就為時已晚了。通常戰爭發動起來會持續很長時間。或許中國古代戰略家孫子說得不錯,他認為不戰而勝,或只進行最少的戰鬥,就是最好的勝利。但大多數國家都無法在戰爭中取得這麼好的結果。
所以美國需要提醒自己,未來AI的某些部分優勢,無論誰相信自己獲得了這種優勢,都不會使未來的戰爭變得容易,或能夠預測迅速取得勝利。戰爭從本質上通常不是速戰速決。
No comments:
Post a Comment