《STEAM》AI可以預測戰爭的發生?

張瑞雄 2021/10/26 11:52 點閱 944 次

人工智慧(AI)目前已經應用到很多領域,從醫療診斷、人臉辨認到自動駕駛汽車等等,未來應用到國防領域也可以預見。

AI預測罪行?

如果AI能提前幾天預測戰爭將要發生,國家就可以想辦法避免。例如第一次世界大戰的導火線是發生於1914年6月28日的塞拉耶佛事件,奧匈帝國皇儲及其妻子被塞爾維亞激進青年刺殺身亡,如果能夠事先預測到(現在是情報人員的工作),就可以請王儲和妻子取消這趟行程,從而避免戰爭的發生。

但預測戰爭和一般的應用不同的是,在國防上收集真正且無偏見的資料集仍然是一項重大挑戰,尤其國防是攸關生死和戰爭的情況下,又沒有很多歷史的資料可供應用,一定要非常小心。

就像電影「關鍵報告」所描述的世界,如果在壞人還沒有犯下罪行之前,就先知道且將其繩之以法,那麼世界上是不是就不會有壞人的存在?在未來的世界,這樣一套完美的AI系統終於產生。「它」可以預知即將發生的罪行,通知司法人員前往追拿犯人,儘管這些人還沒有犯下罪行。

「態勢感知」能提預警

這聽起來像是一個威懾敵方的終極形式,一種可以為人省去各種麻煩的戰略,正是這種思維推動美國國防部去發展一套採用AI系統的態勢感知(Situation Awareness)平台。

在美國國家安全委員會有關AI的會議上,美國國防部長在演講中吹噓AI在支持整合作戰預測分析方面的重要性,並表示美國打算使用「技術、作戰概念和作戰能力的正確組合」,所有這些都以一種非常可靠、靈活和強大的網路方式交織在一起,它會讓任何對手停下來,不管他們正想要做甚麼壞事。

預計這種AI的平台將不僅僅提供強化的態勢感知和更好的預警,為美國軍方提供了被認為是作戰規劃的聖杯,在灰色地帶(即戰爭前雙方的準備階段)對敵方行動產生戰略警告,在事情難以挽回之前可以做些積極的行動,而不是像過去一樣只能被動的選擇回應(例如美國在古巴飛彈危機事件中評估錯誤的困境)。

現實世界複雜難解

在1980年代,蘇聯的KGB希望根據各種指標提前六個月到一整年預測核戰爭的發生,一些指標包括:美國核彈頭的物理位置以及美國大使館和北約的受監控活動、高級官員的計劃外旅行和會面、聯邦緊急事務管理局的異常準備、軍事演習和警報、定期武器維護、士兵休假政策、簽證批准和旅行消息以及美國的外國情報活動等等。

這些大量數據被輸入計算機模型,以「計算和監控力各種數據」的相關性,包括軍事、經濟和心理因素。KGB這套系統的調查結果助長了蘇聯認為美國將在1983年發動核攻擊的偏執,並差點導致蘇聯領導的先發制人。

可見現實世界的複雜性不是AI可以準確預測的,AI的準確性在很大程度上取決於人類對世界及其演變的理解,即使給了正確的歷史資料,AI系統仍可能會以意想不到的方式運行,所以人類還是小心為要,謹慎再謹慎,尤其是應用到國防軍事上。