返回

廖明輝:美中軍事決策應用AI模式比較

美國華府智庫「安全與新興技術中心」(CSET)近日發表「人工智慧在軍事決策的應用」報告,指出人工智慧決策支援系統(AI-enabledDecision Support Systems,AI-DSS)的應用,不僅能提升指揮官在作戰層面的決策速度與準確性,更有望在「戰場迷霧」中為軍事指揮官提供更清晰判斷依據。但對AI-DSS的期待須兼顧現實侷限,避免因過度信任技術而導致戰略錯誤。

美國的發展路線側重強化「人機協作」能力。美國國防部推動整合資料、分析與人工智慧技術,目標是讓指揮官能更快做出最佳決策。美國國防高等研究計劃署的「In the Moment」專案,試圖讓AI輔助人類在高壓環境(例如大規模傷亡分類和災難救援)做出複雜而快速的決策。美國強調,AI不是取代人類,而是為決策者提供更多資訊、更多選項,以及更快的行動速度。但同時,美國也清楚指出,AI-DSS無法完全理解戰爭複雜性,必須小心管理期望,並且強化使用者對AI系統能力與侷限的認識。

中國則以軍民融合方式推進AI軍事應用,將民間科技進步迅速轉化為軍事能力。解放軍明確將AI視為未來指揮、推演、裝備與決策的核心支撐力量,並鼓勵科研機構、企業與軍隊密切合作。中國不僅尋求在AI基礎理論與關鍵技術自立自強,更希望藉由強化AI演算法、模擬推演系統,提升戰場推演與戰術規劃的準確性與即時性。相比美國強調人機協作與風險管理,中國較傾向於以AI作為提升軍事效率與戰場掌控力的直接工具。

美中兩國應用AI於軍事決策皆面臨幾個共通挑戰,首先是範圍界定,若AI系統應用範圍不清晰,容易導致指揮官對系統產生過度依賴或錯誤使用。例如,AI可在已知條件下優化兵力部署,但在高度變異、陌生的戰場環境下,若系統無法適應情境變化,反而可能誤導指揮官做出錯誤決策。

其次是資料品質與偏差。AI系統的效能高度依賴資料的完整性與代表性,但戰場資訊往往不完整、偏斜甚至遭敵方欺騙操作。感測器誤報、社群媒體誤導、敵方電子作戰干擾,都可能使AI得出的結論失真。此外,因戰場真實交戰資料稀缺,許多AI模型只能仰賴模擬數據或歷史資料,進而限制預測戰局的精確性。

最後是人機互動問題。在高壓環境中,指揮官容易產生「自動化偏誤」,即過度相信AI系統建議,忽視系統可能錯誤。特別是大型語言模型類型的AI,雖然能流暢生成建議,但有時會自信地給出錯誤答案,增加使用者被誤導風險。軍事組織若缺乏對系統侷限的認識與監控機制,可能導致嚴重的戰場失誤。

人工智慧將重塑未來的軍事決策體系,但絕非萬能,亦無法取代人類的判斷與責任,能在未來戰場上取得優勢者,將是既能充分發揮AI力量,又能清醒認知其侷限,並將人類智慧與機器輔助加以有機結合的軍事決策指揮官。

作者:中華經濟研究院輔佐研究員
資料來源:自由時報 20250420