【梅花評論】自主武器時代的人類控制與法律挑戰

AI 對戰場的衝擊,也正在挑戰國際人道法的運作方式。圖/取自國防部發言人臉書
AI 對戰場的衝擊,也正在挑戰國際人道法的運作方式。圖/取自國防部發言人臉書

李魚豪/亞太安全與戰略研究獨立工作室研究員

當人工智慧(AI)開始參與目標辨識、情資篩選甚至攻擊判斷時,戰場的決策鏈正出現前所未有的改變。以色列在加薩衝突中運用 AI 輔助目標篩選系統「薰衣草」與「福音」的相關報導,也讓國際社會重新思考:當 AI 開始提供答案,人類是否仍保有最終決定權?

隨著各國軍隊加速導入 AI 輔助系統,演算法已逐漸參與戰場資訊的整理與分析。在資訊量爆炸的現代戰場中,AI 確實能有效縮短反應時間,提高作戰效率。然而,當系統持續提供高度優化的決策建議時,人類是否仍有能力質疑、修正甚至否決系統判斷,正成為新的安全隱憂。

當決策者長期依賴系統建議時,往往會逐漸降低主動判斷的警覺性。認知科學將這種現象稱為「自動化偏誤」。在高壓軍事情境下,指揮官可能逐漸淪為系統的「橡皮圖章」,原本應由人類承擔的倫理與風險判斷,也可能因此被壓縮。

然而,AI 並非絕對可靠。演算法在處理大量規律性資料時雖然高效,但在複雜、模糊或非典型情境中,卻可能出現嚴重誤判。例如據外媒報導,以色列 AI 系統曾出現誤判非戰鬥人員的爭議。無論是戰場環境干擾,或敵方刻意偽裝,都可能使 AI 做出錯誤且致命的判讀。

因此,未來的指揮官不應只是接受系統建議,而必須保有「有效人類控制」能力,也就是在理解系統限制與風險的前提下,仍能介入、修正甚至中止系統行動。

AI 對戰場的衝擊,也正在挑戰國際人道法的運作方式。長期以來,《日內瓦公約》的執行建立在人類辨識與克制的基礎上。但當監視、追蹤與攻擊流程逐漸自動化,過去建立在人類判斷基礎上的法律規範,也開始面臨落差。

以醫療保護為例,《日內瓦公約》禁止攻擊醫療人員與醫療載具。但對自主系統而言,一輛高速移動的車輛,究竟是醫療後送車輛,還是敵方軍事目標?若系統無法辨識紅十字、紅新月或醫療訊號,「不得攻擊醫療單位」的規範,便可能在瞬間的自動化判斷中失效。

更棘手的是責任問題。當 AI 系統做出錯誤攻擊時,究竟該由操作員、程式設計者、軍方指揮官,還是國家承擔責任?這也讓國際法學界開始討論所謂的「責任鴻溝」問題。

面對自主武器時代的挑戰,未來的重點恐怕不只是限制 AI,而是如何將法律與治理機制「內置」於系統設計之中。包括建立機器可辨識的人道標記、保留完整的攻擊與決策紀錄,以及建立醫療與搜救任務的安全通報機制,都是未來可能的方向。

對灰色地帶衝突頻繁的亞太地區而言,這類問題尤其值得警惕。未來敵方可能透過「對抗式 AI」干擾我方系統判斷,例如透過資料投毒或模型欺騙,使軍事目標被誤認為民用設施。這不僅是技術對抗,更是「認知作戰」在 AI 時代的延伸,試圖透過操控演算法的偏見,進而癱瘓指揮官的判斷節奏。這意味著,未來戰場的競爭,不只是火力與科技,更是人類判斷力與制度韌性的競爭。

當 AI 系統做出錯誤攻擊時,究竟責任該歸於第一線的操作員、幕後的程式編寫者、下達授權的指揮官,還是背後的國家實體?這種責任主體的模糊化,已成為國際法學界亟待填補的「責任鴻溝」。

※以上言論不代表梅花媒體集團立場※

延伸閱讀

熱門文章

分享