美以對伊朗發動大規模軍事行動後,一起震撼國際社會的平民傷亡事件逐漸浮出水面。根據《華盛頓郵報》獨家調查披露,伊朗南部一所女子小學在戰爭爆發初期被列入美軍攻擊目標清單,軍方可能透過AI誤將其識別為軍事設施,導致飛彈擊中校舍並造成至少175人死亡,其中多數為學齡兒童。
這起發生於上月28的攻擊,正值美以對伊朗展開空襲的最初數小時,不僅成為本輪戰事最嚴重平民死亡事件之一,也引發國際社會對軍事情報準確性與AI在戰場上扮演角色的激烈討論。
開戰首日悲劇:家長接孩子時飛彈落下
攻擊發生在伊朗南部荷姆茲甘省(Hormozgan)米納布市(Minab)。遭襲擊的學校名為「沙賈拉.泰伊巴小學」(Shajarah Tayyibal)。根據伊朗官媒表示,當地時間2月28日上午10時45分左右,飛彈擊中校舍。當時正值美以開始對伊朗展開全國性空襲約一小時後。
學校方面在得知空襲消息後,緊急通知家長前往接回孩子。許多家長匆忙趕往校門口,希望在戰火擴大前帶孩子回家避難。然而,就在家長聚集校門前時,攻擊突然發生。
根據華郵報導,41歲的家長卡里亞尼帕克(Abdollah Karyanipak)回憶當時情景說,他抵達學校後站在校門口等待孩子,突然聽到巨大爆炸聲。
「那是個可怕的聲音,就像飛彈擊中建築物」,爆炸衝擊波將他掀翻在地,幾秒鐘後又接連發生兩次爆炸。他說自己站起來時耳朵已聽不見聲音,額頭流血,而學校建築已經坍塌。
卡里亞尼帕克試圖爬上瓦礫營救被困學生,但無法將二樓的孩子救下。他回憶說,當時有幾名女孩滿身是血地哭喊求救。
家長與救援人員隨後在瓦礫中挖掘數小時,但他形容現場慘況:「我們從瓦礫裡拉出來的孩子,沒有一個還活著。他們的身體被撕裂、燒焦。」
最終,他在停屍間辨認出7歲與8歲兩名兒子的遺體。其中一名孩子的遺體甚至只能透過鞋子辨認。
華郵調查:小學曾被列為軍事打擊目標
《華盛頓郵報》訪問十多名美國與以色列消息人士後發現,該小學建築曾出現在美軍攻擊目標清單中。
一名熟悉軍事行動人士透露,軍方資料曾將這棟建築標記為「工廠」,並批准為打擊目標。另一消息人士說,該區域確實存在一處武器庫目標,因此不清楚美軍是否誤擊學校,或是因情報錯誤而誤以為該建築就是武器庫。
第三名知情人士指出,軍方內部最初也曾對這目標出現在攻擊清單上感到困惑,但由於軍事調查仍在進行,相關細節尚未公開。
衛星影像揭歷史:校園曾屬軍事基地
衛星影像分析顯示,該校所在地過去確實曾與軍事設施有關。根據調查,這處建築群曾隸屬於伊朗伊斯蘭革命衛隊海軍(IRGC Navy)基地,但在2015年前後被圍牆分隔並改建為學校,同時設立獨立出入口。
從2017年的衛星影像可以看到校園內的遊樂場,到2022年,該區域又新增圍牆,使其中一部分建築成為醫療診所。專家指出,即使學校和診所位於軍事基地附近,也不應自動被視為合法軍事目標。
國際人權組織Human Rights Watch已呼籲,對這起攻擊展開戰爭罪調查。
五角大廈初步調查:美軍可能負責
《華盛頓郵報》引述美國官員說法指出,五角大廈初步調查顯示,該攻擊很可能是由美軍執行。另一項調查報導則由《紐約時報》披露,調查結果顯示事故可能與過時的攻擊目標資料有關。
以色列方面則否認參與此次攻擊。兩名以色列官員表示,這個目標並未在攻擊前與以色列國防部進行交叉核對。
另方面,美國國防部長赫格塞斯(Pete Hegseth)表示事件仍在調查中。他強調,美軍不會刻意攻擊平民,但同時指控伊朗可能利用學校與醫院作為軍事據點。
數日前當伊朗女子小學被炸時,美國總統川普(Donald Trump)第一時間還宣稱「是伊朗幹的!美國人不會做這種事」。同樣面對媒體的赫格塞斯,也不假思索附和川普話說「是伊朗幹的!」
AI戰場:數千目標在幾天內被鎖定
本輪衝突一個重要特點是,人工智慧在軍事決策中的廣泛應用。《華盛頓郵報》說,美國與以色列都在使用由總部位在矽谷的帕蘭提爾科技公司(Palantir Technologies)開發的戰場情報系統「Maven」。該系統可整合監視資料、感測器與情報分析,自動生成潛在攻擊目標。
美軍版本還整合由安思睿科技(Anthropic)開發的人工智慧模型「Claude」,用於快速分析機密情報。
美國中央司令部司令庫伯(Brad Cooper)表示,AI工具能在幾秒內處理海量數據,將原本需要數小時甚至數天的分析縮短至瞬間。但專家警告,AI系統高度依賴資料品質。如果資料庫中的情報過時或錯誤,AI可能迅速放大這些錯誤。
戰爭速度創紀錄 目標數量驚人
以色列軍方透露,在戰爭爆發後短短數天內,以軍已對約3400個目標發動超過6000次空襲。美軍中央司令部則表示,美軍已攻擊約5500個目標。這種前所未見的攻擊速度,正是AI協助情報分析與目標篩選的結果,但也增加誤判風險。
前美國空軍中將沙納漢(Jack Shanahan)指出,AI最大的挑戰是資料更新。如果情報資料沒及時更新,即使再先進的系統也可能導致錯誤打擊。
專家警告:AI無法消除戰爭迷霧
沙納漢直言,AI並不能消除戰爭的不確定性。他說,「任何認為人工智慧能神奇解決戰爭迷霧的人,都是在說謊。」
隨著AI技術越來越多地被應用於軍事決策,這起伊朗小學攻擊事件正成為全球討論人工智慧與戰爭倫理的重要案例。
