摘要:對戰場敵空中目標作戰任務進行高效、準確地自動判斷,是態勢認知的基礎和輔助作戰資源分配的關鍵。本文結合前饋深度神經網絡和長短時記憶網絡模型計算特點,設計了兩個針對性基指標學習器,然后根據基指標交叉熵進行加權組合,用于進一步學習器訓練評價指標,既能有效防止模型過擬合,又能提高模型訓練效率。測試結果表明,所提模型能較好防止模型過擬合,并能以較高的準確率判斷戰場敵目標作戰任務。
關鍵字:空中任務;深度學習;態勢認知;兵棋推演;資源分配
張大永; 楊鏡宇; 吳曦 系統仿真學報 2021-12-05
未來聯合作戰,態勢演進加快,博弈復雜劇烈。空中任務順利實施,是爭取戰場主動,達成以快制慢,快速靈活聚能,準確適時釋能的有效依托。智能預測對手空中作戰任務,對于指揮員戰場態勢認知,輔助調配資源,部署作戰行動具有重要意義。兵棋推演是對未來戰爭的預實踐,受到越來越多重視。一直以來,戰場態勢認知都是研究的熱點。美國著名信息融合專家 J.L.Linas 將戰場態勢分為觀測態勢(OS,observational situation)、估計態勢(AS,assessment situation)和預測態勢(PS, predictive situation)三級態勢,較好闡述了態勢內涵。文獻[1]結合戰場態勢三級結構和“OODA 環” 提出了“態勢能力演化模型”,認為真正推動態勢發展的是對抗雙方的行動,指導行動的是對態勢的判斷和預測。
兵棋推演空中任務預測是基于具體行動的預測。目前已有不少研究文獻,基于模板匹配、專家系統和貝葉斯網絡等經典方法組合[2-4],以及深度學習等流行人工智能方法[5][6],實現不同作戰背景下戰術層級的對手任務預測。這些方法主要為滿足戰術需要而設計的模型,在聯合戰役層面應用時仍有一些局限:一是模板匹配、專家系統和貝葉斯網絡等需要抽象領域專家經驗知識,在知識表示和工程實現方面難度大,比如模板庫建立,貝葉斯網絡概率分布構建等。二是一些基于深度學習設計的智能方法,考慮戰術細節過多,且只針對同一場數據,在聯合戰役層級應用時,一方面數據冗余,另一方面沒有充分利用以往推演數據,加大了模型訓練難度,降低了模型的有效性/準確性。同時,對抗條件下的作戰行動如果采用純人工預測,不僅對預測人員能力要求比較高,且不能輸出穩定的預測結果,更不適宜大范圍推廣使用。本文從兵棋推演的角度,研究對抗條件下空中任務智能預測方法。以聯合戰役級兵棋推演對抗環境為基礎,對有關概念進行界定,設計了兵棋推演空中任務預測的兩層神經網絡模型,第一層包括目標資源特征信息的多層感知機[7]和目標時序特征信息留存的長短時記憶 LSTM 網絡[8]兩個模型,第二層設計了針對第一層兩個模型訓練得出的特征信息進行加權綜合的多層感知機。通過實驗驗證了兵棋推演空中任務智能預測模型的有效性。
1 問題描述
兵棋推演空中任務預測,是從動態演變推演態勢中捕獲提取對手空中目標狀態和時序信息,結合作戰經驗推測其執行空中任務的過程。目標狀態信息包括空中目標的機型數量組合等資源類信息,時序狀態信息包括空中目標位置、留空時間、方向和速度等環境交互類信息。如圖 1 所示,可以將問題抽象為 兩 個 二 部 圖
論文指導 >
SCI期刊推薦 >
論文常見問題 >
SCI常見問題 >