論文の概要: Engagement Decision Support for Beyond Visual Range Air Combat
- arxiv url: http://arxiv.org/abs/2111.03059v1
- Date: Thu, 4 Nov 2021 17:59:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 15:20:03.213629
- Title: Engagement Decision Support for Beyond Visual Range Air Combat
- Title(参考訳): 遠距離空戦における交戦判定支援
- Authors: Joao P. A. Dantas, Andre N. Costa, Diego Geraldo, Marcos R. O. A.
Maximo and Takashi Yoneyama
- Abstract要約: この作業は、Beyond Visual Range (BVR)空戦のためのエンゲージメント決定支援ツールを提供することを目的としている。
BVR空戦では、戦闘決定はパイロットが目標に到達した瞬間の選択を指す。
- 参考スコア(独自算出の注目度): 0.3149883354098941
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work aims to provide an engagement decision support tool for Beyond
Visual Range (BVR) air combat in the context of Defensive Counter Air (DCA)
missions. In BVR air combat, engagement decision refers to the choice of the
moment the pilot engages a target by assuming an offensive stance and executing
corresponding maneuvers. To model this decision, we use the Brazilian Air
Force's Aerospace Simulation Environment (\textit{Ambiente de Simula\c{c}\~ao
Aeroespacial - ASA} in Portuguese), which generated 3,729 constructive
simulations lasting 12 minutes each and a total of 10,316 engagements. We
analyzed all samples by an operational metric called the DCA index, which
represents, based on the experience of subject matter experts, the degree of
success in this type of mission. This metric considers the distances of the
aircraft of the same team and the opposite team, the point of Combat Air
Patrol, and the number of missiles used. By defining the engagement status
right before it starts and the average of the DCA index throughout the
engagement, we create a supervised learning model to determine the quality of a
new engagement. An algorithm based on decision trees, working with the XGBoost
library, provides a regression model to predict the DCA index with a
coefficient of determination close to 0.8 and a Root Mean Square Error of 0.05
that can furnish parameters to the BVR pilot to decide whether or not to
engage. Thus, using data obtained through simulations, this work contributes by
building a decision support system based on machine learning for BVR air
combat.
- Abstract(参考訳): 本研究は,防空対空(dca)任務において,bvr(beyond visual range)空戦のための交戦判定支援ツールを提供することを目的としている。
BVR空戦において、戦闘決定とは、パイロットが攻撃的姿勢を仮定し、対応する操作を実行することによって目標に到達した瞬間を選択することを指す。
この決定をモデル化するために、ブラジル空軍の航空宇宙シミュレーション環境(ポルトガル語:\textit{Ambiente de Simula\c{c}\~ao Aeroespacial - ASA})を使用し、それぞれ12分間、合計で10,316回の観測を行った。
本研究は,全試料をDCA指数(DCA index)と呼ばれる操作指標で分析し,対象物質の専門家の経験から,この種のミッションの成功度を考察した。
この測定基準は、同じチームと反対チームの航空機の距離、戦闘航空パトロールのポイント、使用するミサイルの数を考慮に入れている。
エンゲージメント開始直前のエンゲージメント状況と、エンゲージメント全体におけるdcaインデックスの平均を定義することで、新たなエンゲージメントの品質を決定するための教師付き学習モデルを作成します。
XGBoostライブラリで動作する決定木に基づくアルゴリズムは、決定係数が0.8に近いDCAインデックスを予測するための回帰モデルと、BVRパイロットにパラメータを付与して関与するか否かを決定するRoot Mean Square Error 0.05を提供する。
そこで,シミュレーションにより得られたデータを用いて,BVR空戦のための機械学習に基づく意思決定支援システムの構築に寄与する。
関連論文リスト
- Deep Learning Based Situation Awareness for Multiple Missiles Evasion [1.7819574476785418]
本研究では,BVR(Beyond Visual Range)空戦シナリオにおけるUAV運用者を支援するための意思決定支援ツールを提案する。
提案手法は,Deep Neural Networks (DNN) を用いて高忠実度シミュレーションから学習し,演算子に異なる戦略の集合に対する結果推定値を与える。
提案システムは,複数のミサイルを運用し,選択肢のファミリーを評価し,最もリスクの低い行動手順を推奨できることを示す。
論文 参考訳(メタデータ) (2024-02-07T14:21:21Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - Integrated Sensing, Computation, and Communication for UAV-assisted
Federated Edge Learning [52.7230652428711]
フェデレーションエッジ学習(FEEL)は、エッジデバイスとサーバ間の定期的な通信を通じて、プライバシ保護モデルトレーニングを可能にする。
無人航空機(UAV)搭載エッジデバイスは、効率的なデータ収集における柔軟性と移動性のため、FEELにとって特に有利である。
論文 参考訳(メタデータ) (2023-06-05T16:01:33Z) - Wireless-Enabled Asynchronous Federated Fourier Neural Network for
Turbulence Prediction in Urban Air Mobility (UAM) [101.80862265018033]
垂直離着陸機(VTOL)が配車サービスに使用される都市空力(UAM)が提案されている。
UAMでは、航空機はエアロドロムを繋ぐ廊下として知られる指定空域で運用することができる。
GBSと航空機間の信頼性の高い通信網により、UAMは適切に空域を利用することができる。
論文 参考訳(メタデータ) (2021-12-26T14:41:52Z) - Rethinking Drone-Based Search and Rescue with Aerial Person Detection [79.76669658740902]
航空ドローンの映像の視覚検査は、現在土地捜索救助(SAR)活動に不可欠な部分である。
本稿では,この空中人物検出(APD)タスクを自動化するための新しいディープラーニングアルゴリズムを提案する。
本稿では,Aerial Inspection RetinaNet (AIR) アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-11-17T21:48:31Z) - Weapon Engagement Zone Maximum Launch Range Estimation Using a Deep
Neural Network [0.3149883354098941]
本研究では,Weapon Engagement Zone (WEZ) の最大発射範囲の推定にDeep Neural Network (DNN) を用いることを検討した。
論文 参考訳(メタデータ) (2021-11-04T18:20:39Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z) - Distributed Variable-Baseline Stereo SLAM from two UAVs [17.513645771137178]
本稿では,単眼カメラを1台,IMUを1台搭載した2台のUAVを用いて,視界の重なりと相対距離の測定を行った。
本稿では,glsuavエージェントを自律的に制御するために,分散協調推定方式を提案する。
我々は,高度160mまでの飛行におけるアプローチの有効性を実証し,最先端のVIO手法の能力を大きく超えている。
論文 参考訳(メタデータ) (2020-09-10T12:16:10Z) - Autonomous and cooperative design of the monitor positions for a team of
UAVs to maximize the quantity and quality of detected objects [0.5801044612920815]
本稿では、完全に未知の地形内にUAVの群れを配置する問題に取り組む。
YOLOv3と複製対象を識別するシステムを用いて、各UAVの構成に1つのスコアを割り当てた。
予め定義されたスコアを最適化できる新しいナビゲーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:52:57Z) - Autonomous UAV Navigation: A DDPG-based Deep Reinforcement Learning
Approach [1.552282932199974]
深層強化学習を用いた自律型UAV経路計画フレームワークを提案する。
目的は、自力で訓練されたUAVを空飛ぶ移動体ユニットとして使用し、空間的に分散した移動または静的な目標に到達することである。
論文 参考訳(メタデータ) (2020-03-21T19:33:00Z) - Federated Learning in the Sky: Joint Power Allocation and Scheduling
with UAV Swarms [98.78553146823829]
無人航空機(UAV)は様々なタスクを実行するために機械学習(ML)を利用する必要がある。
本稿では,UAVスワム内に分散学習(FL)アルゴリズムを実装するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T14:04:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。