論文の概要: Learning Environment for the Air Domain (LEAD)
- arxiv url: http://arxiv.org/abs/2304.14423v1
- Date: Thu, 27 Apr 2023 11:08:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 16:25:50.831326
- Title: Learning Environment for the Air Domain (LEAD)
- Title(参考訳): 空気ドメイン(LEAD)の学習環境
- Authors: Andreas Strand, Patrick Gorton, Martin Asprusten and Karsten Brathen
- Abstract要約: 本稿では,軍事シミュレーションにおける知的戦闘行動の生成と統合システムであるLEADについて述べる。
人気のあるプログラミングライブラリとインターフェースであるGymnasiumを組み込むことで、LEADはユーザーが容易に利用できる機械学習アルゴリズムを適用できるようになる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A substantial part of fighter pilot training is simulation-based and involves
computer-generated forces controlled by predefined behavior models. The
behavior models are typically manually created by eliciting knowledge from
experienced pilots, which is a time-consuming process. Despite the work put in,
the behavior models are often unsatisfactory due to their predictable nature
and lack of adaptivity, forcing instructors to spend time manually monitoring
and controlling them. Reinforcement and imitation learning pose as alternatives
to handcrafted models. This paper presents the Learning Environment for the Air
Domain (LEAD), a system for creating and integrating intelligent air combat
behavior in military simulations. By incorporating the popular programming
library and interface Gymnasium, LEAD allows users to apply readily available
machine learning algorithms. Additionally, LEAD can communicate with
third-party simulation software through distributed simulation protocols, which
allows behavior models to be learned and employed using simulation systems of
different fidelities.
- Abstract(参考訳): 戦闘機パイロット訓練のかなりの部分はシミュレーションベースであり、事前定義された行動モデルによって制御されるコンピュータ生成力を含んでいる。
行動モデルは通常、経験豊富なパイロットから知識を引き出すことで手作業で作成されます。
作業中であっても、予測可能な性質と適応性の欠如のため、行動モデルは不満足であり、インストラクタは手動で監視と制御に時間を費やさざるを得ない。
強化と模倣学習は手作りモデルの代替となる。
本稿では,軍事シミュレーションにおけるインテリジェントな航空戦闘行動の生成と統合を目的としたLEAD(Learning Environment for the Air Domain)を提案する。
人気のあるプログラミングライブラリとインターフェイスの体育館を組み込むことで、ユーザは簡単に利用可能な機械学習アルゴリズムを適用できる。
さらに、LEADは分散シミュレーションプロトコルを通じてサードパーティのシミュレーションソフトウェアと通信し、異なる忠実性のシミュレーションシステムを使用して振る舞いモデルを学習し、使用することができる。
関連論文リスト
- Autonomous Vehicle Controllers From End-to-End Differentiable Simulation [60.05963742334746]
そこで我々は,AVコントローラのトレーニングにAPG(analytic Policy gradients)アプローチを適用可能なシミュレータを提案し,その設計を行う。
提案するフレームワークは, エージェントがより根底的なポリシーを学ぶのを助けるために, 環境力学の勾配を役立てる, エンド・ツー・エンドの訓練ループに, 微分可能シミュレータを組み込む。
ダイナミクスにおけるパフォーマンスとノイズに対する堅牢性の大幅な改善と、全体としてより直感的なヒューマンライクな処理が見られます。
論文 参考訳(メタデータ) (2024-09-12T11:50:06Z) - Gaussian Splatting to Real World Flight Navigation Transfer with Liquid Networks [93.38375271826202]
本研究では,シミュレート・トゥ・リアルな視覚四重項ナビゲーションタスクにおける分布シフトに対する一般化とロバスト性を改善する手法を提案する。
まず,擬似飛行力学とガウススプラッティングを統合してシミュレータを構築し,その後,液状ニューラルネットワークを用いてロバストなナビゲーションポリシーを訓練する。
このようにして、我々は3次元ガウススプラッティングラディアンス場レンダリング、専門家による実演訓練データのプログラミング、およびLiquid Networkのタスク理解能力の進歩を組み合わせたフルスタックの模倣学習プロトコルを得る。
論文 参考訳(メタデータ) (2024-06-21T13:48:37Z) - A survey of air combat behavior modeling using machine learning [0.0]
本調査では, 空気戦闘行動のモデル化における機械学習手法の適用について検討する。
従来の行動モデリングは労働集約的であり、開発ステップ間で重要なドメイン知識を失う傾向があります。
この調査では、応用、行動モデルタイプ、一般的な機械学習手法、適応的で現実的な行動エージェントの開発における技術的および人間的課題について調査している。
論文 参考訳(メタデータ) (2024-04-22T07:54:56Z) - Waymax: An Accelerated, Data-Driven Simulator for Large-Scale Autonomous
Driving Research [76.93956925360638]
Waymaxは、マルチエージェントシーンにおける自動運転のための新しいデータ駆動シミュレータである。
TPU/GPUなどのハードウェアアクセラレータで完全に動作し、トレーニング用のグラフ内シミュレーションをサポートする。
我々は、一般的な模倣と強化学習アルゴリズムのスイートをベンチマークし、異なる設計決定に関するアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-10-12T20:49:15Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - Continual learning autoencoder training for a particle-in-cell
simulation via streaming [52.77024349608834]
今後のエクサスケール時代は 次世代の物理シミュレーションを 高解像度で提供します
これらのシミュレーションは高解像度であり、ディスク上に大量のシミュレーションデータを格納することはほぼ不可能であるため、機械学習モデルのトレーニングに影響を与える。
この研究は、ディスク上のデータなしで、実行中のシミュレーションにニューラルネットワークを同時にトレーニングするアプローチを示す。
論文 参考訳(メタデータ) (2022-11-09T09:55:14Z) - Learning to Fly -- a Gym Environment with PyBullet Physics for
Reinforcement Learning of Multi-agent Quadcopter Control [0.0]
本稿では,Bullet物理エンジンに基づく複数クワッドコプターのオープンソース環境を提案する。
マルチエージェントおよびビジョンベースの強化学習インターフェース、および現実的な衝突と空力効果のサポートは、私たちの知識の最高に、その種の最初のものにします。
論文 参考訳(メタデータ) (2021-03-03T02:47:59Z) - Sim-Env: Decoupling OpenAI Gym Environments from Simulation Models [0.0]
強化学習(RL)は、AI研究の最も活発な分野の1つです。
開発方法論はまだ遅れており、RLアプリケーションの開発を促進するための標準APIが不足している。
多目的エージェントベースのモデルと派生した単一目的強化学習環境の分離開発と保守のためのワークフローとツールを提示する。
論文 参考訳(メタデータ) (2021-02-19T09:25:21Z) - Adaptive Synthetic Characters for Military Training [0.9802137009065037]
現在の軍事シミュレーションにおける合成文字の挙動は、一般的にルールベースおよびリアクティブ計算モデルによって生成されるため、限られている。
本稿では,信頼できる行動のコヒーレントなシーケンスを実行できる自律的な合成文字を作成することを目的とした枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-06T18:45:48Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。