論文の概要: Reinforcement Meta-Learning for Interception of Maneuvering
Exoatmospheric Targets with Parasitic Attitude Loop
- arxiv url: http://arxiv.org/abs/2004.09978v1
- Date: Sat, 18 Apr 2020 21:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 05:50:20.753177
- Title: Reinforcement Meta-Learning for Interception of Maneuvering
Exoatmospheric Targets with Parasitic Attitude Loop
- Title(参考訳): 補足メタラーニングによる寄生的姿勢ループを有する外洋目標の操作のインターセプション
- Authors: Brian Gaudet, Roberto Furfaro, Richard Linares, Andrea Scorsoglio
- Abstract要約: 我々は強化メタラーニング(Reinforcement Meta-Learning)を用いて、運動目標の対空干渉に適した適応型統合誘導、ナビゲーション、制御システムを最適化する。
このシステムは、ストラップダウン・シーカー角と速度ジャイロによる観測を、スラスタのオンオフコマンドに直接マッピングする。
最適化されたポリシーは、探索角度測定ラグ、スラスタ制御ラグ、スケールファクタエラーによる寄生姿勢ループ、角度および回転速度測定におけるガウスノイズなどの寄生効果に適応できることを実証した。
- 参考スコア(独自算出の注目度): 1.7663909228482466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We use Reinforcement Meta-Learning to optimize an adaptive integrated
guidance, navigation, and control system suitable for exoatmospheric
interception of a maneuvering target. The system maps observations consisting
of strapdown seeker angles and rate gyro measurements directly to thruster
on-off commands. Using a high fidelity six degree-of-freedom simulator, we
demonstrate that the optimized policy can adapt to parasitic effects including
seeker angle measurement lag, thruster control lag, the parasitic attitude loop
resulting from scale factor errors and Gaussian noise on angle and rotational
velocity measurements, and a time varying center of mass caused by fuel
consumption and slosh. Importantly, the optimized policy gives good performance
over a wide range of challenging target maneuvers. Unlike previous work that
enhances range observability by inducing line of sight oscillations, our system
is optimized to use only measurements available from the seeker and rate gyros.
Through extensive Monte Carlo simulation of randomized exoatmospheric
interception scenarios, we demonstrate that the optimized policy gives
performance close to that of augmented proportional navigation with perfect
knowledge of the full engagement state. The optimized system is computationally
efficient and requires minimal memory, and should be compatible with today's
flight processors.
- Abstract(参考訳): 強化メタラーニングにより,適応型統合誘導,ナビゲーション,制御システムを最適化し,操舵目標の対流圏外迎撃に適したものにする。
このシステムは、ストラップダウンシーカーアングルとレートジャイロの観測結果をスラスタオンオフコマンドに直接マップする。
高忠実度6自由度シミュレータを用いて,要求角度測定ラグ,スラスタ制御ラグ,スケール要因誤差による寄生姿勢ループ,角度および回転速度測定におけるガウスノイズ,燃料消費とスラッシュによる質量中心の時間変化などの寄生効果に最適化されたポリシーが適応できることを実証した。
重要なことに、最適化されたポリシーは、幅広い挑戦的なターゲット操作において優れたパフォーマンスをもたらします。
視線振動を誘導して距離観測性を高める以前の研究とは異なり、本システムはシーカーとレートジャイロから得られる測定値のみを使用するように最適化されている。
ランダム化された外洋圏迎撃シナリオのモンテカルロシミュレーションにより,最適化されたポリシが,完全な関与状態に関する完全な知識を持つ拡張比例航法に近い性能をもたらすことを実証した。
最適化されたシステムは計算効率が高く、メモリも最小限で、現在のフライトプロセッサと互換性があるはずである。
関連論文リスト
- MPVO: Motion-Prior based Visual Odometry for PointGoal Navigation [3.9974562667271507]
視覚計測(VO)は,室内環境におけるエンボディエージェントの正確なポイントゴールナビゲーションを可能にするために不可欠である。
近年の深層学習VO法は, 頑健な性能を示すが, トレーニング中のサンプル不効率に悩まされている。
エージェントが環境をナビゲートしている間に利用可能な動作先に基づいて、ロバストでサンプル効率の良いVOパイプラインを提案する。
論文 参考訳(メタデータ) (2024-11-07T15:36:49Z) - Truncating Trajectories in Monte Carlo Policy Evaluation: an Adaptive Approach [51.76826149868971]
モンテカルロシミュレーションによる政策評価は多くのMC強化学習(RL)アルゴリズムの中核にある。
本研究では,異なる長さの軌跡を用いた回帰推定器の平均二乗誤差のサロゲートとして品質指標を提案する。
本稿では,Robust and Iterative Data Collection Strategy Optimization (RIDO) という適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-17T11:47:56Z) - Angle Robustness Unmanned Aerial Vehicle Navigation in GNSS-Denied
Scenarios [66.05091704671503]
本稿では、ポイントツーポイントナビゲーションタスクにおける飛行偏差に対処する新しい角度ナビゲーションパラダイムを提案する。
また、Adaptive Feature Enhance Module、Cross-knowledge Attention-guided Module、Robust Task-oriented Head Moduleを含むモデルを提案する。
論文 参考訳(メタデータ) (2024-02-04T08:41:20Z) - Globally Optimal Event-Based Divergence Estimation for Ventral Landing [55.29096494880328]
イベントセンシングはバイオインスパイアされた飛行誘導と制御システムの主要なコンポーネントである。
本研究では, イベントカメラを用いた腹側着陸時の表面との接触時間予測について検討する。
これは、着陸時に発生する事象の流れから放射光の流れの速度である発散(逆TTC)を推定することで達成される。
我々のコアコントリビューションは、イベントベースの発散推定のための新しいコントラスト最大化定式化と、コントラストを正確に最大化し、最適な発散値を求めるブランチ・アンド・バウンドアルゴリズムである。
論文 参考訳(メタデータ) (2022-09-27T06:00:52Z) - Adaptive Approach Phase Guidance for a Hypersonic Glider via
Reinforcement Meta Learning [0.0]
適応性は、オフ・ノミナルな飛行条件の範囲を最適化することで達成される。
システムマップは、指示された銀行の角度と攻撃率の角度に直接観察をマッピングする。
トラッキングエラーの最小化は、車両の速度ベクトルと一致した目標位置への視界の湾曲した空間線を維持する。
論文 参考訳(メタデータ) (2021-07-30T17:14:52Z) - Optimal control of point-to-point navigation in turbulent time-dependent
flows using Reinforcement Learning [0.0]
複素流体中の2点間の移動時間を最小化する経路を求める問題に関する理論的および数値的な結果を示す。
我々は、ActorCriticアルゴリズムが時間非依存またはカオス的に進化するフロー構成の存在下で準最適解を見つけることができることを示した。
論文 参考訳(メタデータ) (2021-02-27T21:31:18Z) - Safe and Efficient Model-free Adaptive Control via Bayesian Optimization [39.962395119933596]
適応制御のための純粋データ駆動型モデルフリーアプローチを提案する。
システムデータのみに基づく低レベルコントローラのチューニングは、アルゴリズムの安全性と計算性能に懸念を生じさせる。
我々は,提案手法がサンプル効率であり,安全性の観点から制約ベイズ最適化よりも優れており,グリッド評価によって計算された性能オプティマを達成することを数値的に示す。
論文 参考訳(メタデータ) (2021-01-19T19:15:00Z) - Pushing the Envelope of Rotation Averaging for Visual SLAM [69.7375052440794]
視覚SLAMシステムのための新しい最適化バックボーンを提案する。
従来の単分子SLAMシステムの精度, 効率, 堅牢性を向上させるために, 平均化を活用している。
我々のアプローチは、公開ベンチマークの最先端技術に対して、同等の精度で最大10倍高速に表示することができる。
論文 参考訳(メタデータ) (2020-11-02T18:02:26Z) - Reinforcement Learning for Low-Thrust Trajectory Design of
Interplanetary Missions [77.34726150561087]
本稿では, 惑星間軌道のロバスト設計における強化学習の適用について検討する。
最先端アルゴリズムのオープンソース実装が採用されている。
その結果得られた誘導制御ネットワークは、堅牢な名目的軌道と関連する閉ループ誘導法の両方を提供する。
論文 参考訳(メタデータ) (2020-08-19T15:22:15Z) - Learning to Optimize Non-Rigid Tracking [54.94145312763044]
我々は、堅牢性を改善し、解法収束を高速化するために学習可能な最適化を採用する。
まず、CNNを通じてエンドツーエンドに学習された深い特徴にアライメントデータ項を統合することにより、追跡対象をアップグレードする。
次に,プレコンディショニング手法と学習手法のギャップを,プレコンディショナを生成するためにトレーニングされたConditionNetを導入することで埋める。
論文 参考訳(メタデータ) (2020-03-27T04:40:57Z) - Real-Time Optimal Guidance and Control for Interplanetary Transfers
Using Deep Networks [10.191757341020216]
最適な例の模倣学習は、ネットワークトレーニングパラダイムとして使用される。
G&CNETは、宇宙船の最適誘導制御システムの実装をオンボードでリアルタイムに行うのに適している。
論文 参考訳(メタデータ) (2020-02-20T23:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。