論文の概要: A Reinforcement Learning Approach for Robust Supervisory Control of UAVs
Under Disturbances
- arxiv url: http://arxiv.org/abs/2305.12543v1
- Date: Sun, 21 May 2023 19:00:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 19:47:04.234497
- Title: A Reinforcement Learning Approach for Robust Supervisory Control of UAVs
Under Disturbances
- Title(参考訳): 外乱下におけるuavのロバスト制御のための強化学習手法
- Authors: Ibrahim Ahmed and Marcos Quinones-Grueiro and Gautam Biswas
- Abstract要約: 無人航空機(UAV)の監視強化学習制御手法を提案する。
我々は,既存の組込み制御と交差する監視制御アーキテクチャを定式化し,悪風の形での環境障害に対する堅牢性を示す。
- 参考スコア(独自算出の注目度): 1.8799681615947088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we present an approach to supervisory reinforcement learning
control for unmanned aerial vehicles (UAVs). UAVs are dynamic systems where
control decisions in response to disturbances in the environment have to be
made in the order of milliseconds. We formulate a supervisory control
architecture that interleaves with extant embedded control and demonstrates
robustness to environmental disturbances in the form of adverse wind
conditions. We run case studies with a Tarot T-18 Octorotor to demonstrate the
effectiveness of our approach and compare it against a classic cascade control
architecture used in most vehicles. While the results show the performance
difference is marginal for nominal operations, substantial performance
improvement is obtained with the supervisory RL approach under unseen wind
conditions.
- Abstract(参考訳): 本稿では,無人航空機(uavs)の監視強化学習制御へのアプローチを提案する。
UAVは、環境の混乱に対応する制御決定をミリ秒の順序で行う必要がある動的システムである。
我々は,既存の組込み制御と交差する監視制御アーキテクチャを定式化し,悪風の形で環境障害に対する堅牢性を示す。
我々はタロットt-18オクトロターを用いてケーススタディを実施し,このアプローチの有効性を実証し,ほとんどの車両で使用される古典的なカスケード制御アーキテクチャと比較した。
以上の結果から, 風環境下での監督的RL手法により, 性能差が限界であることを示す一方で, 実質的な性能改善が得られた。
関連論文リスト
- Transformer-Based Fault-Tolerant Control for Fixed-Wing UAVs Using Knowledge Distillation and In-Context Adaptation [3.1498833540989413]
本研究では, 固定翼無人航空機(UAV)の耐故障性制御のための変圧器を用いたアプローチを提案する。
提案手法は,変換器の学習機構と注意機構を用いて,外部ループ参照値を制御コマンドに直接マッピングする。
実験結果から, トランスフォーマーをベースとした制御器は, 業界標準SFSおよび最先端強化学習法(RL)よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-11-05T10:24:45Z) - Model-Free versus Model-Based Reinforcement Learning for Fixed-Wing UAV
Attitude Control Under Varying Wind Conditions [1.474723404975345]
本稿では、PIDを基準点として、固定翼無人航空機の姿勢制御のためのモデルフリーおよびモデルベース強化学習の性能を評価し、比較する。
その結果, 時間差モデル予測制御は, PIDコントローラと他のモデルレス強化学習法の両方で, 精度と頑健さの点で優れていた。
論文 参考訳(メタデータ) (2024-09-26T14:47:14Z) - Growing Q-Networks: Solving Continuous Control Tasks with Adaptive Control Resolution [51.83951489847344]
ロボット工学の応用において、スムーズな制御信号はシステム摩耗とエネルギー効率を減らすために一般的に好まれる。
本研究では,離散的な動作空間を粗い状態から細かい制御分解能まで拡大することにより,この性能ギャップを埋めることを目的とする。
我々の研究は、値分解とアダプティブ・コントロール・リゾリューションが組み合わさることで、単純な批判のみのアルゴリズムが得られ、連続制御タスクにおいて驚くほど高い性能が得られることを示唆している。
論文 参考訳(メタデータ) (2024-04-05T17:58:37Z) - Reaching the Limit in Autonomous Racing: Optimal Control versus
Reinforcement Learning [66.10854214036605]
ロボット工学における中心的な問題は、アジャイルなモバイルロボットの制御システムをどうやって設計するかである。
本稿では、強化学習(RL)で訓練されたニューラルネットワークコントローラが最適制御(OC)法より優れていることを示す。
その結果、アジャイルドローンを最大性能に押し上げることができ、最大加速速度は重力加速度の12倍以上、ピーク速度は時速108kmに達しました。
論文 参考訳(メタデータ) (2023-10-17T02:40:27Z) - Designing a Robust Low-Level Agnostic Controller for a Quadrotor with
Actor-Critic Reinforcement Learning [0.38073142980732994]
ソフトアクター・クリティカルに基づく低レベルウェイポイント誘導制御器の訓練段階におけるドメインランダム化を提案する。
トレーニング中の四元数力学に一定の不確実性を導入することにより、より大規模な四元数パラメータを用いて提案課題を実行することができる制御器が得られることを示す。
論文 参考訳(メタデータ) (2022-10-06T14:58:19Z) - Benchmarking Safe Deep Reinforcement Learning in Aquatic Navigation [78.17108227614928]
本研究では,水文ナビゲーションに着目した安全強化学習のためのベンチマーク環境を提案する。
価値に基づく政策段階の深層強化学習(DRL)について考察する。
また,学習したモデルの振る舞いを所望の特性の集合上で検証する検証戦略を提案する。
論文 参考訳(メタデータ) (2021-12-16T16:53:56Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Data-Efficient Deep Reinforcement Learning for Attitude Control of
Fixed-Wing UAVs: Field Experiments [0.37798600249187286]
DRLは、元の非線形力学を直接操作する固定翼UAVの姿勢制御をうまく学べることを示す。
我々は,UAVで学習したコントローラを飛行試験で展開し,最先端のArduPlane比例積分微分(PID)姿勢制御と同等の性能を示す。
論文 参考訳(メタデータ) (2021-11-07T19:07:46Z) - Reinforcement Learning with Formal Performance Metrics for Quadcopter
Attitude Control under Non-nominal Contexts [2.198760145670348]
本研究では,車両の挙動を定量的に評価し,制御器の性能を計測する信号時間論理の頑健な形式を開発する。
得られた制御器のロバスト性について論じる。これは1つのローターの動力の部分的損失と風洞の巻き上げと、強化学習による実用的な制御器設計の結論の導出による仕上げである。
論文 参考訳(メタデータ) (2021-07-27T16:58:19Z) - Regret-optimal Estimation and Control [52.28457815067461]
後悔最適推定器と後悔最適制御器は状態空間形式で導出可能であることを示す。
非線形力学系に対するモデル予測制御(MPC)と拡張KalmanFilter(EKF)の残差最適類似性を提案する。
論文 参考訳(メタデータ) (2021-06-22T23:14:21Z) - Enforcing robust control guarantees within neural network policies [76.00287474159973]
本稿では、ニューラルネットワークによってパラメータ化され、ロバスト制御と同じ証明可能なロバスト性基準を適用した、一般的な非線形制御ポリシークラスを提案する。
提案手法は,複数の領域において有効であり,既存のロバスト制御法よりも平均ケース性能が向上し,(非ロバスト)深部RL法よりも最悪のケース安定性が向上した。
論文 参考訳(メタデータ) (2020-11-16T17:14:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。