論文の概要: Data-Efficient Deep Reinforcement Learning for Attitude Control of
Fixed-Wing UAVs: Field Experiments
- arxiv url: http://arxiv.org/abs/2111.04153v2
- Date: Wed, 19 Apr 2023 09:32:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 18:25:41.120161
- Title: Data-Efficient Deep Reinforcement Learning for Attitude Control of
Fixed-Wing UAVs: Field Experiments
- Title(参考訳): 固定翼UAVの姿勢制御のためのデータ効率の良い深部強化学習:フィールド実験
- Authors: Eivind B{\o}hn, Erlend M. Coates, Dirk Reinhardt, and Tor Arne
Johansen
- Abstract要約: DRLは、元の非線形力学を直接操作する固定翼UAVの姿勢制御をうまく学べることを示す。
我々は,UAVで学習したコントローラを飛行試験で展開し,最先端のArduPlane比例積分微分(PID)姿勢制御と同等の性能を示す。
- 参考スコア(独自算出の注目度): 0.37798600249187286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attitude control of fixed-wing unmanned aerial vehicles (UAVs) is a difficult
control problem in part due to uncertain nonlinear dynamics, actuator
constraints, and coupled longitudinal and lateral motions. Current
state-of-the-art autopilots are based on linear control and are thus limited in
their effectiveness and performance. Deep reinforcement learning (DRL) is a
machine learning method to automatically discover optimal control laws through
interaction with the controlled system, which can handle complex nonlinear
dynamics. We show in this paper that DRL can successfully learn to perform
attitude control of a fixed-wing UAV operating directly on the original
nonlinear dynamics, requiring as little as three minutes of flight data. We
initially train our model in a simulation environment and then deploy the
learned controller on the UAV in flight tests, demonstrating comparable
performance to the state-of-the-art ArduPlane proportional-integral-derivative
(PID) attitude controller with no further online learning required. Learning
with significant actuation delay and diversified simulated dynamics were found
to be crucial for successful transfer to control of the real UAV. In addition
to a qualitative comparison with the ArduPlane autopilot, we present a
quantitative assessment based on linear analysis to better understand the
learning controller's behavior.
- Abstract(参考訳): 固定翼無人航空機(UAV)の姿勢制御は、不確実な非線形力学、アクチュエータの制約、縦横運動の結合などにより難しい制御問題である。
現在のオートパイロットは線形制御に基づいており、その効果と性能に制限がある。
深層強化学習(drl)は、複雑な非線形ダイナミクスを扱う制御系との相互作用を通じて最適な制御法則を自動的に発見する機械学習手法である。
本稿では,DRLが元の非線形力学を直接操作する固定翼UAVの姿勢制御を,最大3分間の飛行データで行うことができることを示す。
我々はまず、まずシミュレーション環境でモデルをトレーニングし、続いてUAV上で学習したコントローラを飛行試験にデプロイし、さらにオンライン学習を必要とせず、最先端のArduPlane比例積分微分(PID)姿勢制御と同等の性能を示す。
アクティベーション遅延と多様なシミュレーション力学の学習は、実際のUAVの制御に成功するために重要であることが判明した。
本稿では,ArduPlaneオートパイロットの質的比較に加えて,線形解析に基づく定量的評価を行い,学習コントローラの動作をよりよく理解する。
関連論文リスト
- Custom Non-Linear Model Predictive Control for Obstacle Avoidance in Indoor and Outdoor Environments [0.0]
本稿では,DJI行列100のための非線形モデル予測制御(NMPC)フレームワークを提案する。
このフレームワークは様々なトラジェクトリタイプをサポートし、厳密な操作の精度を制御するためにペナルティベースのコスト関数を採用している。
論文 参考訳(メタデータ) (2024-10-03T17:50:19Z) - Autonomous Vehicle Controllers From End-to-End Differentiable Simulation [60.05963742334746]
そこで我々は,AVコントローラのトレーニングにAPG(analytic Policy gradients)アプローチを適用可能なシミュレータを提案し,その設計を行う。
提案するフレームワークは, エージェントがより根底的なポリシーを学ぶのを助けるために, 環境力学の勾配を役立てる, エンド・ツー・エンドの訓練ループに, 微分可能シミュレータを組み込む。
ダイナミクスにおけるパフォーマンスとノイズに対する堅牢性の大幅な改善と、全体としてより直感的なヒューマンライクな処理が見られます。
論文 参考訳(メタデータ) (2024-09-12T11:50:06Z) - Modelling, Positioning, and Deep Reinforcement Learning Path Tracking
Control of Scaled Robotic Vehicles: Design and Experimental Validation [3.807917169053206]
スケールされたロボットカーは通常、車両の状態の推定と制御に特化したタスクを含む階層的な制御機構を備えている。
本稿では, (i) フェデレートされた拡張カルマンフィルタ (FEKF) と (ii) エキスパートデモレータを用いて訓練された新しい深部強化学習 (DRL) パストラッキングコントローラを提案する。
実験により検証されたモデルは、(i)FEKFの設計を支援するために使用され、(ii)DRLに基づく経路追跡アルゴリズムをトレーニングするためのデジタルツインとして機能する。
論文 参考訳(メタデータ) (2024-01-10T14:40:53Z) - DATT: Deep Adaptive Trajectory Tracking for Quadrotor Control [62.24301794794304]
Deep Adaptive Trajectory Tracking (DATT)は、学習に基づくアプローチであり、現実世界の大きな乱れの存在下で、任意の、潜在的に実現不可能な軌跡を正確に追跡することができる。
DATTは、非定常風場における可溶性および非実用性の両方の軌道に対して、競争適応性非線形およびモデル予測コントローラを著しく上回っている。
適応非線形モデル予測制御ベースラインの1/4未満である3.2ms未満の推論時間で、効率的にオンラインで実行することができる。
論文 参考訳(メタデータ) (2023-10-13T12:22:31Z) - Real-Time Model-Free Deep Reinforcement Learning for Force Control of a
Series Elastic Actuator [56.11574814802912]
最先端のロボットアプリケーションは、歩行、揚力、操作などの複雑なタスクを達成するために、閉ループ力制御を備えた連続弾性アクチュエータ(SEAs)を使用する。
モデルフリーPID制御法はSEAの非線形性により不安定になりやすい。
深層強化学習は連続制御タスクに有効なモデルレス手法であることが証明されている。
論文 参考訳(メタデータ) (2023-04-11T00:51:47Z) - Active Learning of Discrete-Time Dynamics for Uncertainty-Aware Model Predictive Control [46.81433026280051]
本稿では,非線形ロボットシステムの力学を積極的にモデル化する自己教師型学習手法を提案する。
我々のアプローチは、目に見えない飛行条件に一貫して適応することで、高いレジリエンスと一般化能力を示す。
論文 参考訳(メタデータ) (2022-10-23T00:45:05Z) - Control-oriented meta-learning [25.316358215670274]
我々は、ニューラルネットワークを用いたデータ駆動モデリングを用いて、過去のデータからオフラインで学習し、非線形特徴の内部パラメトリックモデルによる適応制御を行う。
ベースラーナーとして閉ループ追従シミュレーションを用いた適応制御器をメタ学習し,メタ対象として平均追従誤差を推定する。
論文 参考訳(メタデータ) (2022-04-14T03:02:27Z) - Learning to Control Direct Current Motor for Steering in Real Time via
Reinforcement Learning [2.3554584457413483]
実機と模擬環境の両方においてゴルフカートの位置制御にNFQアルゴリズムを用いる。
シミュレーションでは4分、実際のハードウェアでは11分で制御を成功させました。
論文 参考訳(メタデータ) (2021-07-31T03:24:36Z) - Adaptive-Control-Oriented Meta-Learning for Nonlinear Systems [29.579737941918022]
我々は過去のデータからオフラインで学習し、非線形特徴の内部パラメトリックモデルによる適応制御を行う。
ベースランナーとして閉ループ追跡シミュレーション、メタオブジェクトとして平均トラッキングエラーで適応コントローラをメタ学習します。
非線形平面ロータークラフトを用いて,適応型コントローラが回帰型メタラーニングで学習した他のコントローラよりも優れていることを実証する。
論文 参考訳(メタデータ) (2021-03-07T23:49:59Z) - Learning a Contact-Adaptive Controller for Robust, Efficient Legged
Locomotion [95.1825179206694]
四足歩行ロボットのためのロバストコントローラを合成するフレームワークを提案する。
高レベルコントローラは、環境の変化に応じてプリミティブのセットを選択することを学習する。
確立された制御方法を使用してプリミティブを堅牢に実行する低レベルコントローラ。
論文 参考訳(メタデータ) (2020-09-21T16:49:26Z) - Logarithmic Regret Bound in Partially Observable Linear Dynamical
Systems [91.43582419264763]
部分的に観測可能な線形力学系におけるシステム同定と適応制御の問題について検討する。
開ループ系と閉ループ系の両方において有限時間保証付きの最初のモデル推定法を提案する。
AdaptOnは、未知の部分観測可能な線形力学系の適応制御において、$textpolylogleft(Tright)$ regretを達成する最初のアルゴリズムであることを示す。
論文 参考訳(メタデータ) (2020-03-25T06:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。