論文の概要: AirPilot: A PPO-based DRL Auto-Tuned Nonlinear PID Drone Controller for Robust Autonomous Flights
- arxiv url: http://arxiv.org/abs/2404.00204v2
- Date: Fri, 16 Aug 2024 07:08:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 20:24:02.548182
- Title: AirPilot: A PPO-based DRL Auto-Tuned Nonlinear PID Drone Controller for Robust Autonomous Flights
- Title(参考訳): AirPilot:ロバストな自律飛行のためのPPOベースのDRL自動調整型非線形PIDドローンコントローラ
- Authors: Junyang Zhang, Cristian Emanuel Ocampo Rivera, Kyle Tyni, Steven Nguyen, Ulices Santa Cruz Leal, Yasser Shoukry,
- Abstract要約: AirPilotコントローラは、PID制御の単純さと有効性と、DRLの適応性、学習能力、最適化能力を組み合わせる。
AirPilotは、ナビゲーションエラーを82%以上削減し、オーバーシュート、スピード、設定時間を大幅に改善する。
- 参考スコア(独自算出の注目度): 1.947822083318316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Navigation precision, speed and stability are crucial for safe UAV flight maneuvers and effective flight mission executions in dynamic environments. Different flight missions may have varying objectives, such as minimizing energy consumption, achieving precise positioning, or maximizing speed. A controller that can adapt to different objectives on the fly is highly valuable. Proportional Integral Derivative controllers are one of the most popular and widely used control algorithms for drones control systems, but their linear control algorithm fails to capture the nonlinear nature of the dynamic wind conditions and complex drone system. Manually tuning the PID gains for various missions can be time-consuming and requires significant expertise. This paper aims to revolutionize drone flight control by presenting the AirPilot, a nonlinear Deep Reinforcement Learning (DRL) - enhanced PID drone controller using Proximal Policy Optimization. AirPilot controller combines the simplicity and effectiveness of traditional PID control with the adaptability, learning capability, and optimization potential of DRL. This makes it better suited for modern drone applications where the environment is dynamic, and mission-specific performance demands are high. We employed a COEX Clover autonomous drone for training the DRL agent within the Gazebo simulator and subsequently implemented it in a real-world lab setting, which marks a significant milestone as one of the first attempts to apply a DRL-based flight controller on an actual drone. Airpilot is capable of reducing the navigation error by more than 82% and improving overshoot, speed and settling time significantly.
- Abstract(参考訳): 航法精度、速度、安定性は、安全なUAV飛行操作および動的環境における効果的な飛行ミッション実行に不可欠である。
異なる飛行ミッションには、エネルギー消費の最小化、正確な位置決めの達成、速度の最大化など、様々な目的がある。
異なる目的に適応できるコントローラーは、非常に貴重である。
Proportional Integral Derivative Controlsは、ドローン制御システムにおいて最も一般的で広く使われている制御アルゴリズムの1つであるが、その線形制御アルゴリズムは、ダイナミックな風条件や複雑なドローンシステムの非線形特性を捉えていない。
手動で様々なミッションのためにPIDのゲインを調整するのは時間がかかるし、かなりの専門知識を必要とする。
本稿では,非線型深度強化学習(DRL)によるPID型ドローン制御システムであるAirPilotを提案することで,ドローンの飛行制御に革命をもたらすことを目的とする。
AirPilotコントローラは、従来のPID制御のシンプルさと有効性と、DRLの適応性、学習能力、最適化能力を組み合わせる。
これにより、環境が動的であり、ミッション固有のパフォーマンス要求が高い現代のドローンアプリケーションに適している。
私たちは、Gazeboシミュレータ内でDRLエージェントをトレーニングするためにCOEX Clover自律ドローンを使用し、その後、実際の実験室でそれを実装しました。
Airpilotは、ナビゲーションエラーを82%以上削減し、オーバーシュート、スピード、設定時間を大幅に改善する。
関連論文リスト
- Short vs. Long-term Coordination of Drones: When Distributed Optimization Meets Deep Reinforcement Learning [0.9208007322096532]
自律型対話型ドローンの群れは、スマートシティーに魅力的なセンシング機能を提供する。
本稿では,コスト効率の高いナビゲーション,センシング,リチャージのための新しいコーディネートソリューションの提供を目的とする。
論文 参考訳(メタデータ) (2023-11-16T12:28:31Z) - Reaching the Limit in Autonomous Racing: Optimal Control versus
Reinforcement Learning [66.10854214036605]
ロボット工学における中心的な問題は、アジャイルなモバイルロボットの制御システムをどうやって設計するかである。
本稿では、強化学習(RL)で訓練されたニューラルネットワークコントローラが最適制御(OC)法より優れていることを示す。
その結果、アジャイルドローンを最大性能に押し上げることができ、最大加速速度は重力加速度の12倍以上、ピーク速度は時速108kmに達しました。
論文 参考訳(メタデータ) (2023-10-17T02:40:27Z) - DATT: Deep Adaptive Trajectory Tracking for Quadrotor Control [62.24301794794304]
Deep Adaptive Trajectory Tracking (DATT)は、学習に基づくアプローチであり、現実世界の大きな乱れの存在下で、任意の、潜在的に実現不可能な軌跡を正確に追跡することができる。
DATTは、非定常風場における可溶性および非実用性の両方の軌道に対して、競争適応性非線形およびモデル予測コントローラを著しく上回っている。
適応非線形モデル予測制御ベースラインの1/4未満である3.2ms未満の推論時間で、効率的にオンラインで実行することができる。
論文 参考訳(メタデータ) (2023-10-13T12:22:31Z) - Actuator Trajectory Planning for UAVs with Overhead Manipulator using
Reinforcement Learning [0.3222802562733786]
制御可能なアームを備えたUAVを2自由度で開発し、飛行中に作動作業を行う。
我々のソリューションは、腕の先端の軌跡を制御するためのQ-learning法(End-effector)を用いています。
提案手法は,15,000エピソードのQ-ラーニングを用いて,平均変位誤差の92%の精度を実現する。
論文 参考訳(メタデータ) (2023-08-24T15:06:23Z) - Ada-NAV: Adaptive Trajectory Length-Based Sample Efficient Policy Learning for Robotic Navigation [72.24964965882783]
軌道長は強化学習アルゴリズムの学習過程において重要な役割を果たす。
本稿では,RLアルゴリズムのトレーニングサンプル効率を向上させるための適応軌道長スキームであるAda-NAVを紹介する。
我々は,Ada-NAVが従来の手法より優れている実世界のロボット実験を実演する。
論文 参考訳(メタデータ) (2023-06-09T18:45:15Z) - Real-Time Model-Free Deep Reinforcement Learning for Force Control of a
Series Elastic Actuator [56.11574814802912]
最先端のロボットアプリケーションは、歩行、揚力、操作などの複雑なタスクを達成するために、閉ループ力制御を備えた連続弾性アクチュエータ(SEAs)を使用する。
モデルフリーPID制御法はSEAの非線形性により不安定になりやすい。
深層強化学習は連続制御タスクに有効なモデルレス手法であることが証明されている。
論文 参考訳(メタデータ) (2023-04-11T00:51:47Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Towards a Fully Autonomous UAV Controller for Moving Platform Detection
and Landing [2.7909470193274593]
移動プラットフォームに着陸するための無人無人無人無人着陸システムを提案する。
提案システムはカメラセンサのみに依存し,可能な限り軽量に設計されている。
このシステムは目標の中心から平均15cmずれて40回の着陸試験を行った。
論文 参考訳(メタデータ) (2022-09-30T09:16:04Z) - Training Efficient Controllers via Analytic Policy Gradient [44.0762454494769]
ロボットシステムの制御設計は複雑であり、しばしば軌道を正確に追従するために最適化を解く必要がある。
Model Predictive Control (MPC)のようなオンライン最適化手法は、優れたトラッキング性能を実現するために示されているが、高い計算能力を必要とする。
本稿では,この問題に対処するための分析政策グラディエント(APG)手法を提案する。
論文 参考訳(メタデータ) (2022-09-26T22:04:35Z) - Learning a Single Near-hover Position Controller for Vastly Different
Quadcopters [56.37274861303324]
本稿では,クワッドコプターのための適応型ニアホバー位置制御器を提案する。
これは、非常に異なる質量、大きさ、運動定数を持つクワッドコプターに展開することができる。
また、実行中に未知の障害に迅速に適応する。
論文 参考訳(メタデータ) (2022-09-19T17:55:05Z) - Data-Efficient Deep Reinforcement Learning for Attitude Control of
Fixed-Wing UAVs: Field Experiments [0.37798600249187286]
DRLは、元の非線形力学を直接操作する固定翼UAVの姿勢制御をうまく学べることを示す。
我々は,UAVで学習したコントローラを飛行試験で展開し,最先端のArduPlane比例積分微分(PID)姿勢制御と同等の性能を示す。
論文 参考訳(メタデータ) (2021-11-07T19:07:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。