論文の概要: Control of a Twin Rotor using Twin Delayed Deep Deterministic Policy Gradient (TD3)
- arxiv url: http://arxiv.org/abs/2512.13356v1
- Date: Mon, 15 Dec 2025 14:10:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.689797
- Title: Control of a Twin Rotor using Twin Delayed Deep Deterministic Policy Gradient (TD3)
- Title(参考訳): 双遅延Deep Deterministic Policy Gradient (TD3) を用いた双極子制御
- Authors: Zeyad Gamal, Youssef Mahran, Ayman El-Badawy,
- Abstract要約: 本稿では,Twin Rotor Aerodynamic System (TRAS) の安定化のための強化学習フレームワークを提案する。
TRASの複雑な力学と非線形特性は、従来の制御アルゴリズムによる制御を困難にしている。
実世界の応用における制御器の有効性を確認するため,実験室で実験を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a reinforcement learning (RL) framework for controlling and stabilizing the Twin Rotor Aerodynamic System (TRAS) at specific pitch and azimuth angles and tracking a given trajectory. The complex dynamics and non-linear characteristics of the TRAS make it challenging to control using traditional control algorithms. However, recent developments in RL have attracted interest due to their potential applications in the control of multirotors. The Twin Delayed Deep Deterministic Policy Gradient (TD3) algorithm was used in this paper to train the RL agent. This algorithm is used for environments with continuous state and action spaces, similar to the TRAS, as it does not require a model of the system. The simulation results illustrated the effectiveness of the RL control method. Next, external disturbances in the form of wind disturbances were used to test the controller's effectiveness compared to conventional PID controllers. Lastly, experiments on a laboratory setup were carried out to confirm the controller's effectiveness in real-world applications.
- Abstract(参考訳): 本稿では,Twin Rotor Aerodynamic System (TRAS) を特定のピッチおよび方位角で制御・安定化し,与えられた軌道を追跡するための強化学習(RL)フレームワークを提案する。
TRASの複雑な力学と非線形特性は、従来の制御アルゴリズムによる制御を困難にしている。
しかし、近年のRLの発展は、マルチローターの制御に応用できる可能性から関心を集めている。
本稿では,RLエージェントの訓練にTD3アルゴリズムを用いた。
このアルゴリズムは、システムモデルを必要としないため、TRASに似た連続状態とアクション空間を持つ環境に使用される。
シミュレーションの結果,RL制御の有効性が示された。
次に、従来のPIDコントローラと比較して、風乱の形の外乱を用いてコントローラーの有効性を検証した。
最後に、実世界の応用におけるコントローラの有効性を確認するために、実験室での実験を行った。
関連論文リスト
- TARC: Time-Adaptive Robotic Control [48.61871569444481]
ロボット工学における固定周波数制御は、低周波数制御の効率と高周波制御の堅牢性との間のトレードオフを課す。
我々は、ポリシーが制御行動とその適用期間を共同で選択する強化学習アプローチでこの問題に対処する。
2つの異なるハードウェアプラットフォーム上でのゼロショットsim-to-real実験により本手法の有効性を検証した。
論文 参考訳(メタデータ) (2025-10-27T10:10:19Z) - Physics-informed Neural-operator Predictive Control for Drag Reduction in Turbulent Flows [109.99020160824553]
乱流のモデリングと制御のための効率的な深部強化学習フレームワークを提案する。
予測制御(PC)のためのモデルベースRLであり、乱流制御のためのポリシとオブザーバモデルの両方を共同で学習する。
その結果, PINO-PCは, バルク速度レイノルズ数15,000で39.0%の抗力低下を達成し, 従来の流体制御法を32%以上上回った。
論文 参考訳(メタデータ) (2025-10-03T00:18:26Z) - Real Time Control of Tandem-Wing Experimental Platform Using Concerto Reinforcement Learning [0.0]
本稿では,DDTWEP(Direct-Drive Tandem-Wing Experimental Platform)のリアルタイム制御性能向上を目的とした改良強化学習法であるCRL2RTアルゴリズムを提案する。
その結果,CRL2RTは標準CPUで2500Hzを超える制御周波数を実現することがわかった。
論文 参考訳(メタデータ) (2025-02-08T03:46:40Z) - Growing Q-Networks: Solving Continuous Control Tasks with Adaptive Control Resolution [51.83951489847344]
ロボット工学の応用において、スムーズな制御信号はシステム摩耗とエネルギー効率を減らすために一般的に好まれる。
本研究では,離散的な動作空間を粗い状態から細かい制御分解能まで拡大することにより,この性能ギャップを埋めることを目的とする。
我々の研究は、値分解とアダプティブ・コントロール・リゾリューションが組み合わさることで、単純な批判のみのアルゴリズムが得られ、連続制御タスクにおいて驚くほど高い性能が得られることを示唆している。
論文 参考訳(メタデータ) (2024-04-05T17:58:37Z) - Modelling, Positioning, and Deep Reinforcement Learning Path Tracking
Control of Scaled Robotic Vehicles: Design and Experimental Validation [3.807917169053206]
スケールされたロボットカーは通常、車両の状態の推定と制御に特化したタスクを含む階層的な制御機構を備えている。
本稿では, (i) フェデレートされた拡張カルマンフィルタ (FEKF) と (ii) エキスパートデモレータを用いて訓練された新しい深部強化学習 (DRL) パストラッキングコントローラを提案する。
実験により検証されたモデルは、(i)FEKFの設計を支援するために使用され、(ii)DRLに基づく経路追跡アルゴリズムをトレーニングするためのデジタルツインとして機能する。
論文 参考訳(メタデータ) (2024-01-10T14:40:53Z) - Designing a Robust Low-Level Agnostic Controller for a Quadrotor with
Actor-Critic Reinforcement Learning [0.38073142980732994]
ソフトアクター・クリティカルに基づく低レベルウェイポイント誘導制御器の訓練段階におけるドメインランダム化を提案する。
トレーニング中の四元数力学に一定の不確実性を導入することにより、より大規模な四元数パラメータを用いて提案課題を実行することができる制御器が得られることを示す。
論文 参考訳(メタデータ) (2022-10-06T14:58:19Z) - Comparative analysis of machine learning methods for active flow control [60.53767050487434]
遺伝的プログラミング(GP)と強化学習(RL)はフロー制御において人気を集めている。
この研究は2つの比較分析を行い、地球規模の最適化手法に対して最も代表的なアルゴリズムのいくつかをベンチマークする。
論文 参考訳(メタデータ) (2022-02-23T18:11:19Z) - Steady-State Error Compensation in Reference Tracking and Disturbance
Rejection Problems for Reinforcement Learning-Based Control [0.9023847175654602]
強化学習(Reinforcement Learning, RL)は、自動制御アプリケーションにおける将来的なトピックである。
アクター批判に基づくRLコントローラのためのイニシアティブアクション状態拡張(IASA)が導入される。
この拡張は専門家の知識を必要とせず、アプローチモデルを無償にしておく。
論文 参考訳(メタデータ) (2022-01-31T16:29:19Z) - Towards Agrobots: Trajectory Control of an Autonomous Tractor Using
Type-2 Fuzzy Logic Controllers [12.015055060690742]
本研究では,トラクタの縦方向速度を制御するために比例積分導出制御器を用いる。
yaw角ダイナミクスの制御には、比例導出制御器がタイプ2ファジィニューラルネットワークと並行して動作する。
測定したフィードバックエラーからインタラクションをオンラインで学習する制御アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-04-09T00:46:23Z) - Regularizing Action Policies for Smooth Control with Reinforcement
Learning [47.312768123967025]
Conditioning for Action Policy Smoothness(CAPS)は、アクションポリシーの効果的な直感的な正規化である。
capsは、ニューラルネットワークコントローラの学習状態-動作マッピングの滑らかさを一貫して改善する。
実システムでテストしたところ、クアドロタードローンのコントローラーの滑らかさが改善され、消費電力は80%近く削減された。
論文 参考訳(メタデータ) (2020-12-11T21:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。