論文の概要: Transformer-Guided Deep Reinforcement Learning for Optimal Takeoff Trajectory Design of an eVTOL Drone
- arxiv url: http://arxiv.org/abs/2511.14887v1
- Date: Tue, 18 Nov 2025 20:11:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.515817
- Title: Transformer-Guided Deep Reinforcement Learning for Optimal Takeoff Trajectory Design of an eVTOL Drone
- Title(参考訳): eVTOLドローンの最適離陸軌道設計のための変圧器誘導深部強化学習
- Authors: Nathan M. Roberts, Xiaosong Du,
- Abstract要約: 電動垂直離着陸機(eVTOL)は、都市交通渋滞を緩和する有望な機会を提供する。
従来の最適制御法は、高効率で確立された解を提供するが、問題次元と複雑性によって制限される。
深層強化学習(DRL)は、複雑な非線形システムに対処する人工知能の特殊なタイプとして出現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rapid advancement of electric vertical take-off and landing (eVTOL) aircraft offers a promising opportunity to alleviate urban traffic congestion. Thus, developing optimal takeoff trajectories for minimum energy consumption becomes essential for broader eVTOL aircraft applications. Conventional optimal control methods (such as dynamic programming and linear quadratic regulator) provide highly efficient and well-established solutions but are limited by problem dimensionality and complexity. Deep reinforcement learning (DRL) emerges as a special type of artificial intelligence tackling complex, nonlinear systems; however, the training difficulty is a key bottleneck that limits DRL applications. To address these challenges, we propose the transformer-guided DRL to alleviate the training difficulty by exploring a realistic state space at each time step using a transformer. The proposed transformer-guided DRL was demonstrated on an optimal takeoff trajectory design of an eVTOL drone for minimal energy consumption while meeting takeoff conditions (i.e., minimum vertical displacement and minimum horizontal velocity) by varying control variables (i.e., power and wing angle to the vertical). Results presented that the transformer-guided DRL agent learned to take off with $4.57\times10^6$ time steps, representing 25% of the $19.79\times10^6$ time steps needed by a vanilla DRL agent. In addition, the transformer-guided DRL achieved 97.2% accuracy on the optimal energy consumption compared against the simulation-based optimal reference while the vanilla DRL achieved 96.3% accuracy. Therefore, the proposed transformer-guided DRL outperformed vanilla DRL in terms of both training efficiency as well as optimal design verification.
- Abstract(参考訳): 電動垂直離着陸機(eVTOL)の急速な進歩は、都市交通渋滞を緩和する有望な機会を提供する。
したがって、より広範なeVTOL航空機応用には、最小エネルギー消費のための最適離陸軌道の開発が不可欠である。
従来の最適制御法(動的計画法や線形二次規制法など)は、高効率で確立された解を提供するが、問題次元と複雑性によって制限される。
深層強化学習(DRL)は、複雑で非線形なシステムに対処する人工知能の特殊なタイプとして現れるが、訓練の難しさはDRLの応用を制限する重要なボトルネックである。
これらの課題に対処するために,変換器を用いた各ステップで現実的な状態空間を探索することにより,トレーニングの難しさを軽減するための変換器誘導型DRLを提案する。
提案した変圧器誘導型DRLは、可変制御変数(すなわち、垂直方向の電力と翼角)による離陸条件(最小垂直変位と最小水平速度)を満たしながら、エネルギー消費を最小限に抑えたeVTOLドローンの最適離陸軌道設計で実証された。
その結果、変換器誘導型DRLエージェントが4.57\times10^6$タイムステップで離陸することを学び、バニラDRLエージェントに必要な19.79\times10^6$タイムステップの25%を占めた。
さらに、変圧器誘導型DRLはシミュレーションベースの最適基準と比較して最適なエネルギー消費に対して97.2%の精度を達成し、バニラDRLは96.3%の精度を達成した。
そのため,提案した変圧器誘導DRLは,トレーニング効率と最適設計検証の両方の観点から,バニラDRLよりも優れていた。
関連論文リスト
- The Path Not Taken: RLVR Provably Learns Off the Principals [85.41043469428365]
スパーシティはモデル条件の最適化バイアスの表面積であることを示す。
我々はこれらの力学を三ゲージ理論で機械的に説明する。
本稿では,RLVRの学習力学のパラメータレベルの特徴付けを行う。
論文 参考訳(メタデータ) (2025-11-11T18:49:45Z) - Large Language Model-Empowered Decision Transformer for UAV-Enabled Data Collection [71.84636717632206]
空間分散デバイスからの信頼性とエネルギー効率のよいデータ収集のための無人航空機(UAV)は、IoT(Internet of Things)アプリケーションをサポートする上で大きな可能性を秘めている。
有効なUAV制御ポリシーを学習するための共同言語モデル(LLM)を提案する。
LLM-CRDTは、現在の最先端DTアプローチよりも最大36.7%高いエネルギー効率を達成し、オンラインおよびオフラインメソッドのベンチマークより優れている。
論文 参考訳(メタデータ) (2025-09-17T13:05:08Z) - SimpleVLA-RL: Scaling VLA Training via Reinforcement Learning [81.7764584515496]
VLA(Vision-Language-Action)モデルは、ロボット操作の強力なパラダイムとして登場した。
これらのモデルは2つの根本的な課題に直面している。
VLAモデルに適した効率的な強化学習フレームワークであるSimpleVLA-RLを紹介する。
論文 参考訳(メタデータ) (2025-09-11T17:59:17Z) - AirPilot: Interpretable PPO-based DRL Auto-Tuned Nonlinear PID Drone Controller for Robust Autonomous Flights [0.046873264197900916]
AirPilotは、非線形ディープ強化学習 (DRL) - プロポーショナル・インテグレーショナル・デリバティブ (PID) ドローン・コントローラである。
AirPilotコントローラは、従来のPID制御のシンプルさと有効性と、DRLの適応性、学習能力、最適化能力を組み合わせる。
Airpilotは、デフォルトのPX4 PID位置コントローラのナビゲーションエラーを90%削減し、微調整されたPIDコントローラのナビゲーション速度を21%改善する。
論文 参考訳(メタデータ) (2024-03-30T00:46:43Z) - Compressing Deep Reinforcement Learning Networks with a Dynamic
Structured Pruning Method for Autonomous Driving [63.155562267383864]
深部強化学習(DRL)は複雑な自律運転シナリオにおいて顕著な成功を収めている。
DRLモデルは、必然的に高いメモリ消費と計算をもたらし、リソース限定の自動運転デバイスへの広範な展開を妨げる。
そこで本研究では,DRLモデルの非重要なニューロンを段階的に除去する,新しい動的構造化プルーニング手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T09:00:30Z) - Traffic Signal Control Using Lightweight Transformers: An
Offline-to-Online RL Approach [6.907105812732423]
我々は,オフラインで容易にアクセス可能なデータセットからポリシーを学習可能な,軽量な決定変換方式DTLightを提案する。
オフラインデータセット上で純粋に事前トレーニングされたDTLightは、ほとんどのシナリオで最先端のオンラインRLベースのメソッドより優れている。
実験の結果、オンラインの微調整により、最高のオンラインRLベースラインメソッドよりもDTLightのパフォーマンスが42.6%向上することが示された。
論文 参考訳(メタデータ) (2023-12-12T23:21:57Z) - On Transforming Reinforcement Learning by Transformer: The Development
Trajectory [97.79247023389445]
Transformerは元々自然言語処理用に開発されたもので、コンピュータビジョンでも大きな成功を収めている。
既存の開発をアーキテクチャ拡張と軌道最適化の2つのカテゴリに分類する。
ロボット操作,テキストベースのゲーム,ナビゲーション,自律運転におけるTRLの主な応用について検討する。
論文 参考訳(メタデータ) (2022-12-29T03:15:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。