論文の概要: Multi-Task Reinforcement Learning of Drone Aerobatics by Exploiting Geometric Symmetries
- arxiv url: http://arxiv.org/abs/2602.10997v1
- Date: Wed, 11 Feb 2026 16:21:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.372033
- Title: Multi-Task Reinforcement Learning of Drone Aerobatics by Exploiting Geometric Symmetries
- Title(参考訳): 幾何学的対称性の爆発によるドローンエアロバティックスのマルチタスク強化学習
- Authors: Zhanyu Guo, Zikang Yin, Guobin Zhu, Shiliang Guo, Shiyu Zhao,
- Abstract要約: GEAR(Geometric Equivariant Aerobatics Reinforcement)は様々なエアロバティックタスクで98.85%の成功率を達成した。
実世界の実験において、GEARは複数の操作の安定した実行と、基本的な運動プリミティブを組み合わせて複雑なエアロバティクスを完成させる能力を示す。
- 参考スコア(独自算出の注目度): 11.44697957422778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Flight control for autonomous micro aerial vehicles (MAVs) is evolving from steady flight near equilibrium points toward more aggressive aerobatic maneuvers, such as flips, rolls, and Power Loop. Although reinforcement learning (RL) has shown great potential in these tasks, conventional RL methods often suffer from low data efficiency and limited generalization. This challenge becomes more pronounced in multi-task scenarios where a single policy is required to master multiple maneuvers. In this paper, we propose a novel end-to-end multi-task reinforcement learning framework, called GEAR (Geometric Equivariant Aerobatics Reinforcement), which fully exploits the inherent SO(2) rotational symmetry in MAV dynamics and explicitly incorporates this property into the policy network architecture. By integrating an equivariant actor network, FiLM-based task modulation, and a multi-head critic, GEAR achieves both efficiency and flexibility in learning diverse aerobatic maneuvers, enabling a data-efficient, robust, and unified framework for aerobatic control. GEAR attains a 98.85\% success rate across various aerobatic tasks, significantly outperforming baseline methods. In real-world experiments, GEAR demonstrates stable execution of multiple maneuvers and the capability to combine basic motion primitives to complete complex aerobatics.
- Abstract(参考訳): 自律型マイクロエアロビー(MAV)の飛行制御は、平衡点付近の安定した飛行から、フリップ、ロール、パワーループのようなより攻撃的なエアロバティックな操縦へと進化している。
強化学習(RL)はこれらのタスクにおいて大きな可能性を示しているが、従来のRL手法はデータ効率の低下と限定的な一般化に悩まされることが多い。
この課題は、複数の操作をマスターするために単一のポリシーが必要であるマルチタスクシナリオでより顕著になる。
本稿では,MAV力学において固有のSO(2)回転対称性を完全に活用し,この特性をポリシネットワークアーキテクチャに明示的に組み込む,GEAR(Geometric Equivariant Aerobatics Reinforcement)と呼ばれる,エンドツーエンドのマルチタスク強化学習フレームワークを提案する。
等価なアクターネットワーク、FiLMベースのタスク変調、マルチヘッド批判を統合することで、GEARは多様なアロバティック操作を学習する際の効率性と柔軟性を両立させ、データ効率、堅牢、およびアロバティック制御のための統一されたフレームワークを実現する。
GEARは様々なエアロバティックなタスクで98.85 %の成功率を獲得し、ベースライン法を著しく上回っている。
実世界の実験において、GEARは複数の操作の安定した実行と、基本的な運動プリミティブを組み合わせて複雑なエアロバティクスを完成させる能力を示す。
関連論文リスト
- MAVEN: A Meta-Reinforcement Learning Framework for Varying-Dynamics Expertise in Agile Quadrotor Maneuvers [9.464856441150717]
MAVENはメタRLフレームワークであり、単一のポリシーで幅広い四角形力学をまたいだ堅牢なエンドツーエンドナビゲーションを実現することができる。
我々はGPUベクタライズドシミュレータを利用して何千もの並列環境にタスクを分散し、メタRLの長いトレーニング時間を1時間以内で収束させています。
論文 参考訳(メタデータ) (2026-03-11T12:40:26Z) - Empower Low-Altitude Economy: A Reliability-Aware Dynamic Weighting Allocation for Multi-modal UAV Beam Prediction [57.04985443535312]
低高度経済(LAE)は、都市空気移動、ロジスティクスドローン、空中センシングによって急速に拡大している。
現在の研究は、シングルシグナルからマルチモーダルコラボレーティブアプローチにシフトしている。
セマンティック・アウェアなマルチモーダルビーム予測フレームワークSaM2Bに,信頼性を考慮した動的重み付け手法を提案する。
論文 参考訳(メタデータ) (2025-12-30T16:24:34Z) - MOA: Multi-Objective Alignment for Role-Playing Agents [68.67837397211903]
汎用RPAのための多次元きめ細かなルーリック最適化を実現するための強化学習フレームワークMOAを提案する。
モデルアウトプットの多様性と品質の問題に対処するために、我々は、非政治ガイダンスによる思考強化されたロールアウトも導入している。
このことは、ロール知識、ペルソナスタイル、多様なシナリオ、複雑なマルチターン会話の要求を同時に満たすことができるRPAの構築におけるMOAの大きな可能性を示しています。
論文 参考訳(メタデータ) (2025-12-10T15:35:11Z) - ThanoRA: Task Heterogeneity-Aware Multi-Task Low-Rank Adaptation [96.86211867758652]
Low-Rank Adaptation (LoRA) は、基礎モデルの下流の微調整に広く採用されている。
タスク不均一性を考慮したマルチタスク低ランク適応フレームワークであるTanoRAを提案する。
論文 参考訳(メタデータ) (2025-05-24T11:01:45Z) - Scaling Multi Agent Reinforcement Learning for Underwater Acoustic Tracking via Autonomous Vehicles [1.7923169244369488]
マルチエージェント強化学習は、サンプル非効率で悪名高い。
GazeboのLRAUVのような高忠実度シミュレータは、リアルタイムのシングルロボットシミュレーションを100倍高速にする。
本稿では,高忠実度シミュレーションをGPU加速環境へ伝達する反復蒸留法を提案する。
論文 参考訳(メタデータ) (2025-05-13T04:42:30Z) - HEART: Achieving Timely Multi-Model Training for Vehicle-Edge-Cloud-Integrated Hierarchical Federated Learning [30.75025062952915]
AI対応のIoT of Vehicles(IoV)の急速な成長は、効率的な機械学習(ML)ソリューションを求めている。
車両はしばしば複数のMLタスクを同時に実行する必要がある。
本稿では,グローバルトレーニング遅延の最小化を目的とした動的VEC-HFLにおけるマルチモデルトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-17T03:15:03Z) - Transforming Vision Transformer: Towards Efficient Multi-Task Asynchronous Learning [59.001091197106085]
Vision TransformerのためのMulti-Task Learning (MTL)は、複数のタスクを同時に処理することでモデル能力を向上させることを目的としている。
最近の研究は、Mixture-of-Experts(MoE)構造の設計とローランド適応(LoRA)によるマルチタスク学習の効率化に重点を置いている。
本稿では,事前学習した視覚変換器を効率的なマルチタスク学習器に変換することで,EMTAL(Efficient Multi-Task Learning)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-12T17:41:23Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Low-level Pose Control of Tilting Multirotor for Wall Perching Tasks
Using Reinforcement Learning [2.5903488573278284]
実世界の応用において,傾き型マルチロータを制御するための新しい強化学習手法を提案する。
提案手法は,傾斜マルチロータの複雑な力学を克服し,頑健な制御性を示す。
論文 参考訳(メタデータ) (2021-08-11T21:39:51Z) - UPDeT: Universal Multi-agent Reinforcement Learning via Policy
Decoupling with Transformers [108.92194081987967]
タスクに適合する1つのアーキテクチャを設計し、汎用的なマルチエージェント強化学習パイプラインを最初に試行する。
従来のRNNモデルとは異なり、トランスフォーマーモデルを用いてフレキシブルなポリシーを生成する。
提案方式はUPDeT(Universal Policy Decoupling Transformer)と名付けられ,動作制限を緩和し,マルチエージェントタスクの決定プロセスをより説明しやすいものにする。
論文 参考訳(メタデータ) (2021-01-20T07:24:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。