論文の概要: Learning Agility Adaptation for Flight in Clutter
- arxiv url: http://arxiv.org/abs/2403.04586v1
- Date: Thu, 7 Mar 2024 15:30:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 13:34:03.929080
- Title: Learning Agility Adaptation for Flight in Clutter
- Title(参考訳): クラッター飛行におけるアジリティ適応の学習
- Authors: Guangyu Zhao, Tianyue Wu, Yeke Chen and Fei Gao
- Abstract要約: この研究は、未発見で部分的に観測可能な乱雑な環境において、機動性の適応能力を持つ飛行車両を養うことを目的としている。
技術的には、オンラインモデルなし強化学習と、トレーニング済みの微調整報酬スキームを用いて、デプロイ可能なポリシーを得る。
特に、この政策は、他のアプローチと区別する認識のような知的な行動につながる。
- 参考スコア(独自算出の注目度): 4.2469914220011615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Animals learn to adapt agility of their movements to their capabilities and
the environment they operate in. Mobile robots should also demonstrate this
ability to combine agility and safety. The aim of this work is to endow flight
vehicles with the ability of agility adaptation in prior unknown and partially
observable cluttered environments. We propose a hierarchical learning and
planning framework where we utilize both trial and error to comprehensively
learn an agility policy with the vehicle's observation as the input, and
well-established methods of model-based trajectory generation. Technically, we
use online model-free reinforcement learning and a pre-training-fine-tuning
reward scheme to obtain the deployable policy. The statistical results in
simulation demonstrate the advantages of our method over the constant agility
baselines and an alternative method in terms of flight efficiency and safety.
In particular, the policy leads to intelligent behaviors, such as perception
awareness, which distinguish it from other approaches. By deploying the policy
to hardware, we verify that these advantages can be brought to the real world.
- Abstract(参考訳): 動物は自身の運動の機敏さを能力や活動環境に適応させることを学ぶ。
モバイルロボットは、アジリティと安全性を組み合わせる能力も示すべきだ。
本研究の目的は、未解明かつ部分的に観測可能な乱雑な環境において、機敏性に適応する能力を持つ飛行車両を提供することである。
本研究では,車両の観測をインプットとして,試行錯誤を総合的に学習し,モデルに基づく軌道生成手法を確立させた階層的学習計画フレームワークを提案する。
技術的には、オンラインモデルなし強化学習と、トレーニング済みの微調整報酬スキームを用いて、デプロイ可能なポリシーを得る。
シミュレーションの統計的結果は,一定速度ベースラインと飛行効率と安全性の面での代替手法よりも,本手法の利点を実証するものである。
特に、この方針は認知認識などの知的行動につながり、他のアプローチと区別される。
ポリシーをハードウェアにデプロイすることで、これらの利点が現実世界にもたらされることを確認します。
関連論文リスト
- Safe and Generalized end-to-end Autonomous Driving System with Reinforcement Learning and Demonstrations [15.853453814447471]
インテリジェントな運転システムは、現在の環境と車両状態に基づいて、適切な運転戦略を動的に定式化することができるべきである。
強化学習と模倣学習に基づく既存の手法は、安全性の低下、一般化の低さ、非効率サンプリングに悩まされている。
複雑・多種多様なシナリオを対象とした安全で汎用的なエンドツーエンド自動運転システムを提案する。
論文 参考訳(メタデータ) (2024-01-22T09:44:16Z) - Robust Driving Policy Learning with Guided Meta Reinforcement Learning [49.860391298275616]
本稿では,ソーシャルカーの多種多様な運転方針を一つのメタ政治として訓練する効率的な方法を提案する。
ソーシャルカーのインタラクションに基づく報酬関数をランダム化することにより、多様な目的を生み出し、メタ政治を効率的に訓練することができる。
本研究では,社会自動車が学習メタ政治によって制御される環境を利用して,エゴ自動車の運転方針の堅牢性を高めるためのトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-07-19T17:42:36Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - Automatically Learning Fallback Strategies with Model-Free Reinforcement
Learning in Safety-Critical Driving Scenarios [9.761912672523977]
本稿では, モデルレス強化学習(RL)エージェントに対して, 環境内の複数の動作モードを捉えるための原則的アプローチを提案する。
我々は、報酬モデルに擬似報酬項を導入し、最適政策によって特権付けられた領域とは異なる国家空間の領域への探索を奨励する。
我々は、トレーニング中に見逃されたであろう有用なポリシーを学習でき、制御アルゴリズムの実行時に使用できないことを示す。
論文 参考訳(メタデータ) (2022-04-11T15:34:49Z) - Unsupervised Domain Adaptation with Dynamics-Aware Rewards in
Reinforcement Learning [28.808933152885874]
無条件強化学習は、事前の目標表現なしでスキルを獲得することを目的としている。
別の相互作用に富んだ環境でのトレーニングの直感的なアプローチは、ターゲット環境におけるトレーニングスキルを阻害する。
本稿では,動的にスキルを習得するための教師なしドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2021-10-25T14:40:48Z) - Affordance-based Reinforcement Learning for Urban Driving [3.507764811554557]
経路点と低次元視覚表現を用いた最適制御ポリシーを学習するための深層強化学習フレームワークを提案する。
スクラッチから訓練されたエージェントは、車線追従のタスクを学習し、区間間を走り回り、密集した交通状況でも他のアクターや信号機の前で立ち止まることを実証する。
論文 参考訳(メタデータ) (2021-01-15T05:21:25Z) - Guided Uncertainty-Aware Policy Optimization: Combining Learning and
Model-Based Strategies for Sample-Efficient Policy Learning [75.56839075060819]
従来のロボットのアプローチは、環境の正確なモデル、タスクの実行方法の詳細な説明、現在の状態を追跡するための堅牢な認識システムに依存している。
強化学習アプローチは、タスクを記述するための報酬信号だけで、生の感覚入力から直接操作することができるが、非常にサンプル非効率で脆弱である。
本研究では,ロボットの知覚・運動パイプラインにおける不正確さを克服できる一般的な手法を得るために,モデルに基づく手法の強みと学習に基づく手法の柔軟性を組み合わせる。
論文 参考訳(メタデータ) (2020-05-21T19:47:05Z) - Model-Based Meta-Reinforcement Learning for Flight with Suspended
Payloads [69.21503033239985]
吊り下げられたペイロードの輸送は、自律的な航空車両にとって困難である。
接続後飛行データから数秒以内に変化力学のモデルを学習するメタラーニング手法を提案する。
論文 参考訳(メタデータ) (2020-04-23T17:43:56Z) - Never Stop Learning: The Effectiveness of Fine-Tuning in Robotic
Reinforcement Learning [109.77163932886413]
本稿では,ロボットによるロボット操作ポリシーを,政治以外の強化学習を通じて微調整することで,新たなバリエーションに適応する方法を示す。
この適応は、タスクをゼロから学習するために必要なデータの0.2%未満を使用する。
事前訓練されたポリシーを適用するという私たちのアプローチは、微調整の過程で大きなパフォーマンス向上につながります。
論文 参考訳(メタデータ) (2020-04-21T17:57:04Z) - Rapidly Adaptable Legged Robots via Evolutionary Meta-Learning [65.88200578485316]
本稿では,ロボットが動的変化に迅速に適応できるメタ学習手法を提案する。
提案手法は高雑音環境における動的変化への適応性を著しく改善する。
我々は、動的に変化しながら歩くことを学習する四足歩行ロボットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-03-02T22:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。