論文の概要: Learning Agility Adaptation for Flight in Clutter
- arxiv url: http://arxiv.org/abs/2403.04586v1
- Date: Thu, 7 Mar 2024 15:30:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 13:34:03.929080
- Title: Learning Agility Adaptation for Flight in Clutter
- Title(参考訳): クラッター飛行におけるアジリティ適応の学習
- Authors: Guangyu Zhao, Tianyue Wu, Yeke Chen and Fei Gao
- Abstract要約: この研究は、未発見で部分的に観測可能な乱雑な環境において、機動性の適応能力を持つ飛行車両を養うことを目的としている。
技術的には、オンラインモデルなし強化学習と、トレーニング済みの微調整報酬スキームを用いて、デプロイ可能なポリシーを得る。
特に、この政策は、他のアプローチと区別する認識のような知的な行動につながる。
- 参考スコア(独自算出の注目度): 4.2469914220011615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Animals learn to adapt agility of their movements to their capabilities and
the environment they operate in. Mobile robots should also demonstrate this
ability to combine agility and safety. The aim of this work is to endow flight
vehicles with the ability of agility adaptation in prior unknown and partially
observable cluttered environments. We propose a hierarchical learning and
planning framework where we utilize both trial and error to comprehensively
learn an agility policy with the vehicle's observation as the input, and
well-established methods of model-based trajectory generation. Technically, we
use online model-free reinforcement learning and a pre-training-fine-tuning
reward scheme to obtain the deployable policy. The statistical results in
simulation demonstrate the advantages of our method over the constant agility
baselines and an alternative method in terms of flight efficiency and safety.
In particular, the policy leads to intelligent behaviors, such as perception
awareness, which distinguish it from other approaches. By deploying the policy
to hardware, we verify that these advantages can be brought to the real world.
- Abstract(参考訳): 動物は自身の運動の機敏さを能力や活動環境に適応させることを学ぶ。
モバイルロボットは、アジリティと安全性を組み合わせる能力も示すべきだ。
本研究の目的は、未解明かつ部分的に観測可能な乱雑な環境において、機敏性に適応する能力を持つ飛行車両を提供することである。
本研究では,車両の観測をインプットとして,試行錯誤を総合的に学習し,モデルに基づく軌道生成手法を確立させた階層的学習計画フレームワークを提案する。
技術的には、オンラインモデルなし強化学習と、トレーニング済みの微調整報酬スキームを用いて、デプロイ可能なポリシーを得る。
シミュレーションの統計的結果は,一定速度ベースラインと飛行効率と安全性の面での代替手法よりも,本手法の利点を実証するものである。
特に、この方針は認知認識などの知的行動につながり、他のアプローチと区別される。
ポリシーをハードウェアにデプロイすることで、これらの利点が現実世界にもたらされることを確認します。
関連論文リスト
- RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Safe multi-agent motion planning under uncertainty for drones using
filtered reinforcement learning [6.783774261623415]
本稿では,強化学習と制約制御に基づく軌道計画の強みを生かした,トラクタブルな運動プランナを提案する。
提案手法は,学習のみに基づく手法よりも訓練が容易な,安全かつリアルタイムな実装可能なマルチエージェントモーションプランナを提供する。
論文 参考訳(メタデータ) (2023-10-31T18:09:26Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - Learning Perception-Aware Agile Flight in Cluttered Environments [38.59659342532348]
乱雑な環境下での知覚に敏感で最小時間飛行を実現するニューラルネットワークポリシーを学習する手法を提案する。
提案手法は認識と制御を密に結合し,計算速度(10倍高速)と成功率に有意な優位性を示す。
本研究では, クローズドループ制御性能を最大50km/hの速さで実機とハードウェア・イン・ザ・ループシミュレーションを用いて実証する。
論文 参考訳(メタデータ) (2022-10-04T18:18:58Z) - Automatically Learning Fallback Strategies with Model-Free Reinforcement
Learning in Safety-Critical Driving Scenarios [9.761912672523977]
本稿では, モデルレス強化学習(RL)エージェントに対して, 環境内の複数の動作モードを捉えるための原則的アプローチを提案する。
我々は、報酬モデルに擬似報酬項を導入し、最適政策によって特権付けられた領域とは異なる国家空間の領域への探索を奨励する。
我々は、トレーニング中に見逃されたであろう有用なポリシーを学習でき、制御アルゴリズムの実行時に使用できないことを示す。
論文 参考訳(メタデータ) (2022-04-11T15:34:49Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - XAI-N: Sensor-based Robot Navigation using Expert Policies and Decision
Trees [55.9643422180256]
本稿では,ロボットの密集した動的環境における衝突のない軌道を計算するためのセンサベース学習ナビゲーションアルゴリズムを提案する。
我々のアプローチは、sim2realパラダイムを用いて訓練された深層強化学習に基づくエキスパートポリシーを使用する。
シミュレーション環境でのアルゴリズムの利点を強調し、移動中の歩行者の間でClearpath Jackalロボットをナビゲートする。
論文 参考訳(メタデータ) (2021-04-22T01:33:10Z) - Affordance-based Reinforcement Learning for Urban Driving [3.507764811554557]
経路点と低次元視覚表現を用いた最適制御ポリシーを学習するための深層強化学習フレームワークを提案する。
スクラッチから訓練されたエージェントは、車線追従のタスクを学習し、区間間を走り回り、密集した交通状況でも他のアクターや信号機の前で立ち止まることを実証する。
論文 参考訳(メタデータ) (2021-01-15T05:21:25Z) - Model-Based Meta-Reinforcement Learning for Flight with Suspended
Payloads [69.21503033239985]
吊り下げられたペイロードの輸送は、自律的な航空車両にとって困難である。
接続後飛行データから数秒以内に変化力学のモデルを学習するメタラーニング手法を提案する。
論文 参考訳(メタデータ) (2020-04-23T17:43:56Z) - Efficiency and Equity are Both Essential: A Generalized Traffic Signal
Controller with Deep Reinforcement Learning [25.21831641893209]
本稿では,信号制御系に対して,最適化されたトラフィックフローを目的とした深層強化学習を用いた学習ポリシーを提案する。
提案手法は,効率と公平性を同時に考慮した報酬関数の新規な定式化を用いている。
シミュレーションおよび実世界のデータを用いた実験により,提案アルゴリズムが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2020-03-09T11:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。