論文の概要: Model-Based Meta-Reinforcement Learning for Flight with Suspended
Payloads
- arxiv url: http://arxiv.org/abs/2004.11345v2
- Date: Tue, 2 Feb 2021 06:32:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 09:20:01.003805
- Title: Model-Based Meta-Reinforcement Learning for Flight with Suspended
Payloads
- Title(参考訳): サスペンド・ペイロードによる飛行モデルに基づくメタ強化学習
- Authors: Suneel Belkhale, Rachel Li, Gregory Kahn, Rowan McAllister, Roberto
Calandra, Sergey Levine
- Abstract要約: 吊り下げられたペイロードの輸送は、自律的な航空車両にとって困難である。
接続後飛行データから数秒以内に変化力学のモデルを学習するメタラーニング手法を提案する。
- 参考スコア(独自算出の注目度): 69.21503033239985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transporting suspended payloads is challenging for autonomous aerial vehicles
because the payload can cause significant and unpredictable changes to the
robot's dynamics. These changes can lead to suboptimal flight performance or
even catastrophic failure. Although adaptive control and learning-based methods
can in principle adapt to changes in these hybrid robot-payload systems, rapid
mid-flight adaptation to payloads that have a priori unknown physical
properties remains an open problem. We propose a meta-learning approach that
"learns how to learn" models of altered dynamics within seconds of
post-connection flight data. Our experiments demonstrate that our online
adaptation approach outperforms non-adaptive methods on a series of challenging
suspended payload transportation tasks. Videos and other supplemental material
are available on our website: https://sites.google.com/view/meta-rl-for-flight
- Abstract(参考訳): 吊り下げられたペイロードの輸送は、ロボットの動力に重大な、予測不能な変化を引き起こす可能性があるため、自律飛行車両にとって困難である。
これらの変更は、最適飛行性能や破滅的な失敗につながる可能性がある。
適応制御と学習に基づく手法は、原則としてこれらのハイブリッドロボットペイロードシステムの変化に適応することができるが、事前の物理的性質が不明なペイロードへの迅速なミッドフライ適応は未解決の問題である。
本研究では,接続後飛行データから数秒以内に変化するダイナミクスのモデル「学習の仕方を学習する」メタラーニング手法を提案する。
実験の結果,オンライン適応手法は,懸架されたペイロード輸送タスクにおいて,非適応手法よりも優れていることが示された。
ビデオやその他の補足資料は、我々のウェブサイトで入手できる。
関連論文リスト
- First, Learn What You Don't Know: Active Information Gathering for Driving at the Limits of Handling [38.468291768795865]
不安定なシステムでは、オンライン適応は信頼性の高い同時学習と制御を確保するのに十分ではないかもしれない。
高速なオンライン適応を実現するため,ベイジアン・メタラーニング MPC フレームワークを提案する。
Toyota Supraの実験は、このフレームワークがダイナミックドリフト操作における信頼性の高い制御を可能にすることを示している。
論文 参考訳(メタデータ) (2024-10-31T18:02:30Z) - Physics Enhanced Residual Policy Learning (PERPL) for safety cruising in mixed traffic platooning under actuator and communication delay [8.172286651098027]
線形制御モデルは、その単純さ、使いやすさ、安定性解析のサポートにより、車両制御に広範囲に応用されている。
一方、強化学習(RL)モデルは適応性を提供するが、解釈可能性や一般化能力の欠如に悩まされる。
本稿では,物理インフォームドポリシによって強化されたRL制御系の開発を目標とする。
論文 参考訳(メタデータ) (2024-09-23T23:02:34Z) - Model-Based Reinforcement Learning with Multi-Task Offline Pretraining [59.82457030180094]
本稿では,オフラインデータから新しいタスクへ,潜在的に有用なダイナミックスや動作デモを伝達するモデルベースRL法を提案する。
主な考え方は、世界モデルを行動学習のシミュレーターとしてだけでなく、タスクの関連性を測定するツールとして使うことである。
本稿では,Meta-WorldとDeepMind Control Suiteの最先端手法と比較して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-06-06T02:24:41Z) - OSCAR: Data-Driven Operational Space Control for Adaptive and Robust
Robot Manipulation [50.59541802645156]
オペレーショナル・スペース・コントロール(OSC)は、操作のための効果的なタスクスペース・コントローラとして使われてきた。
本稿では,データ駆動型OSCのモデル誤差を補償するOSC for Adaptation and Robustness (OSCAR)を提案する。
本手法は,様々なシミュレーション操作問題に対して評価し,制御器のベースラインの配列よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2021-10-02T01:21:38Z) - Bayesian Meta-Learning for Few-Shot Policy Adaptation Across Robotic
Platforms [60.59764170868101]
強化学習手法は、重要な性能を達成できるが、同じロボットプラットフォームで収集される大量のトレーニングデータを必要とする。
私たちはそれを、さまざまなロボットプラットフォームで共有される共通の構造を捉えるモデルを見つけることを目標とする、数ショットのメタラーニング問題として定式化します。
我々は,400個のロボットを用いて,実ロボットピッキング作業とシミュレーションリーチの枠組みを実験的に評価した。
論文 参考訳(メタデータ) (2021-03-05T14:16:20Z) - Meta-Learning-Based Robust Adaptive Flight Control Under Uncertain Wind
Conditions [13.00214468719929]
リアルタイムモデル学習は、さまざまな風条件で飛行するドローンなどの複雑なダイナミクスシステムにとって困難です。
本稿では,ディープニューラルネットワークからの出力を基本関数の集合として扱うオンライン複合適応手法を提案する。
我々は,風条件の異なる空洞でドローンを飛ばし,挑戦的な軌道を飛行させることにより,我々のアプローチを検証する。
論文 参考訳(メタデータ) (2021-03-02T18:43:59Z) - Meta-Reinforcement Learning for Adaptive Motor Control in Changing Robot
Dynamics and Environments [3.5309638744466167]
この研究は、ロバストな移動のための異なる条件に制御ポリシーを適応させるメタラーニングアプローチを開発した。
提案手法は, インタラクションモデルを更新し, 推定された状態-作用軌道のアクションをサンプル化し, 最適なアクションを適用し, 報酬を最大化する。
論文 参考訳(メタデータ) (2021-01-19T12:57:12Z) - Never Stop Learning: The Effectiveness of Fine-Tuning in Robotic
Reinforcement Learning [109.77163932886413]
本稿では,ロボットによるロボット操作ポリシーを,政治以外の強化学習を通じて微調整することで,新たなバリエーションに適応する方法を示す。
この適応は、タスクをゼロから学習するために必要なデータの0.2%未満を使用する。
事前訓練されたポリシーを適用するという私たちのアプローチは、微調整の過程で大きなパフォーマンス向上につながります。
論文 参考訳(メタデータ) (2020-04-21T17:57:04Z) - Rapidly Adaptable Legged Robots via Evolutionary Meta-Learning [65.88200578485316]
本稿では,ロボットが動的変化に迅速に適応できるメタ学習手法を提案する。
提案手法は高雑音環境における動的変化への適応性を著しく改善する。
我々は、動的に変化しながら歩くことを学習する四足歩行ロボットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-03-02T22:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。