論文の概要: Multi-Task Reinforcement Learning based Mobile Manipulation Control for
Dynamic Object Tracking and Grasping
- arxiv url: http://arxiv.org/abs/2006.04271v1
- Date: Sun, 7 Jun 2020 21:18:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 07:45:26.619095
- Title: Multi-Task Reinforcement Learning based Mobile Manipulation Control for
Dynamic Object Tracking and Grasping
- Title(参考訳): 動的物体追跡と把持のためのマルチタスク強化学習に基づく移動操作制御
- Authors: Cong Wang, Qifeng Zhang, Qiyan Tian, Shuo Li, Xiaohui Wang, David
Lane, Yvan Petillot, Ziyang Hong, Sen Wang
- Abstract要約: 汎用的な動的物体追跡と把握を実現するために,マルチタスク強化学習に基づく移動体操作制御フレームワークを提案する。
実験の結果、トレーニングされたポリシーは、約0.1mの追跡誤差と75%の達成率で、目に見えないランダムなダイナミックな軌道に適応できることがわかった。
- 参考スコア(独自算出の注目度): 17.2022039806473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Agile control of mobile manipulator is challenging because of the high
complexity coupled by the robotic system and the unstructured working
environment. Tracking and grasping a dynamic object with a random trajectory is
even harder. In this paper, a multi-task reinforcement learning-based mobile
manipulation control framework is proposed to achieve general dynamic object
tracking and grasping. Several basic types of dynamic trajectories are chosen
as the task training set. To improve the policy generalization in practice,
random noise and dynamics randomization are introduced during the training
process. Extensive experiments show that our policy trained can adapt to unseen
random dynamic trajectories with about 0.1m tracking error and 75\% grasping
success rate of dynamic objects. The trained policy can also be successfully
deployed on a real mobile manipulator.
- Abstract(参考訳): ロボットシステムと非構造的な作業環境が組み合わさった複雑さのため、移動マニピュレータのアジャイルコントロールは難しい。
ランダムな軌跡による動的物体の追跡と把握はさらに困難である。
本稿では,マルチタスク強化学習に基づく移動体操作制御フレームワークを提案する。
いくつかの基本的な動的軌跡がタスクトレーニングセットとして選択される。
実際の政策一般化を改善するために、トレーニングプロセス中にランダムノイズと動的ランダム化を導入する。
広範な実験により,我々の訓練したポリシーは,約0.1m追従誤差と75\%の動的物体の把持成功率を持つ無作為な動的トラジェクタに適応できることを示した。
トレーニングされたポリシーは、実際のモバイルマニピュレータにうまくデプロイできる。
関連論文リスト
- CAIMAN: Causal Action Influence Detection for Sample Efficient Loco-manipulation [17.94272840532448]
本稿では、疎タスク報酬のみに依存するロコ操作学習のための新しいフレームワークであるCAIMANを紹介する。
我々は,低レベルのロコモーションポリシとタスク関連速度コマンドを優先する高レベルのポリシーを組み合わせることによって,階層的な制御戦略を採用する。
フレームワークの優れたサンプル効率、多様な環境への適応性、そして微調整なしでハードウェアへの移行に成功したことを実証する。
論文 参考訳(メタデータ) (2025-02-02T16:16:53Z) - Guided Reinforcement Learning for Robust Multi-Contact Loco-Manipulation [12.377289165111028]
強化学習(Reinforcement Learning, RL)は、各タスクに合わせた細かなマルコフ決定プロセス(MDP)設計を必要とすることが多い。
本研究は,マルチコンタクトロコ操作タスクの動作合成と制御に対する体系的アプローチを提案する。
モデルベース軌道から生成されたタスク毎の1つの実演のみを用いて,RLポリシーを訓練するためのタスク非依存のMDPを定義する。
論文 参考訳(メタデータ) (2024-10-17T17:46:27Z) - Modular Neural Network Policies for Learning In-Flight Object Catching
with a Robot Hand-Arm System [55.94648383147838]
本稿では,ロボットハンドアームシステムによる飛行物体の捕獲方法の学習を可能にするモジュラーフレームワークを提案する。
本フレームワークは,物体の軌跡予測を学習するオブジェクト状態推定器,(ii)捕捉対象のポーズのスコアとランク付けを学ぶキャッチポーズ品質ネットワーク,(iii)ロボットハンドをキャッチ前ポーズに移動させるように訓練されたリーチ制御ポリシ,(iv)ソフトキャッチ動作を行うように訓練された把握制御ポリシの5つのコアモジュールから構成される。
各モジュールと統合システムのシミュレーションにおいて、我々のフレームワークを広範囲に評価し、飛行における高い成功率を示す。
論文 参考訳(メタデータ) (2023-12-21T16:20:12Z) - Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration [8.343657309038285]
強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
論文 参考訳(メタデータ) (2023-08-04T16:55:00Z) - Model-Based Reinforcement Learning with Multi-Task Offline Pretraining [59.82457030180094]
本稿では,オフラインデータから新しいタスクへ,潜在的に有用なダイナミックスや動作デモを伝達するモデルベースRL法を提案する。
主な考え方は、世界モデルを行動学習のシミュレーターとしてだけでなく、タスクの関連性を測定するツールとして使うことである。
本稿では,Meta-WorldとDeepMind Control Suiteの最先端手法と比較して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-06-06T02:24:41Z) - Learning Pneumatic Non-Prehensile Manipulation with a Mobile Blower [30.032847855193864]
管制官は 常に 行動の予期せぬ変化に 適応しなければならない。
本稿では,空間行動マップフレームワークのマルチ周波数バージョンを紹介する。
これにより、高レベルの計画と低レベルのクローズドループ制御を効果的に組み合わせたビジョンベースのポリシーの効率的な学習が可能になる。
論文 参考訳(メタデータ) (2022-04-05T17:55:58Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z) - Reinforcement Learning for Robust Parameterized Locomotion Control of
Bipedal Robots [121.42930679076574]
シミュレーションにおけるロコモーションポリシをトレーニングするためのモデルフリー強化学習フレームワークを提案する。
ドメインランダム化は、システムダイナミクスのバリエーションにまたがる堅牢な振る舞いを学ぶためのポリシーを奨励するために使用されます。
本研究では、目標歩行速度、歩行高さ、旋回ヨーなどの多目的歩行行動について示す。
論文 参考訳(メタデータ) (2021-03-26T07:14:01Z) - Neural Dynamic Policies for End-to-End Sensorimotor Learning [51.24542903398335]
感覚運動制御における現在の主流パラダイムは、模倣であれ強化学習であれ、生の行動空間で政策を直接訓練することである。
軌道分布空間の予測を行うニューラル・ダイナミック・ポリシー(NDP)を提案する。
NDPは、いくつかのロボット制御タスクにおいて、効率と性能の両面で、これまでの最先端よりも優れている。
論文 参考訳(メタデータ) (2020-12-04T18:59:32Z) - TAMPC: A Controller for Escaping Traps in Novel Environments [0.0]
ランダムに収集したトレーニングセットからトラップのないシステムのダイナミクスを学習する。
予期せぬトラップが実行中に発生すると、ダイナミックスとコントロール戦略に適応する方法を見つけなければなりません。
提案手法であるTap-Aware Model Predictive Control (TAMPC) は2段階階層制御アルゴリズムである。
論文 参考訳(メタデータ) (2020-10-23T16:33:15Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。