論文の概要: Learning Whole-Body Loco-Manipulation for Omni-Directional Task Space Pose Tracking with a Wheeled-Quadrupedal-Manipulator
- arxiv url: http://arxiv.org/abs/2412.03012v1
- Date: Wed, 04 Dec 2024 04:02:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:06:46.879433
- Title: Learning Whole-Body Loco-Manipulation for Omni-Directional Task Space Pose Tracking with a Wheeled-Quadrupedal-Manipulator
- Title(参考訳): 車輪付きクアドルペダルマニピュレータを用いたOmni方向タスク空間追跡のための全体ロコマニピュレーションの学習
- Authors: Kaiwen Jiang, Zhen Fu, Junde Guo, Wei Zhang, Hua Chen,
- Abstract要約: 強化学習(RL)を用いた全身ロコ操作問題について検討する。
我々は,異なるタスクに対応する報酬項を非線形に体系的に統合する新しい報酬融合モジュール(RFM)を開発した。
特に、スムーズで正確な追跡性能を実現し、5cm未満の最先端追跡位置誤差と0.1rad未満の回転誤差を実現した。
- 参考スコア(独自算出の注目度): 6.333875015720212
- License:
- Abstract: In this paper, we study the whole-body loco-manipulation problem using reinforcement learning (RL). Specifically, we focus on the problem of how to coordinate the floating base and the robotic arm of a wheeled-quadrupedal manipulator robot to achieve direct six-dimensional (6D) end-effector (EE) pose tracking in task space. Different from conventional whole-body loco-manipulation problems that track both floating-base and end-effector commands, the direct EE pose tracking problem requires inherent balance among redundant degrees of freedom in the whole-body motion. We leverage RL to solve this challenging problem. To address the associated difficulties, we develop a novel reward fusion module (RFM) that systematically integrates reward terms corresponding to different tasks in a nonlinear manner. In such a way, the inherent multi-stage and hierarchical feature of the loco-manipulation problem can be carefully accommodated. By combining the proposed RFM with the a teacher-student RL training paradigm, we present a complete RL scheme to achieve 6D EE pose tracking for the wheeled-quadruped manipulator robot. Extensive simulation and hardware experiments demonstrate the significance of the RFM. In particular, we enable smooth and precise tracking performance, achieving state-of-the-art tracking position error of less than 5 cm, and rotation error of less than 0.1 rad. Please refer to https://clearlab-sustech.github.io/RFM_loco_mani/ for more experimental videos.
- Abstract(参考訳): 本稿では,強化学習(RL)を用いた全身ロコ操作問題について検討する。
具体的には、車輪付き四足歩行マニピュレータロボットの浮体ベースとロボットアームを協調させて、タスク空間における6次元エンドエフェクタ(EE)の直接的なポーズトラッキングを実現する方法に焦点をあてる。
フローティングベースとエンドエフェクタの両方のコマンドを追跡する従来の全体のロコ操作問題とは異なり、直接EEのポーズトラッキング問題では、全身の動きにおける冗長な自由度の間に固有のバランスが必要である。
我々はこの難題を解決するためにRLを活用している。
この課題に対処するため、異なるタスクに対応する報酬項を非線形に体系的に統合する新しい報酬融合モジュール(RFM)を開発した。
このようにして、ロコマニピュレーション問題の本質的に多段階的および階層的特徴を慎重に対応させることができる。
提案したRFMと教師が学習するRLトレーニングパラダイムを組み合わせることで、車輪付き四足歩行マニピュレータロボットの6D EEポーズトラッキングを実現するための完全なRLスキームを提案する。
大規模なシミュレーションとハードウェア実験は、RCMの重要性を実証している。
特に、スムーズで正確な追跡性能を実現し、5cm未満の最先端追跡位置誤差と0.1rad未満の回転誤差を実現した。
より実験的なビデオについては、https://clearlab-sustech.github.io/RFM_loco_mani/を参照してください。
関連論文リスト
- HOMIE: Humanoid Loco-Manipulation with Isomorphic Exoskeleton Cockpit [52.12750762494588]
現在のヒューマノイド遠隔操作システムは、信頼性の高い低レベル制御ポリシーを欠いているか、または正確な全身制御コマンドを取得するのに苦労している。
本稿では,ヒューマノイドのロコ操作ポリシと低コストなエクソスケルトン型ハードウェアシステムを統合した,新しいヒューマノイド遠隔操作コックピットを提案する。
論文 参考訳(メタデータ) (2025-02-18T16:33:38Z) - DexterityGen: Foundation Controller for Unprecedented Dexterity [67.15251368211361]
ツール使用など,ロボットの巧妙な操作スキルを教えることは,大きな課題となる。
現在のアプローチは、人間の遠隔操作(模倣学習)とシミュレート・トゥ・リアル強化学習(sim-to-real reinforcement learning)の2つの戦略に大別できる。
本稿では,手動回転や翻訳などの大規模動きプリミティブをRLで事前学習するDexterityGenを紹介する。
現実の世界では、人間の遠隔操作をコントローラーのプロンプトとして利用し、厳密な振る舞いを生み出す。
論文 参考訳(メタデータ) (2025-02-06T18:49:35Z) - Whole-body end-effector pose tracking [10.426087117345096]
本研究では, 大規模作業空間におけるエンドエフェクタポーズトラッキングのための全身RL定式化手法を提案する。
提案手法は,ロボットの初期設定とエンドエフェクタポーズコマンドのための地形対応サンプリング戦略を含む。
展開時に2.64cmと3.64°のポーズ追跡誤差を達成し、既存の競争基準よりも優れている。
論文 参考訳(メタデータ) (2024-09-24T12:51:32Z) - Leveraging Symmetry to Accelerate Learning of Trajectory Tracking Controllers for Free-Flying Robotic Systems [24.360194697715382]
トラッキングコントローラにより、ロボットシステムは計画された基準軌道を正確に追従することができる。
本研究では,フローティングベースを持つロボットシステムの固有リー群対称性を活用して,トラッキングコントローラの学習における課題を軽減する。
その結果,対称性を意識したアプローチはトレーニングを加速し,同一のトレーニングステップの後に追跡誤差を減少させることがわかった。
論文 参考訳(メタデータ) (2024-09-17T14:39:24Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration [8.343657309038285]
強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
論文 参考訳(メタデータ) (2023-08-04T16:55:00Z) - Decoupling Skill Learning from Robotic Control for Generalizable Object
Manipulation [35.34044822433743]
ロボット操作の最近の研究は、様々なタスクに取り組む可能性を示している。
これは関節制御のための高次元の作用空間によるものであると推測する。
本稿では,「何をすべきか」を「どうやるか」から「どうやるか」を学習するタスクを,別のアプローチで分離する。
ロボットキネマティック・コントロールは、作業空間のゴールに到達するために高次元の関節運動を実行するように最適化されている。
論文 参考訳(メタデータ) (2023-03-07T16:31:13Z) - Learning a Single Near-hover Position Controller for Vastly Different
Quadcopters [56.37274861303324]
本稿では,クワッドコプターのための適応型ニアホバー位置制御器を提案する。
これは、非常に異なる質量、大きさ、運動定数を持つクワッドコプターに展開することができる。
また、実行中に未知の障害に迅速に適応する。
論文 参考訳(メタデータ) (2022-09-19T17:55:05Z) - OSCAR: Data-Driven Operational Space Control for Adaptive and Robust
Robot Manipulation [50.59541802645156]
オペレーショナル・スペース・コントロール(OSC)は、操作のための効果的なタスクスペース・コントローラとして使われてきた。
本稿では,データ駆動型OSCのモデル誤差を補償するOSC for Adaptation and Robustness (OSCAR)を提案する。
本手法は,様々なシミュレーション操作問題に対して評価し,制御器のベースラインの配列よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2021-10-02T01:21:38Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z) - Smooth Exploration for Robotic Reinforcement Learning [11.215352918313577]
強化学習(Reinforcement Learning, RL)は、ロボットが現実世界との対話からスキルを学ぶことを可能にする。
実際には、Deep RLで使用される非構造的なステップベースの探索は、実際のロボットにジャーキーな動きパターンをもたらす。
本稿では、状態依存探索(SDE)を現在のDeep RLアルゴリズムに適応させることにより、これらの問題に対処する。
論文 参考訳(メタデータ) (2020-05-12T12:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。