論文の概要: ResMimic: From General Motion Tracking to Humanoid Whole-body Loco-Manipulation via Residual Learning
- arxiv url: http://arxiv.org/abs/2510.05070v2
- Date: Wed, 08 Oct 2025 06:51:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 12:02:36.802003
- Title: ResMimic: From General Motion Tracking to Humanoid Whole-body Loco-Manipulation via Residual Learning
- Title(参考訳): ResMimic: 一般運動追跡から残留学習によるヒューマノイド全体ロコマニピュレーションへ
- Authors: Siheng Zhao, Yanjie Ze, Yue Wang, C. Karen Liu, Pieter Abbeel, Guanya Shi, Rocky Duan,
- Abstract要約: ヒューマノイド全体のロコ操作は、日々のサービスや倉庫のタスクにトランスフォーメーション機能を約束する。
ResMimicは、人間の動作データから正確に表現力のあるヒューマノイド制御のための2段階の残差学習フレームワークである。
結果は、強いベースラインよりもタスク成功、トレーニング効率、堅牢性が大幅に向上したことを示している。
- 参考スコア(独自算出の注目度): 59.64325421657381
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humanoid whole-body loco-manipulation promises transformative capabilities for daily service and warehouse tasks. While recent advances in general motion tracking (GMT) have enabled humanoids to reproduce diverse human motions, these policies lack the precision and object awareness required for loco-manipulation. To this end, we introduce ResMimic, a two-stage residual learning framework for precise and expressive humanoid control from human motion data. First, a GMT policy, trained on large-scale human-only motion, serves as a task-agnostic base for generating human-like whole-body movements. An efficient but precise residual policy is then learned to refine the GMT outputs to improve locomotion and incorporate object interaction. To further facilitate efficient training, we design (i) a point-cloud-based object tracking reward for smoother optimization, (ii) a contact reward that encourages accurate humanoid body-object interactions, and (iii) a curriculum-based virtual object controller to stabilize early training. We evaluate ResMimic in both simulation and on a real Unitree G1 humanoid. Results show substantial gains in task success, training efficiency, and robustness over strong baselines. Videos are available at https://resmimic.github.io/ .
- Abstract(参考訳): ヒューマノイド全体のロコ操作は、日々のサービスや倉庫のタスクにトランスフォーメーション機能を約束する。
近年の一般運動追跡(GMT)の進歩により、ヒューマノイドは多様な人間の動きを再現できるようになったが、これらのポリシーは、ロコ操作に必要な正確さと物体認識を欠いている。
この目的のために,人間の動作データから正確に表現力のあるヒューマノイド制御を行うための2段階の残差学習フレームワークであるResMimicを紹介する。
第一に、大規模な人間のみの動きに基づいて訓練されたGMTポリシーは、人間のような全身の動きを生成するためのタスク非依存の基盤として機能する。
効率的だが正確な残留ポリシーが学習され、GMT出力を洗練して移動を改善し、物体の相互作用を組み込む。
効率的なトレーニングをさらに促進するために、我々は設計する
(i)よりスムーズな最適化のためのポイントクラウドベースのオブジェクトトラッキング報酬。
二 正確な人体・物体の相互作用を促す接触報酬、及び
三 早期訓練を安定させるカリキュラムベースの仮想オブジェクトコントローラ。
我々はResMimicをシミュレーションと実際のUnitree G1ヒューマノイドの両方で評価する。
結果は、強いベースラインよりもタスク成功、トレーニング効率、堅牢性が大幅に向上したことを示している。
ビデオはhttps://resmimic.github.io/で公開されている。
関連論文リスト
- OmniRetarget: Interaction-Preserving Data Generation for Humanoid Whole-Body Loco-Manipulation and Scene Interaction [76.44108003274955]
ヒューマノイドロボットの複雑なスキルを教えるための主要なパラダイムは、強化学習ポリシーの運動学的参照として人間の動きを再ターゲットすることである。
インタラクションメッシュに基づくインタラクション保存データ生成エンジンであるOmniRetargetを紹介する。
人間のメッシュとロボットメッシュの間のラプラシアの変形を最小限にすることで、OmniRetargetは運動学的に実現可能な軌道を生成する。
論文 参考訳(メタデータ) (2025-09-30T17:59:02Z) - KungfuBot2: Learning Versatile Motion Skills for Humanoid Whole-Body Control [30.738592041595933]
ヒューマノイドロボットが単一ポリシーで多様な動的動作を学習できる統一された全身制御系VMSを提案する。
我々のフレームワークは、局所的な動きの忠実度とグローバルな軌道の整合性のバランスをとるハイブリッドな追跡目標を統合している。
シミュレーションと実世界の実験の両方においてVMSの特殊化を広範囲に検証し、ダイナミックスキルの正確な模倣、分長シーケンスでの安定した性能、そして目に見えない動作に対する強力な一般化を実証した。
論文 参考訳(メタデータ) (2025-09-20T11:31:14Z) - KungfuBot: Physics-Based Humanoid Whole-Body Control for Learning Highly-Dynamic Skills [50.34487144149439]
そこで本研究では,Kungfuやダンスなどの人体動作を高度に制御することを目的とした,物理学に基づくヒューマノイド制御フレームワークを提案する。
動作処理では,運動の抽出,フィルタリング,修正,再ターゲティングを行うパイプラインを設計し,物理的制約の遵守を確実にする。
動作模倣では、二段階最適化問題を定式化し、追従精度の許容度を動的に調整する。
実験では,高ダイナミックな動作のセットを模倣するために全身制御ポリシーを訓練する。
論文 参考訳(メタデータ) (2025-06-15T13:58:53Z) - ExBody2: Advanced Expressive Humanoid Whole-Body Control [16.69009772546575]
人間のモーションキャプチャーとシミュレーションデータの両方に基づいてトレーニングされた全身トラッキングコントローラの製作法を提案する。
我々は,ロボットのキネマティクスに適合する中間データを生成するために,教師の方針を利用する。
少量のデータによる微調整により追跡性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-12-17T18:59:51Z) - I-CTRL: Imitation to Control Humanoid Robots Through Constrained Reinforcement Learning [8.97654258232601]
有界残留強化学習(I-CTRL)によるヒューマノイドロボットの制御フレームワークの開発
I-CTRLは5つのロボットにまたがるシンプルでユニークな報酬で、動きの模倣に優れています。
本フレームワークでは,大規模動作データセットを管理するための自動優先度スケジューラを導入している。
論文 参考訳(メタデータ) (2024-05-14T16:12:27Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Task-Generic Hierarchical Human Motion Prior using VAEs [44.356707509079044]
人間の動きを記述する深い生成モデルは、幅広いコンピュータビジョンやグラフィックタスクに役立てることができる。
本稿では,グローバル・ローカル・ラテント・スペースの組み合わせを用いて,特定のタスクに依存しない複雑な人間の動作を学習する手法を提案する。
映像に基づく人間のポーズ推定を含む様々なタスクにおいて,階層的な動き変動自動エンコーダの有効性を実証する。
論文 参考訳(メタデータ) (2021-06-07T23:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。