論文の概要: MaskedManipulator: Versatile Whole-Body Control for Loco-Manipulation
- arxiv url: http://arxiv.org/abs/2505.19086v1
- Date: Sun, 25 May 2025 10:46:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.892206
- Title: MaskedManipulator: Versatile Whole-Body Control for Loco-Manipulation
- Title(参考訳): MaskedManipulator:ロコマニピュレーションのためのVersatile Whole-Body Control
- Authors: Chen Tessler, Yifeng Jiang, Erwin Coumans, Zhengyi Luo, Gal Chechik, Xue Bin Peng,
- Abstract要約: 人間は自分の世界と対話し、多目的な目標を達成するために正確な全身制御を活用します。
このようなゴール駆動制御は、アニメーションシステムのための新しい手続きツールを可能にする。
本稿では,文字本体と操作対象の両方を直感的に制御するMaskedManipulatorを提案する。
- 参考スコア(独自算出の注目度): 37.01301771363411
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Humans interact with their world while leveraging precise full-body control to achieve versatile goals. This versatility allows them to solve long-horizon, underspecified problems, such as placing a cup in a sink, by seamlessly sequencing actions like approaching the cup, grasping, transporting it, and finally placing it in the sink. Such goal-driven control can enable new procedural tools for animation systems, enabling users to define partial objectives while the system naturally ``fills in'' the intermediate motions. However, while current methods for whole-body dexterous manipulation in physics-based animation achieve success in specific interaction tasks, they typically employ control paradigms (e.g., detailed kinematic motion tracking, continuous object trajectory following, or direct VR teleoperation) that offer limited versatility for high-level goal specification across the entire coupled human-object system. To bridge this gap, we present MaskedManipulator, a unified and generative policy developed through a two-stage learning approach. First, our system trains a tracking controller to physically reconstruct complex human-object interactions from large-scale human mocap datasets. This tracking controller is then distilled into MaskedManipulator, which provides users with intuitive control over both the character's body and the manipulated object. As a result, MaskedManipulator enables users to specify complex loco-manipulation tasks through intuitive high-level objectives (e.g., target object poses, key character stances), and MaskedManipulator then synthesizes the necessary full-body actions for a physically simulated humanoid to achieve these goals, paving the way for more interactive and life-like virtual characters.
- Abstract(参考訳): 人間は自分の世界と対話し、多目的な目標を達成するために正確な全身制御を活用します。
この汎用性により、カップをシンクに置き、カップに近づき、つかみ、輸送し、最後にシンクに配置することで、カップをシームレスにシーケンシングすることで、長い水平で不特定な問題を解決することができる。
このような目標駆動制御は、アニメーションシステムのための新しい手続きツールを可能にし、ユーザが部分的な目的を定義できるようにし、システムは、中間動作を自然に '`fills in'' する。
しかしながら、物理学に基づくアニメーションにおける全身のデキスタス操作は、特定のインタラクションタスクにおいて成功しているのに対し、通常は制御パラダイム(例えば、詳細な運動追跡、連続物体軌道追従、直接VR遠隔操作)を用いており、これらは、統合された人間オブジェクトシステム全体にわたる高レベル目標仕様に対して、限られた汎用性を提供する。
このギャップを埋めるために,2段階の学習手法によって構築された統一的で生成的な政策であるMaskedManipulatorを提案する。
まず,大規模モカプデータセットから複雑な人間と物体の相互作用を物理的に再構築するトラッキングコントローラを訓練する。
このトラッキングコントローラはMaskedManipulatorに蒸留され、文字本体と操作されたオブジェクトの両方を直感的に制御することができる。
結果として、MaskedManipulatorは、直感的な高レベルな目的(例えば、ターゲットオブジェクトのポーズ、キーキャラクタのスタンス)によって複雑なロコ操作タスクを指定でき、MaskedManipulatorは、これらの目標を達成するために物理的にシミュレートされたヒューマノイドに必要なフルボディアクションを合成し、よりインタラクティブでライフスタイルの仮想キャラクタの道を開く。
関連論文リスト
- Articulated Object Manipulation using Online Axis Estimation with SAM2-Based Tracking [57.942404069484134]
アーティキュレートされたオブジェクト操作は、オブジェクトの軸を慎重に考慮する必要がある、正確なオブジェクトインタラクションを必要とする。
従来の研究では、対話的な知覚を用いて関節のある物体を操作するが、通常、オープンループのアプローチは相互作用のダイナミクスを見渡すことに悩まされる。
本稿では,対話的知覚と3次元点雲からのオンライン軸推定を統合したクローズドループパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - MaskedMimic: Unified Physics-Based Character Control Through Masked Motion Inpainting [38.15158715821526]
MaskedMimicは、物理に基づく文字制御を一般的なモーションインペイント問題として定式化する新しいアプローチである。
MaskedMimicは、モーションインペイントによる文字制御を統一することにより、多目的な仮想文字を生成する。
これらのキャラクターは複雑なシーンに動的に適応し、必要に応じて多様な動きを構成でき、よりインタラクティブで没入的な体験を可能にする。
論文 参考訳(メタデータ) (2024-09-22T11:10:59Z) - Learning Multi-Modal Whole-Body Control for Real-World Humanoid Robots [13.229028132036321]
Masked Humanoid Controller (MHC)は、立位、歩行、体の一部の動きの模倣をサポートする。
MHCは、立ち上がり、歩行、最適化された基準軌跡、再ターゲットされたビデオクリップ、人間のモーションキャプチャーデータにまたがる行動のライブラリから、部分的にマスクされた動きを模倣する。
実世界のDigi V3ヒューマノイドロボット上でのシミュレート・トゥ・リアルトランスファーを実演する。
論文 参考訳(メタデータ) (2024-07-30T09:10:24Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Object Motion Guided Human Motion Synthesis [22.08240141115053]
大規模物体の操作におけるフルボディ人体動作合成の問題点について検討する。
条件付き拡散フレームワークであるOMOMO(Object Motion Guided Human Motion synthesis)を提案する。
我々は、操作対象物にスマートフォンを装着するだけで、全身の人間の操作動作をキャプチャする新しいシステムを開発した。
論文 参考訳(メタデータ) (2023-09-28T08:22:00Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Articulated Object Interaction in Unknown Scenes with Whole-Body Mobile
Manipulation [16.79185733369416]
未知の環境下における大型関節オブジェクトとの自律的相互作用のための2段階アーキテクチャを提案する。
第1段階は学習モデルを用いて、RGB-D入力から対象物の調音モデルを推定し、相互作用のための状態の動作条件列を予測する。
第2段階は、生成した運動計画に沿ってオブジェクトを操作する全身運動制御装置からなる。
論文 参考訳(メタデータ) (2021-03-18T21:32:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。