論文の概要: Learning a Unified Latent Space for Cross-Embodiment Robot Control
- arxiv url: http://arxiv.org/abs/2601.15419v1
- Date: Wed, 21 Jan 2026 19:31:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.894424
- Title: Learning a Unified Latent Space for Cross-Embodiment Robot Control
- Title(参考訳): クロス・エボディメント・ロボット制御のための統一潜在空間の学習
- Authors: Yashuai Yan, Dongheui Lee,
- Abstract要約: 本稿では,人体横断型ロボット制御のためのスケーラブルなフレームワークを提案する。
我々は、人間と多様なヒューマノイドプラットフォームをまたいだ動きを統一する、共通の潜在表現を学ぶ。
本手法は,ロボットの潜伏空間への効率的な付加を支援する。
- 参考スコア(独自算出の注目度): 8.76482934005711
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a scalable framework for cross-embodiment humanoid robot control by learning a shared latent representation that unifies motion across humans and diverse humanoid platforms, including single-arm, dual-arm, and legged humanoid robots. Our method proceeds in two stages: first, we construct a decoupled latent space that captures localized motion patterns across different body parts using contrastive learning, enabling accurate and flexible motion retargeting even across robots with diverse morphologies. To enhance alignment between embodiments, we introduce tailored similarity metrics that combine joint rotation and end-effector positioning for critical segments, such as arms. Then, we train a goal-conditioned control policy directly within this latent space using only human data. Leveraging a conditional variational autoencoder, our policy learns to predict latent space displacements guided by intended goal directions. We show that the trained policy can be directly deployed on multiple robots without any adaptation. Furthermore, our method supports the efficient addition of new robots to the latent space by learning only a lightweight, robot-specific embedding layer. The learned latent policies can also be directly applied to the new robots. Experimental results demonstrate that our approach enables robust, scalable, and embodiment-agnostic robot control across a wide range of humanoid platforms.
- Abstract(参考訳): 本稿では,人間と多種多様なヒューマノイドプラットフォームをまたがる動きを統一する,共用潜伏表現を学習することにより,ロボットのクロス・エボディメントを実現するためのスケーラブルなフレームワークを提案する。
まず,異なる身体部位にまたがる局所的な動きパターンをコントラスト学習によって捕捉し,多様な形態を持つロボットでも正確に柔軟な動きのリターゲティングを可能にする,疎結合の潜時空間を構築する。
エンボディメント間のアライメントを高めるため,腕などの重要な部分に対する関節回転と終端エフェクター位置を組み合わせた調整された類似度指標を導入する。
そして、人間データのみを用いて、この潜在空間内でゴール条件制御ポリシーを直接訓練する。
条件付き変分オートエンコーダを利用して、目的とする目標方向によって導かれる潜時空間変位を予測する。
トレーニングされたポリシーは、適応することなく、複数のロボットに直接デプロイできることを示す。
さらに,本手法は,軽量なロボット固有の埋め込み層のみを学習することにより,潜伏空間に新しいロボットを効率よく付加することを支援する。
学習した潜伏ポリシーは、新しいロボットに直接適用することもできる。
実験結果から,本手法は多岐にわたるヒューマノイドプラットフォーム上で,堅牢でスケーラブルで,具体化に依存しないロボット制御を可能にすることが示された。
関連論文リスト
- EgoHumanoid: Unlocking In-the-Wild Loco-Manipulation with Robot-Free Egocentric Demonstration [67.13034606664333]
EgoHumanoidは、エゴセントリックな人間のデモを使って視覚言語アクションポリシーを共同訓練する最初のフレームワークである。
スケーラブルな人的データ収集のためのポータブルシステムを開発した。
論文 参考訳(メタデータ) (2026-02-10T18:59:03Z) - One Policy to Run Them All: an End-to-end Learning Approach to Multi-Embodiment Locomotion [17.57131579462332]
統一ロボット形態学アーキテクチャであるURMAを紹介する。
我々のフレームワークは、脚のあるロボットの領域にエンドツーエンドのマルチタスク強化学習アプローチをもたらす。
URMAはロボットプラットフォームに容易に移動可能な複数の実施形態の移動ポリシーを学習できることを示す。
論文 参考訳(メタデータ) (2024-09-10T09:44:15Z) - Scaling Cross-Embodied Learning: One Policy for Manipulation, Navigation, Locomotion and Aviation [49.03165169369552]
さまざまな種類のロボットにまたがって単一のポリシーを訓練することによって、ロボット学習はより広範囲で多様なデータセットを活用することができる。
そこで我々はCrossFormerを提案する。CrossFormerはスケーラブルでフレキシブルなトランスフォーマーベースのポリシーで、どんな実施形態からでもデータを消費できる。
我々は、同じネットワークウェイトがシングルアームとデュアルアームの操作システム、車輪付きロボット、クワッドコプター、四足歩行など、非常に異なるロボットを制御できることを実証した。
論文 参考訳(メタデータ) (2024-08-21T17:57:51Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - Bayesian Meta-Learning for Few-Shot Policy Adaptation Across Robotic
Platforms [60.59764170868101]
強化学習手法は、重要な性能を達成できるが、同じロボットプラットフォームで収集される大量のトレーニングデータを必要とする。
私たちはそれを、さまざまなロボットプラットフォームで共有される共通の構造を捉えるモデルを見つけることを目標とする、数ショットのメタラーニング問題として定式化します。
我々は,400個のロボットを用いて,実ロボットピッキング作業とシミュレーションリーチの枠組みを実験的に評価した。
論文 参考訳(メタデータ) (2021-03-05T14:16:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。