論文の概要: One-shot Humanoid Whole-body Motion Learning
- arxiv url: http://arxiv.org/abs/2510.25241v1
- Date: Wed, 29 Oct 2025 07:48:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.206192
- Title: One-shot Humanoid Whole-body Motion Learning
- Title(参考訳): ワンショットヒューマノイド全体運動学習
- Authors: Hao Huang, Geeta Chandra Raju Bethala, Shuaihang Yuan, Congcong Wen, Anthony Tzes, Yi Fang,
- Abstract要約: 通常、動作カテゴリごとに複数のトレーニングサンプルを必要とする。
本研究では,1つの非歩行目標運動サンプルのみを用いて,効果的なヒューマノイド運動ポリシーを訓練する新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 18.375746497945023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whole-body humanoid motion represents a cornerstone challenge in robotics, integrating balance, coordination, and adaptability to enable human-like behaviors. However, existing methods typically require multiple training samples per motion category, rendering the collection of high-quality human motion datasets both labor-intensive and costly. To address this, we propose a novel approach that trains effective humanoid motion policies using only a single non-walking target motion sample alongside readily available walking motions. The core idea lies in leveraging order-preserving optimal transport to compute distances between walking and non-walking sequences, followed by interpolation along geodesics to generate new intermediate pose skeletons, which are then optimized for collision-free configurations and retargeted to the humanoid before integration into a simulated environment for policy training via reinforcement learning. Experimental evaluations on the CMU MoCap dataset demonstrate that our method consistently outperforms baselines, achieving superior performance across metrics. Code will be released upon acceptance.
- Abstract(参考訳): 全身のヒューマノイド運動は、人間のような行動を可能にするためにバランス、調整、適応性を統合するロボット工学における画期的な課題である。
しかし、既存の手法では、通常、運動カテゴリーごとに複数のトレーニングサンプルを必要とし、労働集約的かつコスト的に高品質な人間の運動データセットの収集をレンダリングする。
そこで本研究では,歩行目標運動サンプルを1個だけ使用し,歩行可能な歩行動作と並行して効果的ヒューマノイド運動ポリシーを訓練する手法を提案する。
中心となる考え方は、歩行と非歩行の距離を計算するために順序保存の最適輸送を活用することであり、続いて測地線に沿って補間して新しい中間ポーズスケルトンを生成し、それは衝突のない構成に最適化され、強化学習によるポリシートレーニングのシミュレーション環境に統合される前にヒューマノイドに再ターゲティングされる。
CMU MoCapデータセットの実験的評価は、我々の手法が基準線を一貫して上回り、メトリクス間で優れたパフォーマンスを達成することを示した。
コードは受理時にリリースされる。
関連論文リスト
- ResMimic: From General Motion Tracking to Humanoid Whole-body Loco-Manipulation via Residual Learning [59.64325421657381]
ヒューマノイド全体のロコ操作は、日々のサービスや倉庫のタスクにトランスフォーメーション機能を約束する。
ResMimicは、人間の動作データから正確に表現力のあるヒューマノイド制御のための2段階の残差学習フレームワークである。
結果は、強いベースラインよりもタスク成功、トレーニング効率、堅牢性が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2025-10-06T17:47:02Z) - OmniRetarget: Interaction-Preserving Data Generation for Humanoid Whole-Body Loco-Manipulation and Scene Interaction [76.44108003274955]
ヒューマノイドロボットの複雑なスキルを教えるための主要なパラダイムは、強化学習ポリシーの運動学的参照として人間の動きを再ターゲットすることである。
インタラクションメッシュに基づくインタラクション保存データ生成エンジンであるOmniRetargetを紹介する。
人間のメッシュとロボットメッシュの間のラプラシアの変形を最小限にすることで、OmniRetargetは運動学的に実現可能な軌道を生成する。
論文 参考訳(メタデータ) (2025-09-30T17:59:02Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Enhanced Human-Robot Collaboration using Constrained Probabilistic
Human-Motion Prediction [5.501477817904299]
本研究では,人間の関節の制約とシーンの制約を組み込んだ新しい動き予測フレームワークを提案する。
人間の腕のキネマティックモデルでテストされ、UR5ロボットアームと人間とロボットの協調的な設定で実装されている。
論文 参考訳(メタデータ) (2023-10-05T05:12:14Z) - Learning Human Motion Prediction via Stochastic Differential Equations [19.30774202476477]
本稿では,微分方程式と経路積分に基づく動き予測問題をモデル化する新しい手法を提案する。
平均して12.48%の精度向上を実現している。
論文 参考訳(メタデータ) (2021-12-21T11:55:13Z) - Improving Human Motion Prediction Through Continual Learning [2.720960618356385]
人間の動作予測は、より緊密な人間とロボットのコラボレーションを可能にするために不可欠な要素である。
人間の運動の変動は、人間のサイズの違いによる骨格レベルと、個々の動きの慣用性による運動レベルの両方で複合される。
本稿では、エンドツーエンドのトレーニングを可能にすると同時に、微調整の柔軟性も備えたモジュール型シーケンス学習手法を提案する。
論文 参考訳(メタデータ) (2021-07-01T15:34:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。