論文の概要: PDF-HR: Pose Distance Fields for Humanoid Robots
- arxiv url: http://arxiv.org/abs/2602.04851v1
- Date: Wed, 04 Feb 2026 18:38:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.687491
- Title: PDF-HR: Pose Distance Fields for Humanoid Robots
- Title(参考訳): PDF-HR:ヒューマノイドロボットのポス距離場
- Authors: Yi Gu, Yukang Gao, Yangchen Zhou, Xingyu Chen, Yixiao Feng, Mingle Zhao, Yunyang Mo, Zhaorui Wang, Lixin Xu, Renjing Xu,
- Abstract要約: ヒューマノイドロボットのためのPose Distance Fields(PDF-HR)を紹介する。
PDF-HRは、リターゲティングされたロボットのポーズの大きなコーパスまでの距離を予測する。
単軌道運動追跡,一般動作追跡,スタイルベース動作模倣,一般動作追跡など,多種多様なヒューマノイド作業におけるPDF-HRの評価を行った。
- 参考スコア(独自算出の注目度): 43.82560516577811
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pose and motion priors play a crucial role in humanoid robotics. Although such priors have been widely studied in human motion recovery (HMR) domain with a range of models, their adoption for humanoid robots remains limited, largely due to the scarcity of high-quality humanoid motion data. In this work, we introduce Pose Distance Fields for Humanoid Robots (PDF-HR), a lightweight prior that represents the robot pose distribution as a continuous and differentiable manifold. Given an arbitrary pose, PDF-HR predicts its distance to a large corpus of retargeted robot poses, yielding a smooth measure of pose plausibility that is well suited for optimization and control. PDF-HR can be integrated as a reward shaping term, a regularizer, or a standalone plausibility scorer across diverse pipelines. We evaluate PDF-HR on various humanoid tasks, including single-trajectory motion tracking, general motion tracking, style-based motion mimicry, and general motion retargeting. Experiments show that this plug-and-play prior consistently and substantially strengthens strong baselines. Code and models will be released.
- Abstract(参考訳): ポースとモーションの先駆者はヒューマノイドロボティクスにおいて重要な役割を担っている。
このような先行は、様々なモデルを持つヒトの運動回復(HMR)領域で広く研究されてきたが、高品質なヒューマノイド運動データが不足しているため、ヒューマノイドロボットへの採用は限られている。
本研究では,人間型ロボットのためのPose Distance Fields for Humanoid Robots (PDF-HR)を紹介する。
任意のポーズが与えられた場合、PDF-HRは、その距離をリターゲットされたロボットのポーズの大きなコーパスに予測し、最適化と制御に適したポーズの妥当性のスムーズな測定値を与える。
PDF-HRは、報酬形成用語、レギュラーライザ、および様々なパイプラインにわたるスタンドアロンの可視性スコアラーとして統合することができる。
単軌道運動追跡,一般動作追跡,スタイルに基づく動作模倣,一般動作再ターゲティングなど,多種多様なヒューマノイドタスクにおけるPDF-HRの評価を行った。
実験の結果、このプラグ・アンド・プレイは前もって一貫して強力なベースラインを強化していることがわかった。
コードとモデルはリリースされる。
関連論文リスト
- FRoM-W1: Towards General Humanoid Whole-Body Control with Language Instructions [147.04372611893032]
FRoM-W1は、自然言語を用いた一般的なヒューマノイド全体の動作制御を実現するために設計されたオープンソースのフレームワークである。
我々はUnitree H1とG1ロボット上でFRoM-W1を広範囲に評価した。
その結果,HumanML3D-Xベンチマークにおいて,人体全体の動作生成に優れた性能を示した。
論文 参考訳(メタデータ) (2026-01-19T07:59:32Z) - ResMimic: From General Motion Tracking to Humanoid Whole-body Loco-Manipulation via Residual Learning [59.64325421657381]
ヒューマノイド全体のロコ操作は、日々のサービスや倉庫のタスクにトランスフォーメーション機能を約束する。
ResMimicは、人間の動作データから正確に表現力のあるヒューマノイド制御のための2段階の残差学習フレームワークである。
結果は、強いベースラインよりもタスク成功、トレーニング効率、堅牢性が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2025-10-06T17:47:02Z) - OmniRetarget: Interaction-Preserving Data Generation for Humanoid Whole-Body Loco-Manipulation and Scene Interaction [76.44108003274955]
ヒューマノイドロボットの複雑なスキルを教えるための主要なパラダイムは、強化学習ポリシーの運動学的参照として人間の動きを再ターゲットすることである。
インタラクションメッシュに基づくインタラクション保存データ生成エンジンであるOmniRetargetを紹介する。
人間のメッシュとロボットメッシュの間のラプラシアの変形を最小限にすることで、OmniRetargetは運動学的に実現可能な軌道を生成する。
論文 参考訳(メタデータ) (2025-09-30T17:59:02Z) - I-CTRL: Imitation to Control Humanoid Robots Through Constrained Reinforcement Learning [8.97654258232601]
有界残留強化学習(I-CTRL)によるヒューマノイドロボットの制御フレームワークの開発
I-CTRLは5つのロボットにまたがるシンプルでユニークな報酬で、動きの模倣に優れています。
本フレームワークでは,大規模動作データセットを管理するための自動優先度スケジューラを導入している。
論文 参考訳(メタデータ) (2024-05-14T16:12:27Z) - Kinematically Constrained Human-like Bimanual Robot-to-Human Handovers [19.052211315080044]
双方向のハンドオーバは、大きな、変形可能な、または繊細なオブジェクトの転送に不可欠である。
本稿では,人体に拘束されたロボット動作を生成するための枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-22T13:19:02Z) - Human-Robot Skill Transfer with Enhanced Compliance via Dynamic Movement
Primitives [1.7901837062462316]
本研究では,動的運動プリミティブ(Dynamic Movement Primitives)フレームワークにおいて,人間の実演から動的特徴を抽出し,パラメータを自動チューニングする体系的手法を提案する。
本手法は,LfDとRLの両方に追従するロボット軌道を再現するために,人間の動的特徴を抽出するための実際のロボット装置に実装した。
論文 参考訳(メタデータ) (2023-04-12T08:48:28Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Task-Generic Hierarchical Human Motion Prior using VAEs [44.356707509079044]
人間の動きを記述する深い生成モデルは、幅広いコンピュータビジョンやグラフィックタスクに役立てることができる。
本稿では,グローバル・ローカル・ラテント・スペースの組み合わせを用いて,特定のタスクに依存しない複雑な人間の動作を学習する手法を提案する。
映像に基づく人間のポーズ推定を含む様々なタスクにおいて,階層的な動き変動自動エンコーダの有効性を実証する。
論文 参考訳(メタデータ) (2021-06-07T23:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。