論文の概要: SPIDER: Scalable Physics-Informed Dexterous Retargeting
- arxiv url: http://arxiv.org/abs/2511.09484v1
- Date: Thu, 13 Nov 2025 01:57:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.588989
- Title: SPIDER: Scalable Physics-Informed Dexterous Retargeting
- Title(参考訳): SPIDER: スケーラブルな物理インフォームドデクサラスリターゲティング
- Authors: Chaoyi Pan, Changhao Wang, Haozhi Qi, Zixi Liu, Homanga Bharadhwaj, Akash Sharma, Tingfan Wu, Guanya Shi, Jitendra Malik, Francois Hogan,
- Abstract要約: ヒューマノイドとデキスタラスハンドコントロールのためのデキスタラスとアジャイルのポリシーを学ぶには、大規模なデモが必要です。
人間のモーションデータは、モーションキャプチャー、ビデオ、バーチャルリアリティーから利用可能で、データ不足の問題に対処するのに役立ちます。
本研究では,人間の実演をロボット軌道に動的に拡張する物理ベースのフレームワークであるSPIDERを提案する。
- 参考スコア(独自算出の注目度): 45.24491726503442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning dexterous and agile policy for humanoid and dexterous hand control requires large-scale demonstrations, but collecting robot-specific data is prohibitively expensive. In contrast, abundant human motion data is readily available from motion capture, videos, and virtual reality, which could help address the data scarcity problem. However, due to the embodiment gap and missing dynamic information like force and torque, these demonstrations cannot be directly executed on robots. To bridge this gap, we propose Scalable Physics-Informed DExterous Retargeting (SPIDER), a physics-based retargeting framework to transform and augment kinematic-only human demonstrations to dynamically feasible robot trajectories at scale. Our key insight is that human demonstrations should provide global task structure and objective, while large-scale physics-based sampling with curriculum-style virtual contact guidance should refine trajectories to ensure dynamical feasibility and correct contact sequences. SPIDER scales across diverse 9 humanoid/dexterous hand embodiments and 6 datasets, improving success rates by 18% compared to standard sampling, while being 10X faster than reinforcement learning (RL) baselines, and enabling the generation of a 2.4M frames dynamic-feasible robot dataset for policy learning. As a universal physics-based retargeting method, SPIDER can work with diverse quality data and generate diverse and high-quality data to enable efficient policy learning with methods like RL.
- Abstract(参考訳): ヒューマノイドとデキスタラスハンドコントロールのための巧妙でアジャイルなポリシーを学ぶには、大規模なデモが必要だが、ロボット固有のデータの収集は違法に高価である。
対照的に、人間のモーションデータは、モーションキャプチャー、ビデオ、バーチャルリアリティーから容易に入手でき、データ不足の問題に対処するのに役立ちます。
しかし、エンボディメントのギャップや力やトルクといったダイナミックな情報が欠けているため、これらのデモはロボットに直接実行することはできない。
このギャップを埋めるために, 動的に実現可能なロボット軌道に運動のみのデモンストレーションを変換・拡張する物理ベースのリターゲットフレームワークであるSPIDER(Scalable Physics-Informed DExterous Retargeting)を提案する。
我々の重要な洞察は、人間のデモンストレーションはグローバルなタスク構造と目的を提供するべきであり、一方、カリキュラムスタイルの仮想コンタクトガイダンスを用いた大規模物理ベースのサンプリングは、ダイナミックな実現可能性と正しいコンタクトシーケンスを保証するために軌道を洗練すべきである。
SPIDERは、さまざまな9つのヒューマノイド/デキスタラスハンドエボディメントと6つのデータセットをスケールし、標準サンプリングと比較して成功率を18%向上すると同時に、強化学習(RL)ベースラインの10倍高速で、ポリシー学習のための2.4Mフレームのダイナミックフェーザブルロボットデータセットの生成を可能にする。
普遍的な物理に基づく再ターゲティング手法として、SPIDERは多様な品質データを扱い、多種多様な高品質のデータを生成し、RLのような手法による効率的なポリシー学習を可能にする。
関連論文リスト
- OmniRetarget: Interaction-Preserving Data Generation for Humanoid Whole-Body Loco-Manipulation and Scene Interaction [76.44108003274955]
ヒューマノイドロボットの複雑なスキルを教えるための主要なパラダイムは、強化学習ポリシーの運動学的参照として人間の動きを再ターゲットすることである。
インタラクションメッシュに基づくインタラクション保存データ生成エンジンであるOmniRetargetを紹介する。
人間のメッシュとロボットメッシュの間のラプラシアの変形を最小限にすることで、OmniRetargetは運動学的に実現可能な軌道を生成する。
論文 参考訳(メタデータ) (2025-09-30T17:59:02Z) - H-RDT: Human Manipulation Enhanced Bimanual Robotic Manipulation [27.585828712261232]
H-RDT(Human to Robotics Diffusion Transformer)は、人間の操作データを利用してロボット操作能力を向上する新しいアプローチである。
私たちの重要な洞察は、大規模なエゴセントリックな人間操作ビデオとペアの3Dハンドポーズアノテーションが、自然な操作戦略を捉えたリッチな行動優先を提供するということです。
本研究では,(1)大規模な人間操作データに対する事前トレーニング,(2)モジュール型アクションエンコーダとデコーダを用いたロボット固有のデータに対するクロスエボディメント微調整という2段階の訓練パラダイムを導入する。
論文 参考訳(メタデータ) (2025-07-31T13:06:59Z) - Being-H0: Vision-Language-Action Pretraining from Large-Scale Human Videos [66.62109400603394]
本稿では,大規模な人体ビデオで訓練された視覚・言語・行動モデルであるBeing-H0を紹介する。
提案手法は,人間のビデオからの大規模VLA事前学習,3次元推論のための物理空間アライメント,ロボット作業のためのポストトレーニング適応を組み合わせた,新しいトレーニングパラダイムである物理インストラクションチューニングに重点を置いている。
本研究では,手の動き生成と指示の結果としてのBeat-H0の卓越性を実証的に示すとともに,モデルやデータサイズにもよく対応している。
論文 参考訳(メタデータ) (2025-07-21T13:19:09Z) - Is Diversity All You Need for Scalable Robotic Manipulation? [50.747150672933316]
ロボット学習におけるデータ多様性の役割について,従来の「より多様な方がよい」という直観に固執する3つの重要な次元(タスク),実施形態(ロボットの使用方法),専門家(専門家)を用いて検討する。
タスクの多様性は、タスクごとのデモンストレーション量よりも重要であり、多様な事前学習タスクから新しい下流シナリオへの移行に有効であることを示す。
本稿では,速度のあいまいさを緩和する分散デバイアス法を提案する。GO-1-Proは,2.5倍の事前学習データを用いて,15%の性能向上を実現している。
論文 参考訳(メタデータ) (2025-07-08T17:52:44Z) - Physics-Driven Data Generation for Contact-Rich Manipulation via Trajectory Optimization [22.234170426206987]
本稿では,物理シミュレーション,人間の実演,モデルベース計画を統合した低コストなデータ生成パイプラインを提案する。
コンタクトリッチな操作タスクに挑戦するための拡散ポリシーをトレーニングすることで,パイプラインの有効性を検証する。
トレーニングされたポリシは、バイマガルアイワアーム用のハードウェアにゼロショットでデプロイされ、人間の入力を最小限に抑えて高い成功率を達成する。
論文 参考訳(メタデータ) (2025-02-27T18:56:01Z) - ASAP: Aligning Simulation and Real-World Physics for Learning Agile Humanoid Whole-Body Skills [46.16771391136412]
ASAPは、動的ミスマッチに対処し、アジャイルなヒューマノイド全体のスキルを実現するために設計された2段階のフレームワークである。
第1段階では、リターゲットされた人間の動きデータを用いたシミュレーションにおいて、運動追跡ポリシーを事前訓練する。
第2段階では、現実の世界でポリシーをデプロイし、現実のデータを収集し、デルタ(残留)アクションモデルをトレーニングします。
論文 参考訳(メタデータ) (2025-02-03T08:22:46Z) - VidMan: Exploiting Implicit Dynamics from Video Diffusion Model for Effective Robot Manipulation [79.00294932026266]
VidManは、安定性を高め、データ利用効率を向上させるために、2段階のトレーニングメカニズムを使用する新しいフレームワークである。
我々のフレームワークは、CALVINベンチマークで最先端のベースラインモデルGR-1を上回り、11.7%の相対的な改善を実現し、OXEの小規模データセットで9%以上の精度向上を示す。
論文 参考訳(メタデータ) (2024-11-14T03:13:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。