論文の概要: Coordinated Humanoid Manipulation with Choice Policies
- arxiv url: http://arxiv.org/abs/2512.25072v1
- Date: Wed, 31 Dec 2025 18:59:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.754922
- Title: Coordinated Humanoid Manipulation with Choice Policies
- Title(参考訳): 選択ポリシーを用いた協調型ヒューマノイドマニピュレーション
- Authors: Haozhi Qi, Yen-Jen Wang, Toru Lin, Brent Yi, Yi Ma, Koushil Sreenath, Jitendra Malik,
- Abstract要約: 本稿では,モジュール型遠隔操作インタフェースとスケーラブルな学習フレームワークを組み合わせたシステムを提案する。
Choice Policy(選択ポリシー)は、複数の候補アクションを生成し、それらを評価することを学ぶ模倣学習アプローチである。
我々は,食器洗い機をロードする2つの現実的タスクと,ホワイトボードワイピングのための全身ロコ操作に関するアプローチを検証した。
- 参考スコア(独自算出の注目度): 43.635012621027904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humanoid robots hold great promise for operating in human-centric environments, yet achieving robust whole-body coordination across the head, hands, and legs remains a major challenge. We present a system that combines a modular teleoperation interface with a scalable learning framework to address this problem. Our teleoperation design decomposes humanoid control into intuitive submodules, which include hand-eye coordination, grasp primitives, arm end-effector tracking, and locomotion. This modularity allows us to collect high-quality demonstrations efficiently. Building on this, we introduce Choice Policy, an imitation learning approach that generates multiple candidate actions and learns to score them. This architecture enables both fast inference and effective modeling of multimodal behaviors. We validate our approach on two real-world tasks: dishwasher loading and whole-body loco-manipulation for whiteboard wiping. Experiments show that Choice Policy significantly outperforms diffusion policies and standard behavior cloning. Furthermore, our results indicate that hand-eye coordination is critical for success in long-horizon tasks. Our work demonstrates a practical path toward scalable data collection and learning for coordinated humanoid manipulation in unstructured environments.
- Abstract(参考訳): ヒューマノイドロボットは、人間中心の環境での操作を大いに約束するが、頭、手、足間で堅牢な全身調整を実現することは大きな課題である。
本稿では,モジュール型遠隔操作インタフェースとスケーラブルな学習フレームワークを組み合わせることで,この問題に対処するシステムを提案する。
我々の遠隔操作設計は、人型制御を直感的なサブモジュールに分解し、手目調整、プリミティブの把握、腕端エフェクタ追跡、移動を含む。
このモジュール化によって、高品質なデモを効率的に収集することができます。
そこで我々は,複数の候補行動を生成する模倣学習手法であるChoice Policyを導入する。
このアーキテクチャは、高速な推論とマルチモーダルな振る舞いの効果的なモデリングを可能にする。
我々は,食器洗い機負荷とホワイトボードワイピングのための全身ロコ操作の2つの実世界の課題に対するアプローチを検証した。
実験の結果,選択政策は拡散政策や標準行動クローンよりも有意に優れていた。
さらに,本研究の結果から,長期作業の成功には手眼協調が不可欠であることが示唆された。
本研究は,非構造化環境におけるヒューマノイドの協調操作のための,スケーラブルなデータ収集と学習に向けた実践的な道筋を示す。
関連論文リスト
- Dexplore: Scalable Neural Control for Dexterous Manipulation from Reference-Scoped Exploration [58.4036440289082]
ハンドオブジェクトモーションキャプチャ(MoCap)は、大規模でコンタクトに富んだデモと、器用なロボットスコープの約束を提供する。
Dexploreは、リポジトリとトラッキングを実行し、MoCapから直接ロボット制御ポリシーを学習する、統一された単一ループ最適化である。
論文 参考訳(メタデータ) (2025-09-11T17:59:07Z) - Towards Human-level Intelligence via Human-like Whole-Body Manipulation [10.199110135230674]
Astribot Suiteは、多様な環境にまたがる日常的なタスクを対象とする、全身操作のためのロボット学習スイートである。
以上の結果から,Astribotのエボディメント,遠隔操作インターフェース,学習パイプラインの統合は,実世界の汎用的な全身ロボット操作への重要な一歩であることが示唆された。
論文 参考訳(メタデータ) (2025-07-23T02:23:41Z) - SkillBlender: Towards Versatile Humanoid Whole-Body Loco-Manipulation via Skill Blending [79.83865372778273]
SkillBlenderは、多目的なヒューマノイドロコ操作のための新しい階層的強化学習フレームワークである。
SkillBlenderは、まずゴール条件付きタスク非依存のプリミティブスキルを事前訓練し、その後、これらのスキルを動的にブレンドして複雑なロコ操作タスクを達成する。
また,3つのエボディメント,4つのプリミティブスキル,8つの難解なロコ操作タスクを含む並列的,クロスエボディメント,多種多様なシミュレーションベンチマークであるSkillBenchを紹介した。
論文 参考訳(メタデータ) (2025-06-11T03:24:26Z) - Dexterous Manipulation through Imitation Learning: A Survey [32.47862766672596]
イミテーションラーニング(IL)は、ロボットが専門家によるデモンストレーションから直接巧妙な操作スキルを習得できるようにすることによって、代替手段を提供する。
ILは、明示的なモデリングと大規模な試行錯誤の必要性を回避しながら、きめ細かい調整と接触ダイナミクスをキャプチャする。
私たちのゴールは、研究者や実践者たちに、この急速に進化する領域の包括的紹介を提供することです。
論文 参考訳(メタデータ) (2025-04-04T15:14:38Z) - Dreamitate: Real-World Visuomotor Policy Learning via Video Generation [49.03287909942888]
本研究では,与えられたタスクの人間による実演の映像拡散モデルを微調整するビジュモータポリシー学習フレームワークを提案する。
我々は,新しいシーンの画像に条件付きタスクの実行例を生成し,この合成された実行を直接使用してロボットを制御する。
論文 参考訳(メタデータ) (2024-06-24T17:59:45Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Learning Multi-Arm Manipulation Through Collaborative Teleoperation [63.35924708783826]
模倣学習(il)はロボットに操作タスクを実行するための強力なパラダイムである。
多くの現実世界のタスクは、重い物体を持ち上げる、デスクを組み立てるなど、複数のアームを必要とする。
複数のリモートユーザが同時にロボットアームを遠隔操作できるマルチユーザデータ収集プラットフォームであるMulti-Arm RoboTurk(MART)を紹介した。
論文 参考訳(メタデータ) (2020-12-12T05:43:43Z) - Solving Challenging Dexterous Manipulation Tasks With Trajectory
Optimisation and Reinforcement Learning [14.315501760755609]
人為的なロボットハンドの使い方を自律的に学ぶ訓練エージェントは、様々な複雑な操作タスクを実行できるシステムに繋がる可能性を秘めている。
まず、現在の強化学習と軌跡最適化技術が困難であるような、シミュレーション操作の難易度を課題として紹介する。
次に、これらの環境における既存の手法よりもはるかに優れた性能を示す、単純な軌道最適化を導入する。
論文 参考訳(メタデータ) (2020-09-09T13:49:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。