論文の概要: HOMIE: Humanoid Loco-Manipulation with Isomorphic Exoskeleton Cockpit
- arxiv url: http://arxiv.org/abs/2502.13013v1
- Date: Tue, 18 Feb 2025 16:33:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 20:12:09.07596
- Title: HOMIE: Humanoid Loco-Manipulation with Isomorphic Exoskeleton Cockpit
- Title(参考訳): ホミエ:異型外骨格コックピットを用いたヒューマノイドロコマニピュレーション
- Authors: Qingwei Ben, Feiyu Jia, Jia Zeng, Junting Dong, Dahua Lin, Jiangmiao Pang,
- Abstract要約: 現在のヒューマノイド遠隔操作システムは、信頼性の高い低レベル制御ポリシーを欠いているか、または正確な全身制御コマンドを取得するのに苦労している。
本稿では,ヒューマノイドのロコ操作ポリシと低コストなエクソスケルトン型ハードウェアシステムを統合した,新しいヒューマノイド遠隔操作コックピットを提案する。
- 参考スコア(独自算出の注目度): 52.12750762494588
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Current humanoid teleoperation systems either lack reliable low-level control policies, or struggle to acquire accurate whole-body control commands, making it difficult to teleoperate humanoids for loco-manipulation tasks. To solve these issues, we propose HOMIE, a novel humanoid teleoperation cockpit integrates a humanoid loco-manipulation policy and a low-cost exoskeleton-based hardware system. The policy enables humanoid robots to walk and squat to specific heights while accommodating arbitrary upper-body poses. This is achieved through our novel reinforcement learning-based training framework that incorporates upper-body pose curriculum, height-tracking reward, and symmetry utilization, without relying on any motion priors. Complementing the policy, the hardware system integrates isomorphic exoskeleton arms, a pair of motion-sensing gloves, and a pedal, allowing a single operator to achieve full control of the humanoid robot. Our experiments show our cockpit facilitates more stable, rapid, and precise humanoid loco-manipulation teleoperation, accelerating task completion and eliminating retargeting errors compared to inverse kinematics-based methods. We also validate the effectiveness of the data collected by our cockpit for imitation learning. Our project is fully open-sourced, demos and code can be found in https://homietele.github.io/.
- Abstract(参考訳): 現在のヒューマノイド遠隔操作システムは、信頼性の高い低レベル制御ポリシーを欠いているか、正確な全身制御コマンドを取得するのに苦労しているかのいずれかであり、ロコ操作タスクのためにヒューマノイドを遠隔操作することは困難である。
これらの問題を解決するために,新しいヒューマノイド遠隔操作コックピットであるHOMIEを提案する。
このポリシーにより、ヒューマノイドロボットは、任意の上半身のポーズを調節しながら、特定の高さまで歩いたりしゃがんだりすることができる。
これは、上半身ポーズのカリキュラム、高さ追跡報酬、対称性の活用を、いかなる動きにも依存せずに組み込んだ、新しい強化学習ベースのトレーニングフレームワークによって達成される。
このポリシーを補完するハードウェアシステムは、異形外骨格アーム、モーションセンシンググローブ、ペダルを統合し、単一のオペレーターがヒューマノイドロボットを完全に制御できるようにする。
実験の結果,我々のコックピットは,逆キネマティクス法と比較して,より安定,迅速,高精度なヒューマノイドロコ操作遠隔操作,タスク完了の促進,再目標誤差の排除を可能にした。
また,コックピットが収集したデータによる模倣学習の有効性も検証した。
私たちのプロジェクトは完全にオープンソースで、デモとコードはhttps://homietele.github.io/.com/で見ることができる。
関連論文リスト
- RUKA: Rethinking the Design of Humanoid Hands with Learning [15.909251187339228]
この研究は、コンパクトで手頃で能力のある腱駆動のヒューマノイドハンドであるRUKAを提示する。
RUKAは5本の指を持ち、自由度は15度で、多種多様な人間的な握りが可能である。
制御課題に対処するために、MANUSグローブで収集したモーションキャプチャーデータから、関節-触覚-触覚モデルと指先-触覚モデルを学ぶ。
論文 参考訳(メタデータ) (2025-04-17T17:58:59Z) - A Unified and General Humanoid Whole-Body Controller for Fine-Grained Locomotion [30.418274871034775]
本稿では,HugWBCを提案する。
HuGWBCは、現実世界のヒューマノイドロボットが、歩行(ランニング)、ジャンプ(ジャンプ)、立ち上がり、ホッピング(ホッピング)などのさまざまな自然歩行を、カスタマイズ可能なパラメータで生成することを可能にする。
HuGWBCはまた、遠隔操作のような外部上体コントローラからのリアルタイム介入をサポートし、ロコ操作を可能にする。
論文 参考訳(メタデータ) (2025-02-05T14:26:01Z) - ACE: A Cross-Platform Visual-Exoskeletons System for Low-Cost Dexterous Teleoperation [25.679146657293778]
多様なロボットプラットフォームにまたがる効率的な遠隔操作システムの構築は、これまで以上に重要になっている。
我々は、低コストなデキスタラス遠隔操作のためのクロスプラットフォームビジュアル・エクソスケルトンシステムであるACEを開発した。
従来のシステムと比較して、我々の単一のシステムは、高精度な遠隔操作を備えたヒューマノイドハンド、アームハンド、アームグリッパー、四重化グリッパーシステムに一般化することができる。
論文 参考訳(メタデータ) (2024-08-21T17:48:31Z) - AI-Powered Camera and Sensors for the Rehabilitation Hand Exoskeleton [0.393259574660092]
本研究は,障害者の手の動きを支援する視覚機能付きリハビリテーション・ハンド・エキソスケルトンを提案する。
設計目標は、トレーニングを必要とせずにシンプルなインターフェイスを利用できるツールを作ることだった。
論文 参考訳(メタデータ) (2024-08-09T04:47:37Z) - HumanPlus: Humanoid Shadowing and Imitation from Humans [82.47551890765202]
ヒューマノイドが人間のデータから動きや自律的なスキルを学ぶためのフルスタックシステムを導入する。
まず、既存の40時間動作データセットを用いて、強化学習によるシミュレーションの低レベルポリシーを訓練する。
次に、自己中心型視覚を用いてスキルポリシーを訓練し、ヒューマノイドが自律的に異なるタスクを完了できるようにする。
論文 参考訳(メタデータ) (2024-06-15T00:41:34Z) - OmniH2O: Universal and Dexterous Human-to-Humanoid Whole-Body Teleoperation and Learning [45.51662378032706]
我々は,全身型ヒューマノイド遠隔操作・自律学習システムOmniH2Oを提案する。
OmniH2Oは、キネマティックを普遍的な制御インターフェースとして使用することにより、人間の手によるフルサイズのヒューマノイドの制御を可能にする。
6つの日常的なタスクを含む最初のヒューマノイド全体制御データセットOmniH2O-6をリリースし、遠隔操作データセットからヒューマノイド全体スキル学習を実演する。
論文 参考訳(メタデータ) (2024-06-13T06:44:46Z) - Visual Whole-Body Control for Legged Loco-Manipulation [22.50054654508986]
そこで本研究では,ロボットアームを用いた移動操作の問題点について検討する。
視覚的観察により全身制御を自律的に行うことのできる枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-25T17:26:08Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Expressive Whole-Body Control for Humanoid Robots [20.132927075816742]
我々は、人間の動きをできるだけリアルに模倣するために、人間サイズのロボットで全身制御ポリシーを学習する。
シミュレーションとSim2Real転送のトレーニングにより、私たちのポリシーはヒューマノイドロボットを制御して、さまざまなスタイルで歩いたり、人と握手したり、現実世界で人間と踊ったりできる。
論文 参考訳(メタデータ) (2024-02-26T18:09:24Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Deep Whole-Body Control: Learning a Unified Policy for Manipulation and
Locomotion [25.35885216505385]
装着されたアームは、移動操作タスクへの脚付きロボットの適用性を著しく向上させることができる。
このような手足のマニピュレータのための標準的な階層制御パイプラインは、コントローラを操作と移動のものと分離することである。
我々は、強化学習を用いて、足のマニピュレータの全身制御のための統一的なポリシーを学習する。
論文 参考訳(メタデータ) (2022-10-18T17:59:30Z) - DexVIP: Learning Dexterous Grasping with Human Hand Pose Priors from
Video [86.49357517864937]
DexVIPは,人間と物体のインタラクションビデオから,器用なロボットの把握を学習する手法である。
我々は、人間とオブジェクトのインタラクションビデオから把握した画像をキュレートし、エージェントの手のポーズに先行する。
DexVIPは、手ポーズの無い既存のアプローチや、特殊な遠隔操作機器に頼っている既存のアプローチと良好に比較できることを実証する。
論文 参考訳(メタデータ) (2022-02-01T00:45:57Z) - Embodied Hands: Modeling and Capturing Hands and Bodies Together [61.32931890166915]
人間は、コミュニケーションとタスクの解決のために、手と体を一緒に移動します。
ほとんどの方法は、体と手の3Dモデリングと追跡を別々に扱う。
我々は、手と体の相互作用をモデルとして定式化し、それをフルボディの4Dシーケンスに適合させる。
論文 参考訳(メタデータ) (2022-01-07T18:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。