論文の概要: DexEXO: A Wearability-First Dexterous Exoskeleton for Operator-Agnostic Demonstration and Learning
- arxiv url: http://arxiv.org/abs/2603.17323v1
- Date: Wed, 18 Mar 2026 03:37:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-21 18:33:56.937846
- Title: DexEXO: A Wearability-First Dexterous Exoskeleton for Operator-Agnostic Demonstration and Learning
- Title(参考訳): DexEXO: 操作者に依存しないデモと学習のためのウェアラブルファーストなデキスタスエキソスケトン
- Authors: Alvin Zhu, Mingzhang Zhu, Beom Jun Kim, Jose Victor S. H. Ramos, Yike Shi, Yufeng Wu, Raayan Dhar, Fuyi Yang, Ruochen Hou, Hanzhang Fang, Quanyou Wang, Yuchen Cui, Dennis W. Hong,
- Abstract要約: DexEXOは、ハードウェアレベルで視覚的外観、接触幾何学、運動学を整列する、装着性第一の手外骨格である。
受動的手は、展開されたロボットと視覚的に一致し、手首に装着したRGB観測から直接ポリシーを訓練することができる。
- 参考スコア(独自算出の注目度): 9.237429778415226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scaling dexterous robot learning is constrained by the difficulty of collecting high-quality demonstrations across diverse operators. Existing wearable interfaces often trade comfort and cross-user adaptability for kinematic fidelity, while embodiment mismatch between demonstration and deployment requires visual post-processing before policy training. We present DexEXO, a wearability-first hand exoskeleton that aligns visual appearance, contact geometry, and kinematics at the hardware level. DexEXO features a pose-tolerant thumb mechanism and a slider-based finger interface analytically modeled to support hand lengths from 140~mm to 217~mm, reducing operator-specific fitting and enabling scalable cross-operator data collection. A passive hand visually matches the deployed robot, allowing direct policy training from raw wrist-mounted RGB observations. User studies demonstrate improved comfort and usability compared to prior wearable systems. Using visually aligned observations alone, we train diffusion policies that achieve competitive performance while substantially simplifying the end-to-end pipeline. These results show that prioritizing wearability and hardware-level embodiment alignment reduces both human and algorithmic bottlenecks without sacrificing task performance. Project Page: https://dexexo-research.github.io/
- Abstract(参考訳): 器用なロボット学習のスケーリングは、多様なオペレーターにまたがる高品質なデモを集めることの難しさによって制約される。
既存のウェアラブルインターフェースでは、キネマティックな忠実さに対して快適さとユーザ間の適応性を交換することが多いが、実演とデプロイメントのミスマッチには、ポリシートレーニングの前に視覚的な後処理が必要である。
ハードウェアレベルで視覚的外観, 接触形状, 運動学を整列する, 装着性第一手指外骨格であるDexEXOについて述べる。
DexEXOは、ポーズ耐性の親指機構と、手の長さを140〜mmから217〜mmまでサポートするようにモデル化されたスライダベースのフィンガーインターフェースを備えており、演算子固有のフィッティングを低減し、スケーラブルなクロスオペレーターデータ収集を可能にする。
受動的手は、展開されたロボットと視覚的に一致し、手首に装着したRGB観測から直接ポリシーを訓練することができる。
ユーザスタディでは、以前のウェアラブルシステムと比較して快適さとユーザビリティが改善されている。
視覚的に整合した観察だけで、私たちは、エンドツーエンドのパイプラインを大幅に単純化しながら、競争性能を達成する拡散ポリシーを訓練します。
これらの結果から, 作業性能を犠牲にすることなく, 装着性やハードウェアレベルの具体化の優先順位付けにより, 人的・アルゴリズム的なボトルネックを低減できることが示唆された。
Project Page: https://dexexo-research.github.io/
関連論文リスト
- DexViTac: Collecting Human Visuo-Tactile-Kinematic Demonstrations for Contact-Rich Dexterous Manipulation [4.463599051210204]
大規模で高品質なマルチモーダルデモは、接触に富むデキスタス操作のロボット学習に不可欠である。
本稿では,コンタクトリッチなデキスタラス操作に適した携帯型人中心データ収集システムであるDexViTacを紹介する。
論文 参考訳(メタデータ) (2026-03-18T15:39:58Z) - DexHiL: A Human-in-the-Loop Framework for Vision-Language-Action Model Post-Training in Dexterous Manipulation [14.050551792714083]
ヒューマン・イン・ザ・ループ(HiL)学習は、ロボットポリシーを洗練するための強力なメカニズムであることが証明されている。
DexHiLはDexterous VLAモデルのための最初の統合アームハンドヒューマン・イン・ザ・ループ・フレームワークである。
論文 参考訳(メタデータ) (2026-03-10T02:55:27Z) - Dexplore: Scalable Neural Control for Dexterous Manipulation from Reference-Scoped Exploration [58.4036440289082]
ハンドオブジェクトモーションキャプチャ(MoCap)は、大規模でコンタクトに富んだデモと、器用なロボットスコープの約束を提供する。
Dexploreは、リポジトリとトラッキングを実行し、MoCapから直接ロボット制御ポリシーを学習する、統一された単一ループ最適化である。
論文 参考訳(メタデータ) (2025-09-11T17:59:07Z) - Being-H0: Vision-Language-Action Pretraining from Large-Scale Human Videos [66.62109400603394]
本稿では,大規模な人体ビデオで訓練された視覚・言語・行動モデルであるBeing-H0を紹介する。
提案手法は,人間のビデオからの大規模VLA事前学習,3次元推論のための物理空間アライメント,ロボット作業のためのポストトレーニング適応を組み合わせた,新しいトレーニングパラダイムである物理インストラクションチューニングに重点を置いている。
本研究では,手の動き生成と指示の結果としてのBeat-H0の卓越性を実証的に示すとともに,モデルやデータサイズにもよく対応している。
論文 参考訳(メタデータ) (2025-07-21T13:19:09Z) - TeleOpBench: A Simulator-Centric Benchmark for Dual-Arm Dexterous Teleoperation [50.261933845325636]
本稿では,2次元デキスタラス遠隔操作に適したシミュレータ中心のベンチマークであるTeleOpBenchを紹介する。
このベンチマークでは、(i)MoCap、(ii)VRデバイス、(iii)腕手外骨格、(iv)単眼視追跡の4つの代表的遠隔操作モードを実装している。
論文 参考訳(メタデータ) (2025-05-19T06:08:53Z) - One-Shot Imitation under Mismatched Execution [7.060120660671016]
人間のデモは、ロボットに長距離操作のタスクをプログラムするための強力な方法だ。
これらのデモをロボット実行可能なアクションに変換することは、運動スタイルや身体能力のミスマッチの実行による重大な課題を呈する。
シーケンスレベルの最適輸送コスト関数を用いて,人間とロボットの軌道を自動的にペアリングする新しいフレームワークRHyMEを提案する。
論文 参考訳(メタデータ) (2024-09-10T16:11:57Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - What Matters to You? Towards Visual Representation Alignment for Robot
Learning [81.30964736676103]
人のために運用する場合、ロボットはエンドユーザーの好みに合わせて報酬を最適化する必要がある。
本稿では、視覚的表現アライメント問題を解決するためのRAPL(Representation-Aligned Preference-based Learning)を提案する。
論文 参考訳(メタデータ) (2023-10-11T23:04:07Z) - Grasp Pre-shape Selection by Synthetic Training: Eye-in-hand Shared Control on the Hannes Prosthesis [4.297853208735328]
アイ・イン・ハンドシステムは、握る前に手の動きを自動で制御する。
RGB 配列から手形前分類を行うための目印学習方式を提案する。
論文 参考訳(メタデータ) (2022-03-18T09:16:48Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。