論文の概要: UniTacHand: Unified Spatio-Tactile Representation for Human to Robotic Hand Skill Transfer
- arxiv url: http://arxiv.org/abs/2512.21233v3
- Date: Mon, 29 Dec 2025 05:23:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.509231
- Title: UniTacHand: Unified Spatio-Tactile Representation for Human to Robotic Hand Skill Transfer
- Title(参考訳): UniTacHand:人間とロボットのハンドスキル移行のための統一された空間触覚表現
- Authors: Chi Zhang, Penglin Cai, Haoqi Yuan, Chaoyi Xu, Zongqing Lu,
- Abstract要約: 触覚に基づくロボットポリシー学習のための触覚手袋を用いた低コストな人体操作データ収集を提案する。
人間とロボットの触覚データのミスアライメントは、人間のデータから学んだポリシーをロボットに移すことを困難にしている。
We propose UniTacHand, a unified representation to align robotic tactile information captured by dexterous hands with human hand touch obtained from gloves。
- 参考スコア(独自算出の注目度): 24.322055599503372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tactile sensing is crucial for robotic hands to achieve human-level dexterous manipulation, especially in scenarios with visual occlusion. However, its application is often hindered by the difficulty of collecting large-scale real-world robotic tactile data. In this study, we propose to collect low-cost human manipulation data using haptic gloves for tactile-based robotic policy learning. The misalignment between human and robotic tactile data makes it challenging to transfer policies learned from human data to robots. To bridge this gap, we propose UniTacHand, a unified representation to align robotic tactile information captured by dexterous hands with human hand touch obtained from gloves. First, we project tactile signals from both human hands and robotic hands onto a morphologically consistent 2D surface space of the MANO hand model. This unification standardizes the heterogeneous data structures and inherently embeds the tactile signals with spatial context. Then, we introduce a contrastive learning method to align them into a unified latent space, trained on only 10 minutes of paired data from our data collection system. Our approach enables zero-shot tactile-based policy transfer from humans to a real robot, generalizing to objects unseen in the pre-training data. We also demonstrate that co-training on mixed data, including both human and robotic demonstrations via UniTacHand, yields better performance and data efficiency compared with using only robotic data. UniTacHand paves a path toward general, scalable, and data-efficient learning for tactile-based dexterous hands.
- Abstract(参考訳): 触覚は、特に視覚的閉塞を伴うシナリオにおいて、人間のレベルでの器用な操作を実現するために、ロボットの手にとって不可欠である。
しかし、その応用は、大規模な現実世界のロボット触覚データを集めることの難しさに悩まされることが多い。
本研究では,触覚に基づくロボットポリシー学習のための触覚手袋を用いた低コストな人体操作データ収集を提案する。
人間とロボットの触覚データのミスアライメントは、人間のデータから学んだポリシーをロボットに移すことを困難にしている。
このギャップを埋めるため,我々は,義手による触覚情報と手袋から得られる触覚情報とを一致させる統一表現UniTacHandを提案する。
まず,人手とロボット手の両方の触覚信号をMANOハンドモデルの形状的に一貫した2次元表面空間に投影する。
この統一は異種データ構造を標準化し、本質的に触覚信号を空間的コンテキストに埋め込む。
そこで本研究では,データ収集システムから10分間のペアデータのみを学習して,それらを統一された潜在空間に整列させる,対照的な学習手法を提案する。
提案手法により,人間から実ロボットへのゼロショット触覚ベースのポリシー伝達が可能となり,事前学習データには見えない物体への一般化が可能となった。
また、UniTacHandによる人間とロボットの両方のデモを含む混合データによるコトレーニングは、ロボットデータのみを使用する場合と比較して、パフォーマンスとデータの効率性が向上することを示した。
UniTacHandは、触覚ベースの器用な手のための、汎用的でスケーラブルで、データ効率のよい学習の道を開く。
関連論文リスト
- TactAlign: Human-to-Robot Policy Transfer via Tactile Alignment [32.07730277045068]
既存のH2R(Human-to-robot)アプローチでは、タッチが同一の触覚センサーを前提としており、ペアのデータを必要とし、人間のデモンストレーターとロボットの間の具体的ギャップをほとんど必要としない。
そこで本研究では,異なる実施形態のロボットに人為的な触覚信号を伝達する触覚アライメント手法であるTactAlignを提案する。
論文 参考訳(メタデータ) (2026-02-14T03:31:32Z) - EgoHumanoid: Unlocking In-the-Wild Loco-Manipulation with Robot-Free Egocentric Demonstration [67.13034606664333]
EgoHumanoidは、エゴセントリックな人間のデモを使って視覚言語アクションポリシーを共同訓練する最初のフレームワークである。
スケーラブルな人的データ収集のためのポータブルシステムを開発した。
論文 参考訳(メタデータ) (2026-02-10T18:59:03Z) - DexImit: Learning Bimanual Dexterous Manipulation from Monocular Human Videos [56.64773686434068]
DexImitは、人間の操作映像を物理的に妥当なロボットデータに変換する自動フレームワークである。
DexImitは、インターネットまたはビデオ生成モデルから、人間のビデオに基づいて大規模なロボットデータを生成することができる。
ツールの使用、長距離タスク、きめ細かい操作を含む多様な操作タスクを処理できる。
論文 参考訳(メタデータ) (2026-02-10T18:59:02Z) - From Human Hands to Robot Arms: Manipulation Skills Transfer via Trajectory Alignment [36.08997778717271]
現実世界のロボットの多様な操作スキルを学ぶことは、高価でスケールの難しい遠隔操作によるデモンストレーションに依存することでボトルネックとなる。
本稿では,操作終端の3次元軌跡を統一中間表現として利用することにより,この実施ギャップを橋渡しする新しいフレームワークであるTraj2Actionを紹介する。
我々の方針はまず,人間とロボットの両方のデータを活用することで,高レベルの運動計画を形成する粗い軌道を生成することを学習する。
論文 参考訳(メタデータ) (2025-10-01T04:21:12Z) - CEDex: Cross-Embodiment Dexterous Grasp Generation at Scale from Human-like Contact Representations [53.37721117405022]
クロス・エボディメント・デキスタラス・グリップ合成(Cross-Embodiment dexterous grasp synthesis)とは、様々なロボットハンドのグリップを適応的に生成し、最適化することである。
そこで我々は,CEDexを提案する。
これまでで最大のクロス・エボディメント・グラウンド・データセットを構築し、合計20万のグリップを持つ4つのタイプにまたがる500万のオブジェクトからなる。
論文 参考訳(メタデータ) (2025-09-29T12:08:04Z) - DEXOP: A Device for Robotic Transfer of Dexterous Human Manipulation [39.95361636017463]
周操作は、人間の操作を感知し記録し、実際のロボットへのデータの転送可能性を最大化する、ロボットデータ収集のパラダイムである。
我々は,このパラダイムを,自然環境における多種多様な操作タスクのためのリッチな感覚(視覚+触覚)データ収集能力の最大化を目的とした,受動的手外骨格であるDEXOPに実装する。
論文 参考訳(メタデータ) (2025-09-04T17:57:13Z) - AnyDexGrasp: General Dexterous Grasping for Different Hands with Human-level Learning Efficiency [49.868970174484204]
我々は,最小限のデータを用いてきめ細やかな把握を学習するための効率的なアプローチを提案する。
提案手法は,40個の訓練対象に対して数百のグリップ試行を行うだけで,人間レベルの学習効率で高い性能を達成できる。
この方法は、ヒューマノイドロボット、人工装具、その他頑丈で汎用的なロボット操作を必要とする領域に対する有望な応用を実証する。
論文 参考訳(メタデータ) (2025-02-23T03:26:06Z) - From One Hand to Multiple Hands: Imitation Learning for Dexterous
Manipulation from Single-Camera Teleoperation [26.738893736520364]
我々は,iPadとコンピュータのみで3Dデモを効率的に収集する,新しい単一カメラ遠隔操作システムを提案する。
我々は,操作者の手の構造と形状が同じであるマニピュレータである物理シミュレータにおいて,各ユーザ向けにカスタマイズされたロボットハンドを構築する。
データを用いた模倣学習では、複数の複雑な操作タスクでベースラインを大幅に改善する。
論文 参考訳(メタデータ) (2022-04-26T17:59:51Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。