論文の概要: DexTac: Learning Contact-aware Visuotactile Policies via Hand-by-hand Teaching
- arxiv url: http://arxiv.org/abs/2601.21474v1
- Date: Thu, 29 Jan 2026 09:52:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.007326
- Title: DexTac: Learning Contact-aware Visuotactile Policies via Hand-by-hand Teaching
- Title(参考訳): DexTac: 接点を意識したバイソタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタ
- Authors: Xingyu Zhang, Chaofan Zhang, Boyue Zhang, Zhinan Peng, Shaowei Cui, Shuo Wang,
- Abstract要約: DexTacは美学教育に基づく視覚触覚操作学習フレームワークである。
我々は,一対一のインジェクション課題に対する枠組みの評価を行った。
- 参考スコア(独自算出の注目度): 14.892858615291717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For contact-intensive tasks, the ability to generate policies that produce comprehensive tactile-aware motions is essential. However, existing data collection and skill learning systems for dexterous manipulation often suffer from low-dimensional tactile information. To address this limitation, we propose DexTac, a visuo-tactile manipulation learning framework based on kinesthetic teaching. DexTac captures multi-dimensional tactile data-including contact force distributions and spatial contact regions-directly from human demonstrations. By integrating these rich tactile modalities into a policy network, the resulting contact-aware agent enables a dexterous hand to autonomously select and maintain optimal contact regions during complex interactions. We evaluate our framework on a challenging unimanual injection task. Experimental results demonstrate that DexTac achieves a 91.67% success rate. Notably, in high-precision scenarios involving small-scale syringes, our approach outperforms force-only baselines by 31.67%. These results underscore that learning multi-dimensional tactile priors from human demonstrations is critical for achieving robust, human-like dexterous manipulation in contact-rich environments.
- Abstract(参考訳): 接触集約的なタスクには、包括的な触覚を意識した動作を生成するポリシーを生成する能力が不可欠である。
しかし,デクスタラス操作のための既存のデータ収集およびスキル学習システムは,低次元触覚情報に悩まされることが多い。
この制限に対処するため,身体美教育に基づく視覚触覚操作学習フレームワークであるDexTacを提案する。
DexTacは、人間のデモンストレーションから直接多次元触覚データを含む接触力分布と空間接触領域をキャプチャする。
これらのリッチな触覚モダリティをポリシーネットワークに統合することにより、結果として生じる接触認識エージェントは、複雑な相互作用の間、デクスタラスハンドで最適な接触領域を自律的に選択し、維持することができる。
我々は,一対一のインジェクション課題に対する枠組みの評価を行った。
実験の結果、DexTacは91.67%の成功率を達成した。
特に、小型注射器を含む高精度シナリオでは、我々のアプローチは力のみのベースラインを31.67%上回っている。
これらの結果は、人間の実演から多次元の触覚前駆体を学習することが、接触豊かな環境において頑健で人間的な巧妙な操作を実現する上で重要であることを裏付けている。
関連論文リスト
- DexViTac: Collecting Human Visuo-Tactile-Kinematic Demonstrations for Contact-Rich Dexterous Manipulation [4.463599051210204]
大規模で高品質なマルチモーダルデモは、接触に富むデキスタス操作のロボット学習に不可欠である。
本稿では,コンタクトリッチなデキスタラス操作に適した携帯型人中心データ収集システムであるDexViTacを紹介する。
論文 参考訳(メタデータ) (2026-03-18T15:39:58Z) - Towards Human-Like Manipulation through RL-Augmented Teleoperation and Mixture-of-Dexterous-Experts VLA [62.16042475700567]
本稿では,遠隔操作データ収集を簡易化する共有自律型アシスタントIMCopilotを紹介する。
我々は、不均一な力と触覚モーダルを予め訓練されたVLAバックボーンにシームレスに統合するアーキテクチャであるMoDE-VLAを提案する。
我々は,複雑度を増大させる4つの課題に対するアプローチの有効性を検証し,厳密な接触量の多い課題におけるベースラインよりも2倍の成功率の向上を実証した。
論文 参考訳(メタデータ) (2026-03-09T09:02:30Z) - TouchGuide: Inference-Time Steering of Visuomotor Policies via Touch Guidance [53.35296919674763]
TouchGuideは、低次元のアクション空間内でモダリティを融合させる、クロス政治的なビズオ触覚融合パラダイムである。
TouchGuideは、事前訓練された拡散またはフローマッチングビズモータポリシーをガイドする2つの段階で動作する。
高品質で費用対効果の高いデータによるTouchGuideトレーニングを容易にするために,データ収集システムであるTacUMIを導入する。
論文 参考訳(メタデータ) (2026-01-28T04:22:47Z) - Dexterous Manipulation through Imitation Learning: A Survey [32.47862766672596]
イミテーションラーニング(IL)は、ロボットが専門家によるデモンストレーションから直接巧妙な操作スキルを習得できるようにすることによって、代替手段を提供する。
ILは、明示的なモデリングと大規模な試行錯誤の必要性を回避しながら、きめ細かい調整と接触ダイナミクスをキャプチャする。
私たちのゴールは、研究者や実践者たちに、この急速に進化する領域の包括的紹介を提供することです。
論文 参考訳(メタデータ) (2025-04-04T15:14:38Z) - DexHandDiff: Interaction-aware Diffusion Planning for Adaptive Dexterous Manipulation [78.60543357822957]
高度なロボティクスにとって、接触に富んだ相互作用による有害な操作が不可欠である。
DexHandDiffは,適応的デキスタラス操作のための対話型拡散計画フレームワークである。
当社のフレームワークは, 目標適応度の高いタスクにおいて, 平均70.7%の成功率を実現し, コンタクトリッチな操作における堅牢性と柔軟性を強調した。
論文 参考訳(メタデータ) (2024-11-27T18:03:26Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。