論文の概要: MILE: A Mechanically Isomorphic Exoskeleton Data Collection System with Fingertip Visuotactile Sensing for Dexterous Manipulation
- arxiv url: http://arxiv.org/abs/2512.00324v1
- Date: Sat, 29 Nov 2025 05:34:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.170058
- Title: MILE: A Mechanically Isomorphic Exoskeleton Data Collection System with Fingertip Visuotactile Sensing for Dexterous Manipulation
- Title(参考訳): MILE: Fingertip Visuotactile Sensing for Dexterous Manipulation を用いた機械的等方性外骨格データ収集システム
- Authors: Jinda Du, Jieji Ren, Qiaojun Yu, Ningbin Zhang, Yu Deng, Xingyu Wei, Yufei Liu, Guoying Gu, Xiangyang Zhu,
- Abstract要約: 既存のデータ収集パイプラインは、不正確な動作操作、低データ収集効率、高解像度触覚センサの欠如に悩まされている。
このギャップを、機械的遠隔操作とデータ収集システムであるMILEで解決する。
- 参考スコア(独自算出の注目度): 17.138615434309575
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Imitation learning provides a promising approach to dexterous hand manipulation, but its effectiveness is limited by the lack of large-scale, high-fidelity data. Existing data-collection pipelines suffer from inaccurate motion retargeting, low data-collection efficiency, and missing high-resolution fingertip tactile sensing. We address this gap with MILE, a mechanically isomorphic teleoperation and data-collection system co-designed from human hand to exoskeleton to robotic hand. The exoskeleton is anthropometrically derived from the human hand, and the robotic hand preserves one-to-one joint-position isomorphism, eliminating nonlinear retargeting and enabling precise, natural control. The exoskeleton achieves a multi-joint mean absolute angular error below one degree, while the robotic hand integrates compact fingertip visuotactile modules that provide high-resolution tactile observations. Built on this retargeting-free interface, we teleoperate complex, contact-rich in-hand manipulation and efficiently collect a multimodal dataset comprising high-resolution fingertip visuotactile signals, RGB-D images, and joint positions. The teleoperation pipeline achieves a mean success rate improvement of 64%. Incorporating fingertip tactile observations further increases the success rate by an average of 25% over the vision-only baseline, validating the fidelity and utility of the dataset. Further details are available at: https://sites.google.com/view/mile-system.
- Abstract(参考訳): 模倣学習は器用な手操作に対して有望なアプローチを提供するが、その有効性は大規模で高忠実なデータの欠如によって制限される。
既存のデータ収集パイプラインは、不正確な動きの再ターゲティング、データ収集効率の低下、高解像度の指先触覚センサの欠如に悩まされている。
このギャップを、機械的に同型な遠隔操作とデータ収集システムであるMILEで解決する。
エキソスケルトンは人間の手から人為的に派生し、ロボットハンドは1対1の関節位置同型を保ち、非線形再ターゲティングを排除し、正確で自然な制御を可能にする。
ロボットハンドは小型の指先振動モジュールを統合し、高分解能な触覚観察を行う。
このリターゲティングフリーインタフェース上に構築され、複雑なコンタクトリッチな手動操作を遠隔操作し、高分解能指先視触覚信号、RGB-D画像、関節位置を含むマルチモーダルデータセットを効率よく収集する。
遠隔操作パイプラインは平均成功率を64%向上させる。
指先触覚観測を取り入れることで、視力のみのベースラインよりも平均25%の成功率を高め、データセットの忠実さと有用性を検証する。
詳細は、https://sites.google.com/view/mile-system.comで確認できる。
関連論文リスト
- Grasp Like Humans: Learning Generalizable Multi-Fingered Grasping from Human Proprioceptive Sensorimotor Integration [26.351720551267846]
触覚と審美的知覚は、人間の器用な操作に欠かせないものであり、感覚運動器統合による物体の確実な把握を可能にしている。
本研究では,人間の直感的・自然な操作から模倣学習に基づくロボット実行へのスキル伝達を把握するための,新しい手袋による触覚的知覚予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-10T07:44:12Z) - emg2tendon: From sEMG Signals to Tendon Control in Musculoskeletal Hands [5.613626927694011]
腱駆動のロボットハンドは、操作タスクに非平行なデキスタリティを提供する。
しかし,このようなシステムに対する学習制御方針は,独特な課題を呈している。
ロボットハンドのための大規模なEMG-to-Tendon Controlデータセットについて紹介する。
論文 参考訳(メタデータ) (2025-07-29T12:49:57Z) - Body-Hand Modality Expertized Networks with Cross-attention for Fine-grained Skeleton Action Recognition [28.174638880324014]
BHaRNetは、典型的なボディエキスパートモデルをハンドエキスパートモデルで拡張する新しいフレームワークである。
我々のモデルは、協調的な専門化を促進するアンサンブル損失で、両方のストリームを共同で訓練する。
MMNetに触発されて、RGB情報を活用することで、マルチモーダルタスクへのアプローチの適用性を実証する。
論文 参考訳(メタデータ) (2025-03-19T07:54:52Z) - DexHandDiff: Interaction-aware Diffusion Planning for Adaptive Dexterous Manipulation [78.60543357822957]
高度なロボティクスにとって、接触に富んだ相互作用による有害な操作が不可欠である。
DexHandDiffは,適応的デキスタラス操作のための対話型拡散計画フレームワークである。
当社のフレームワークは, 目標適応度の高いタスクにおいて, 平均70.7%の成功率を実現し, コンタクトリッチな操作における堅牢性と柔軟性を強調した。
論文 参考訳(メタデータ) (2024-11-27T18:03:26Z) - Depth Restoration of Hand-Held Transparent Objects for Human-to-Robot Handover [5.329513275750882]
本稿では,1枚のRGB-D画像から暗黙的ニューラル表現関数を生成できるHADR法を提案する。
提案手法は手動姿勢を重要なガイダンスとして利用し,手動物体間相互作用の意味的および幾何学的情報を活用する。
さらに,HADRに基づく実世界の人間ロボットハンドオーバシステムを開発し,人間ロボットインタラクションへの応用の可能性を示す。
論文 参考訳(メタデータ) (2024-08-27T12:25:12Z) - Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。