論文の概要: DexterCap: An Affordable and Automated System for Capturing Dexterous Hand-Object Manipulation
- arxiv url: http://arxiv.org/abs/2601.05844v1
- Date: Fri, 09 Jan 2026 15:16:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.99845
- Title: DexterCap: An Affordable and Automated System for Capturing Dexterous Hand-Object Manipulation
- Title(参考訳): DexterCap:デクサラスハンドオブジェクトの操作をキャプチャーするための拡張可能で自動化されたシステム
- Authors: Yutong Liang, Shiyi Xu, Yulong Zhang, Bowen Zhan, He Zhang, Libin Liu,
- Abstract要約: 本稿では,手動操作のための低コスト光キャプチャシステムであるDexterCapについて紹介する。
DexterCapは、密集した文字コード化されたマーカーパッチを使用して、厳しい自己閉塞下で堅牢なトラッキングを実現する。
我々はデータセットとコードを公開し、デクスタラスハンドオブジェクトインタラクションに関する将来の研究を支援する。
- 参考スコア(独自算出の注目度): 10.592439701443057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Capturing fine-grained hand-object interactions is challenging due to severe self-occlusion from closely spaced fingers and the subtlety of in-hand manipulation motions. Existing optical motion capture systems rely on expensive camera setups and extensive manual post-processing, while low-cost vision-based methods often suffer from reduced accuracy and reliability under occlusion. To address these challenges, we present DexterCap, a low-cost optical capture system for dexterous in-hand manipulation. DexterCap uses dense, character-coded marker patches to achieve robust tracking under severe self-occlusion, together with an automated reconstruction pipeline that requires minimal manual effort. With DexterCap, we introduce DexterHand, a dataset of fine-grained hand-object interactions covering diverse manipulation behaviors and objects, from simple primitives to complex articulated objects such as a Rubik's Cube. We release the dataset and code to support future research on dexterous hand-object interaction.
- Abstract(参考訳): 細粒な手と物体の相互作用を捉えることは、密接な空間の指からの厳密な自己閉塞と、手の動きの微妙さによって困難である。
既存の光学式モーションキャプチャシステムは高価なカメラのセットアップと広範囲な手作業による後処理に頼っているが、低コストの視覚ベースの手法は隠蔽下での精度と信頼性の低下に悩まされることが多い。
これらの課題に対処するため,手動手動操作のための低コスト光キャプチャシステムであるDexterCapを提案する。
DexterCapは、厳密で文字コード化されたマーカーパッチを使用して、厳密な自己閉塞下での堅牢なトラッキングと、手作業の最小化を必要とする自動再構築パイプラインを実現している。
DexterCapでは、単純なプリミティブからルービックキューブのような複雑な定型オブジェクトに至るまで、さまざまな操作動作やオブジェクトをカバーする、きめ細かいハンドオブジェクトインタラクションのデータセットであるDexterHandを紹介します。
我々はデータセットとコードを公開し、デクスタラスハンドオブジェクトインタラクションに関する将来の研究を支援する。
関連論文リスト
- MILE: A Mechanically Isomorphic Exoskeleton Data Collection System with Fingertip Visuotactile Sensing for Dexterous Manipulation [17.138615434309575]
既存のデータ収集パイプラインは、不正確な動作操作、低データ収集効率、高解像度触覚センサの欠如に悩まされている。
このギャップを、機械的遠隔操作とデータ収集システムであるMILEで解決する。
論文 参考訳(メタデータ) (2025-11-29T05:34:39Z) - Dexplore: Scalable Neural Control for Dexterous Manipulation from Reference-Scoped Exploration [58.4036440289082]
ハンドオブジェクトモーションキャプチャ(MoCap)は、大規模でコンタクトに富んだデモと、器用なロボットスコープの約束を提供する。
Dexploreは、リポジトリとトラッキングを実行し、MoCapから直接ロボット制御ポリシーを学習する、統一された単一ループ最適化である。
論文 参考訳(メタデータ) (2025-09-11T17:59:07Z) - Monocular 3D Hand Pose Estimation with Implicit Camera Alignment [9.199465050084296]
Augmented Reality (AR)、Virtual Reality (VR)、Human-Computer Interaction (HCI)の応用における重要な問題である。
キーポイントアライメントステップと指先損失を含む2次元キーポイント入力から3次元手指関節を推定するための最適化パイプラインを提案する。
我々は,EgoDexterとDexter+Objectベンチマークに対する我々のアプローチを評価し,最先端技術と競合することを示す。
論文 参考訳(メタデータ) (2025-06-10T18:45:22Z) - MaskedManipulator: Versatile Whole-Body Manipulation [38.02818493367002]
本研究では,大規模な人体モーションキャプチャーデータに基づいて学習したトラッキングコントローラから生成制御ポリシーであるMaskedManipulatorを紹介する。
この2段階の学習プロセスにより、システムは複雑なインタラクション動作を実行でき、キャラクタとオブジェクトの両方の動作を直感的に制御できる。
論文 参考訳(メタデータ) (2025-05-25T10:46:14Z) - Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - DexCap: Scalable and Portable Mocap Data Collection System for Dexterous Manipulation [28.37054959647664]
人間の手の動きデータからの模倣学習は、現実世界の操作タスクにおいて、人間のような器用さでロボットを倒すための有望な道を示す。
携帯型ハンドモーションキャプチャシステムであるDexCapとDexILを紹介する。
論文 参考訳(メタデータ) (2024-03-12T16:23:49Z) - 3D Pose Estimation of Two Interacting Hands from a Monocular Event
Camera [59.846927201816776]
本稿では,1つの単眼イベントカメラから手の動きの速い2つの手の動きを3次元追跡するための最初のフレームワークを紹介する。
本手法は, 半教師付き機能的注意機構により, 左手のあいまいさに対処し, 交差点の損失を補足して手衝突を解消する。
論文 参考訳(メタデータ) (2023-12-21T18:59:57Z) - DeepHandMesh: A Weakly-supervised Deep Encoder-Decoder Framework for
High-fidelity Hand Mesh Modeling [75.69585456580505]
DeepHandMeshは、高忠実度ハンドメッシュモデリングのための弱教師付きディープエンコーダデコーダフレームワークである。
また,一般画像からの3次元手メッシュ推定にも有効であることを示す。
論文 参考訳(メタデータ) (2020-08-19T00:59:51Z) - Weakly-Supervised Mesh-Convolutional Hand Reconstruction in the Wild [59.158592526006814]
YouTubeビデオに手の動きの大規模なデータセットを収集することで、ネットワークをトレーニングします。
私たちの弱い教師付きメッシュ畳み込みベースのシステムは、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-04-04T14:35:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。