論文の概要: DyTact: Capturing Dynamic Contacts in Hand-Object Manipulation
- arxiv url: http://arxiv.org/abs/2506.03103v1
- Date: Tue, 03 Jun 2025 17:36:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.89437
- Title: DyTact: Capturing Dynamic Contacts in Hand-Object Manipulation
- Title(参考訳): DyTact: ハンドオブジェクト操作におけるダイナミックコンタクトのキャプチャ
- Authors: Xiaoyan Cong, Angela Xing, Chandradeep Pokhariya, Rao Fu, Srinath Sridhar,
- Abstract要約: DyTactは手動操作における動的接触を正確にキャプチャするためのマーカーレスキャプチャ法である。
テンプレートモデルの帰納バイアスを利用して最適化を安定化し、加速する。
最先端のダイナミックコンタクト推定精度を実現し、新規なビュー合成品質を大幅に向上させる。
- 参考スコア(独自算出の注目度): 8.253170582859774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing dynamic hand-object contacts is essential for realistic manipulation in AI character animation, XR, and robotics, yet it remains challenging due to heavy occlusions, complex surface details, and limitations in existing capture techniques. In this paper, we introduce DyTact, a markerless capture method for accurately capturing dynamic contact in hand-object manipulations in a non-intrusive manner. Our approach leverages a dynamic, articulated representation based on 2D Gaussian surfels to model complex manipulations. By binding these surfels to MANO meshes, DyTact harnesses the inductive bias of template models to stabilize and accelerate optimization. A refinement module addresses time-dependent high-frequency deformations, while a contact-guided adaptive sampling strategy selectively increases surfel density in contact regions to handle heavy occlusion. Extensive experiments demonstrate that DyTact not only achieves state-of-the-art dynamic contact estimation accuracy but also significantly improves novel view synthesis quality, all while operating with fast optimization and efficient memory usage. Project Page: https://oliver-cong02.github.io/DyTact.github.io/ .
- Abstract(参考訳): 動的ハンドオブジェクト接触の再構築は、AIキャラクターアニメーション、XR、ロボティクスの現実的な操作には不可欠だが、重い閉塞、複雑な表面の詳細、既存のキャプチャ技術に制限があるため、依然として困難である。
本稿では,非侵襲的操作における動的接触を正確にキャプチャするマーカーレスキャプチャ手法であるDyTactを紹介する。
提案手法は,2次元ガウス波を用いた動的・明瞭な表現を利用して複雑な操作をモデル化する。
これらの界面活性剤をMANOメッシュに結合することで、DyTactはテンプレートモデルの誘導バイアスを利用して最適化を安定化し、加速する。
改良モジュールは、時間依存の高周波変形に対処し、接触誘導適応サンプリング戦略は、接触領域におけるウェーバ密度を選択的に増加させ、重閉塞を処理する。
大規模な実験により、DyTactは最先端の動的接触推定精度を達成するだけでなく、高速な最適化と効率的なメモリ使用により、新しいビュー合成品質を大幅に向上することが示された。
Project Page: https://oliver-cong02.github.io/DyTact.github.io/
関連論文リスト
- Dynamic Manipulation of Deformable Objects in 3D: Simulation, Benchmark and Learning Strategy [88.8665000676562]
従来の手法は、しばしば問題を低速または2D設定に単純化し、現実の3Dタスクに適用性を制限する。
データ不足を軽減するため、新しいシミュレーションフレームワークと、低次ダイナミクスに基づくベンチマークを導入する。
本研究では,シミュレーション前トレーニングと物理インフォームドテスト時間適応を統合するフレームワークであるDynamics Informed Diffusion Policy (DIDP)を提案する。
論文 参考訳(メタデータ) (2025-05-23T03:28:25Z) - Template-free Articulated Gaussian Splatting for Real-time Reposable Dynamic View Synthesis [21.444265403717015]
本稿では,ビデオから動的オブジェクトのスケルトンモデルを自動的に検出する手法を提案する。
スーパーポイントを剛性部分として扱うことで、直感的な手がかりによって基盤となる骨格モデルを発見し、キネマティックモデルを用いて最適化することができる。
再使用可能な3Dオブジェクトの取得において,本手法の有効性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-12-07T07:35:09Z) - Dynamic Reconstruction of Hand-Object Interaction with Distributed Force-aware Contact Representation [52.36691633451968]
ViTaM-Dは動的手動物体相互作用再構成のための視覚触覚フレームワークである。
DF-Fieldは分散力認識型接触表現モデルである。
剛性および変形性のある物体再構成におけるViTaM-Dの優れた性能について検討した。
論文 参考訳(メタデータ) (2024-11-14T16:29:45Z) - MonST3R: A Simple Approach for Estimating Geometry in the Presence of Motion [118.74385965694694]
我々は動的シーンから時間ステップごとの幾何を直接推定する新しい幾何学的アプローチであるMotion DUSt3R(MonST3R)を提案する。
各タイムステップのポイントマップを単純に推定することで、静的シーンにのみ使用されるDUST3Rの表現を動的シーンに効果的に適応させることができる。
我々は、問題を微調整タスクとしてポーズし、いくつかの適切なデータセットを特定し、この制限されたデータ上でモデルを戦略的に訓練することで、驚くほどモデルを動的に扱えることを示す。
論文 参考訳(メタデータ) (2024-10-04T18:00:07Z) - TFS-NeRF: Template-Free NeRF for Semantic 3D Reconstruction of Dynamic Scene [25.164085646259856]
本稿では,スパースやシングルビューRGBビデオから撮影したダイナミックシーンのためのテンプレートレス3DセマンティックNeRFを提案する。
相互作用する物体の動きを遠ざけ, 濃度ごとのスキン厚みを最適化することにより, 高精度でセマンティックに分離可能なジオメトリを効率的に生成する。
論文 参考訳(メタデータ) (2024-09-26T01:34:42Z) - ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object
Manipulation [135.10594078615952]
本稿では,体積変形可能なオブジェクトに対する動作条件の視覚力学モデルであるACIDを紹介する。
ベンチマークには17,000以上のアクション・トラジェクトリー、6種類のぬいぐるみと78種類の変種が含まれている。
我々のモデルは、幾何学、対応、力学の予測において最高の性能を達成する。
論文 参考訳(メタデータ) (2022-03-14T04:56:55Z) - Real-time Pose and Shape Reconstruction of Two Interacting Hands With a
Single Depth Camera [79.41374930171469]
本稿では,2つの強く相互作用する手の位置と形状をリアルタイムに再現する新しい手法を提案する。
われわれのアプローチは、有利なプロパティの広範なリスト、すなわちマーカーレスを組み合わせている。
過去の研究で示された複雑性レベルを超える場面で、最先端の結果を示す。
論文 参考訳(メタデータ) (2021-06-15T11:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。