論文の概要: HMDO: Markerless Multi-view Hand Manipulation Capture with Deformable
Objects
- arxiv url: http://arxiv.org/abs/2301.07652v1
- Date: Wed, 18 Jan 2023 16:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-19 15:14:27.650994
- Title: HMDO: Markerless Multi-view Hand Manipulation Capture with Deformable
Objects
- Title(参考訳): hmdo: 変形可能なオブジェクトによるマーカーレスマルチビューハンド操作キャプチャ
- Authors: Wei Xie, Zhipeng Yu, Zimeng Zhao, Binghui Zuo, Yangang Wang
- Abstract要約: HMDOは、手と変形可能な物体の対話的な動きを記録する最初のマーカーレス変形可能な相互作用データセットである。
提案手法は,手と変形可能な物体の対話的動きを高品質に再現することができる。
- 参考スコア(独自算出の注目度): 8.711239906965893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We construct the first markerless deformable interaction dataset recording
interactive motions of the hands and deformable objects, called HMDO (Hand
Manipulation with Deformable Objects). With our built multi-view capture
system, it captures the deformable interactions with multiple perspectives,
various object shapes, and diverse interactive forms. Our motivation is the
current lack of hand and deformable object interaction datasets, as 3D hand and
deformable object reconstruction is challenging. Mainly due to mutual
occlusion, the interaction area is difficult to observe, the visual features
between the hand and the object are entangled, and the reconstruction of the
interaction area deformation is difficult. To tackle this challenge, we propose
a method to annotate our captured data. Our key idea is to collaborate with
estimated hand features to guide the object global pose estimation, and then
optimize the deformation process of the object by analyzing the relationship
between the hand and the object. Through comprehensive evaluation, the proposed
method can reconstruct interactive motions of hands and deformable objects with
high quality. HMDO currently consists of 21600 frames over 12 sequences. In the
future, this dataset could boost the research of learning-based reconstruction
of deformable interaction scenes.
- Abstract(参考訳): HMDO(Hand Manipulation with Deformable Objects)と呼ばれる手と手の動きを対話的に記録する最初のマーカーレス変形型相互作用データセットを構築した。
構築したマルチビューキャプチャシステムにより、複数の視点、さまざまなオブジェクト形状、多様なインタラクティブなフォームとの変形可能な相互作用をキャプチャする。
私たちのモチベーションは、手と変形可能なオブジェクトインタラクションデータセットが現在の欠如していることにあります。
主に相互咬合のため、相互作用領域の観察が困難であり、手と物体の視覚的な特徴が絡み合っており、相互作用領域の変形の再構築が困難である。
この課題に取り組むために,我々はキャプチャしたデータをアノテートする手法を提案する。
我々のキーとなる考え方は、オブジェクトのグローバルポーズ推定を導くために、推定手の特徴と協調して、手とオブジェクトの関係を分析することによって、オブジェクトの変形過程を最適化することである。
包括的評価により,手と変形可能な物体の対話動作を高品質に再現することができる。
HMDOは現在、12列以上の21600フレームで構成されている。
将来的には、このデータセットは、変形可能なインタラクションシーンの学習に基づく再構築の研究を促進するだろう。
関連論文リスト
- EasyHOI: Unleashing the Power of Large Models for Reconstructing Hand-Object Interactions in the Wild [79.71523320368388]
本研究の目的は,手動物体のインタラクションを単一視点画像から再構築することである。
まず、手ポーズとオブジェクト形状を推定する新しいパイプラインを設計する。
最初の再構築では、事前に誘導された最適化方式を採用する。
論文 参考訳(メタデータ) (2024-11-21T16:33:35Z) - Dynamic Reconstruction of Hand-Object Interaction with Distributed Force-aware Contact Representation [52.36691633451968]
ViTaM-Dは動的手動物体相互作用再構成のための視覚触覚フレームワークである。
DF-Fieldは分散力認識型接触表現モデルである。
剛性および変形性のある物体再構成におけるViTaM-Dの優れた性能について検討した。
論文 参考訳(メタデータ) (2024-11-14T16:29:45Z) - Text2HOI: Text-guided 3D Motion Generation for Hand-Object Interaction [8.253265795150401]
本稿では,3Dにおける手-物間相互作用のシーケンスを生成するための最初のテキスト誘導作業について紹介する。
接触生成のために、VAEベースのネットワークはテキストとオブジェクトメッシュを入力として、手の表面とオブジェクトとの間の接触の確率を生成する。
運動生成のために、トランスフォーマーベースの拡散モデルは、この3Dコンタクトマップを、物理的に可塑性な手オブジェクトの動きを生成するための強力な先行手段として利用する。
論文 参考訳(メタデータ) (2024-03-31T04:56:30Z) - Benchmarks and Challenges in Pose Estimation for Egocentric Hand Interactions with Objects [89.95728475983263]
ロボティクス、AR/VR、アクション認識、モーション生成といったタスクにおいて、自己中心的な視点からこのようなインタラクションを理解することが重要である。
我々は、AmblyHandsとARCTICデータセットに基づいたHANDS23チャレンジを、慎重に設計されたトレーニングとテストの分割に基づいて設計する。
提案手法の結果と近年のリーダーボードのベースラインに基づいて,3Dハンド(オブジェクト)再構成タスクの徹底的な解析を行う。
論文 参考訳(メタデータ) (2024-03-25T05:12:21Z) - Novel-view Synthesis and Pose Estimation for Hand-Object Interaction
from Sparse Views [41.50710846018882]
スパースビューから手動物体間相互作用を推定するニューラルレンダリングとポーズ推定システムを提案する。
まず,手や物体の形状や外観を,神経表現と別々に学習する。
オンライン段階では、動的手-物体相互作用を理解するためのレンダリングベースのジョイントモデルフィッティングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-08-22T05:17:41Z) - InterTracker: Discovering and Tracking General Objects Interacting with
Hands in the Wild [40.489171608114574]
既存の方法は相互作用する物体を見つけるためにフレームベースの検出器に依存している。
本稿では,対話オブジェクトの追跡に手動オブジェクトのインタラクションを活用することを提案する。
提案手法は最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2023-08-06T09:09:17Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - Collaborative Learning for Hand and Object Reconstruction with
Attention-guided Graph Convolution [49.10497573378427]
インタラクション中の手や物体のポーズと形状を推定すると、拡張現実や仮想現実を含む多くの応用が見つかる。
我々のアルゴリズムはオブジェクトモデルへの最適化であり、手動オブジェクトの相互作用を管理する物理規則を学習する。
広範に使用されている4つのベンチマークを用いて実験したところ、我々のフレームワークは3次元ポーズ推定における最先端の精度を超えて達成でき、また、密集した3次元手や物体の形状を復元できることがわかった。
論文 参考訳(メタデータ) (2022-04-27T17:00:54Z) - Joint Hand-object 3D Reconstruction from a Single Image with
Cross-branch Feature Fusion [78.98074380040838]
特徴空間において手とオブジェクトを共同で検討し、2つの枝の相互性について検討する。
入力されたRGB画像に推定深度マップを付加するために補助深度推定モジュールを用いる。
提案手法は,オブジェクトの復元精度において既存手法よりも優れていた。
論文 参考訳(メタデータ) (2020-06-28T09:50:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。