論文の概要: Joint Hand-object 3D Reconstruction from a Single Image with
Cross-branch Feature Fusion
- arxiv url: http://arxiv.org/abs/2006.15561v2
- Date: Mon, 22 Mar 2021 07:38:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 02:40:52.910729
- Title: Joint Hand-object 3D Reconstruction from a Single Image with
Cross-branch Feature Fusion
- Title(参考訳): クロスブランチ特徴融合画像からの手・物同時3次元再構成
- Authors: Yujin Chen, Zhigang Tu, Di Kang, Ruizhi Chen, Linchao Bao, Zhengyou
Zhang, Junsong Yuan
- Abstract要約: 特徴空間において手とオブジェクトを共同で検討し、2つの枝の相互性について検討する。
入力されたRGB画像に推定深度マップを付加するために補助深度推定モジュールを用いる。
提案手法は,オブジェクトの復元精度において既存手法よりも優れていた。
- 参考スコア(独自算出の注目度): 78.98074380040838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate 3D reconstruction of the hand and object shape from a hand-object
image is important for understanding human-object interaction as well as human
daily activities. Different from bare hand pose estimation, hand-object
interaction poses a strong constraint on both the hand and its manipulated
object, which suggests that hand configuration may be crucial contextual
information for the object, and vice versa. However, current approaches address
this task by training a two-branch network to reconstruct the hand and object
separately with little communication between the two branches. In this work, we
propose to consider hand and object jointly in feature space and explore the
reciprocity of the two branches. We extensively investigate cross-branch
feature fusion architectures with MLP or LSTM units. Among the investigated
architectures, a variant with LSTM units that enhances object feature with hand
feature shows the best performance gain. Moreover, we employ an auxiliary depth
estimation module to augment the input RGB image with the estimated depth map,
which further improves the reconstruction accuracy. Experiments conducted on
public datasets demonstrate that our approach significantly outperforms
existing approaches in terms of the reconstruction accuracy of objects.
- Abstract(参考訳): 手物体画像から手と物体の正確な3次元再構成は、人間と物体の相互作用や人間の日常活動を理解する上で重要である。
素手ポーズ推定と異なり、手-物体の相互作用は手と操作対象の両方に強い制約を課し、手の設定がオブジェクトにとって重要なコンテキスト情報であり、その逆であることを示している。
しかし、現在のアプローチでは、手とオブジェクトを別々に再構築する2ブランチネットワークをトレーニングすることで、この課題に対処している。
本研究では,特徴空間において手と物体を共同で検討し,両枝の相互性について検討する。
MLPまたはLSTMユニットを用いたクロスブランチ機能融合アーキテクチャについて検討した。
検討したアーキテクチャのうち,オブジェクト特徴を手動で拡張するLSTMユニットの変種は,最高の性能向上を示す。
さらに,入力されたRGB画像に推定深度マップを付加するために補助深度推定モジュールを用い,再現精度をさらに向上する。
公開データセットを用いた実験により,既存手法よりもオブジェクトの復元精度が大幅に向上したことが示された。
関連論文リスト
- EasyHOI: Unleashing the Power of Large Models for Reconstructing Hand-Object Interactions in the Wild [79.71523320368388]
本研究の目的は,手動物体のインタラクションを単一視点画像から再構築することである。
まず、手ポーズとオブジェクト形状を推定する新しいパイプラインを設計する。
最初の再構築では、事前に誘導された最適化方式を採用する。
論文 参考訳(メタデータ) (2024-11-21T16:33:35Z) - HOLD: Category-agnostic 3D Reconstruction of Interacting Hands and
Objects from Video [70.11702620562889]
HOLD - 単分子インタラクションビデオから手とオブジェクトを共同で再構成する最初のカテゴリーに依存しない方法。
我々は,3次元手と物体を2次元画像から切り離すことができる構成的明瞭な暗黙モデルを開発した。
本手法は,3次元手オブジェクトアノテーションに頼らず,組込みと組込みの両面において,完全教師付きベースラインに優れる。
論文 参考訳(メタデータ) (2023-11-30T10:50:35Z) - SHOWMe: Benchmarking Object-agnostic Hand-Object 3D Reconstruction [13.417086460511696]
96本の動画からなるSHOWMeデータセットについて,実物と詳細な3Dテクスチャメッシュで注釈付けした。
我々は、手の動きがビデオシーケンス全体を通して一定である厳密な手オブジェクトのシナリオを考察する。
この仮定により、SHOWMeの画像シーケンスにサブミリメートル精度の基底3Dスキャンを登録できる。
論文 参考訳(メタデータ) (2023-09-19T16:48:29Z) - Decoupled Iterative Refinement Framework for Interacting Hands
Reconstruction from a Single RGB Image [30.24438569170251]
画素アライメント・ハンド再構成を実現するために,分離された反復的精細化フレームワークを提案する。
提案手法は、InterHand2.6Mデータセットにおいて、既存の2手再構成手法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2023-02-05T15:46:57Z) - HMDO: Markerless Multi-view Hand Manipulation Capture with Deformable
Objects [8.711239906965893]
HMDOは、手と変形可能な物体の対話的な動きを記録する最初のマーカーレス変形可能な相互作用データセットである。
提案手法は,手と変形可能な物体の対話的動きを高品質に再現することができる。
論文 参考訳(メタデータ) (2023-01-18T16:55:15Z) - Collaborative Learning for Hand and Object Reconstruction with
Attention-guided Graph Convolution [49.10497573378427]
インタラクション中の手や物体のポーズと形状を推定すると、拡張現実や仮想現実を含む多くの応用が見つかる。
我々のアルゴリズムはオブジェクトモデルへの最適化であり、手動オブジェクトの相互作用を管理する物理規則を学習する。
広範に使用されている4つのベンチマークを用いて実験したところ、我々のフレームワークは3次元ポーズ推定における最先端の精度を超えて達成でき、また、密集した3次元手や物体の形状を復元できることがわかった。
論文 参考訳(メタデータ) (2022-04-27T17:00:54Z) - What's in your hands? 3D Reconstruction of Generic Objects in Hands [49.12461675219253]
我々の研究は、単一のRGB画像からハンドヘルドオブジェクトを再構築することを目的としている。
通常、既知の3Dテンプレートを仮定し、問題を3Dポーズ推定に還元する以前の作業とは対照的に、我々の作業は3Dテンプレートを知らずに汎用的なハンドヘルドオブジェクトを再構成する。
論文 参考訳(メタデータ) (2022-04-14T17:59:02Z) - Leveraging Photometric Consistency over Time for Sparsely Supervised
Hand-Object Reconstruction [118.21363599332493]
本稿では,ビデオ中のフレームの粗いサブセットに対してのみアノテーションが利用できる場合に,時間とともに光度整合性を活用する手法を提案する。
本モデルでは,ポーズを推定することにより,手や物体を3Dで共同で再構成するカラーイメージをエンドツーエンドに訓練する。
提案手法は,3次元手動画像再構成の精度向上に有効であることを示す。
論文 参考訳(メタデータ) (2020-04-28T12:03:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。