論文の概要: Reconstructing Hand-Held Objects from Monocular Video
- arxiv url: http://arxiv.org/abs/2211.16835v1
- Date: Wed, 30 Nov 2022 09:14:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 17:05:24.097794
- Title: Reconstructing Hand-Held Objects from Monocular Video
- Title(参考訳): 単眼映像からのハンドヘルド物体の再構成
- Authors: Di Huang, Xiaopeng Ji, Xingyi He, Jiaming Sun, Tong He, Qing Shuai,
Wanli Ouyang, Xiaowei Zhou
- Abstract要約: 本稿では,モノクロ映像から手持ち物体を再構成する手法を提案する。
トレーニングされたネットワークによってオブジェクトの幾何学を直接予測する最近の多くの手法とは対照的に、提案手法ではオブジェクトに先行する学習を一切必要としない。
- 参考スコア(独自算出の注目度): 95.06750686508315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an approach that reconstructs a hand-held object from a
monocular video. In contrast to many recent methods that directly predict
object geometry by a trained network, the proposed approach does not require
any learned prior about the object and is able to recover more accurate and
detailed object geometry. The key idea is that the hand motion naturally
provides multiple views of the object and the motion can be reliably estimated
by a hand pose tracker. Then, the object geometry can be recovered by solving a
multi-view reconstruction problem. We devise an implicit neural
representation-based method to solve the reconstruction problem and address the
issues of imprecise hand pose estimation, relative hand-object motion, and
insufficient geometry optimization for small objects. We also provide a newly
collected dataset with 3D ground truth to validate the proposed approach.
- Abstract(参考訳): 本稿では,モノクロ映像から手持ち物体を再構成する手法を提案する。
トレーニングされたネットワークによってオブジェクトの形状を直接予測する最近の多くの手法とは対照的に、提案手法ではオブジェクトについて学習した事前の知識は必要とせず、より正確で詳細なオブジェクトの形状を復元することができる。
キーとなるアイデアは、手の動きは自然にオブジェクトの複数のビューを提供し、その動きはハンドポーズトラッカーによって確実に推定できるということである。
そして、多視点再構成問題を解くことにより、オブジェクト形状を復元することができる。
そこで我々は,再建問題の解決と,不正確な手ポーズ推定,相対的手対象運動,小物体の幾何最適化の課題に対処する暗黙的表現に基づく手法を考案した。
また,提案手法の有効性を検証するために,新たに収集した3次元基底真理データも提供する。
関連論文リスト
- EasyHOI: Unleashing the Power of Large Models for Reconstructing Hand-Object Interactions in the Wild [79.71523320368388]
本研究の目的は,手動物体のインタラクションを単一視点画像から再構築することである。
まず、手ポーズとオブジェクト形状を推定する新しいパイプラインを設計する。
最初の再構築では、事前に誘導された最適化方式を採用する。
論文 参考訳(メタデータ) (2024-11-21T16:33:35Z) - ShapeGraFormer: GraFormer-Based Network for Hand-Object Reconstruction from a Single Depth Map [11.874184782686532]
そこで本研究では, 現実的な3次元物体形状に対する最初のアプローチを提案し, 一つの深度マップから復元する。
我々のパイプラインは、入力されたボキセル化深度に1対1のマッピングを持つ、ボキセル化ハンドオブジェクト形状も予測する。
さらに、手動オブジェクトの相互作用に基づいて再構成された形状を洗練する別のGraFormerコンポーネントを追加する影響を示す。
論文 参考訳(メタデータ) (2023-10-18T09:05:57Z) - Learning Explicit Contact for Implicit Reconstruction of Hand-held
Objects from Monocular Images [59.49985837246644]
我々は,手持ちの物体を暗黙的に再構築する上で,明示的な方法で接触をモデル化する方法を示す。
まず,1つの画像から3次元手オブジェクトの接触を直接推定するサブタスクを提案する。
第2部では,ハンドメッシュ面から近傍の3次元空間へ推定された接触状態を拡散する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:59:26Z) - What's in your hands? 3D Reconstruction of Generic Objects in Hands [49.12461675219253]
我々の研究は、単一のRGB画像からハンドヘルドオブジェクトを再構築することを目的としている。
通常、既知の3Dテンプレートを仮定し、問題を3Dポーズ推定に還元する以前の作業とは対照的に、我々の作業は3Dテンプレートを知らずに汎用的なハンドヘルドオブジェクトを再構成する。
論文 参考訳(メタデータ) (2022-04-14T17:59:02Z) - Towards unconstrained joint hand-object reconstruction from RGB videos [81.97694449736414]
ハンドオブジェクト操作の再構築は、ロボット工学と人間のデモから学ぶ大きな可能性を秘めている。
まず,手動物体の相互作用をシームレスに処理できる学習不要な手動物体再構成手法を提案する。
論文 参考訳(メタデータ) (2021-08-16T12:26:34Z) - A Divide et Impera Approach for 3D Shape Reconstruction from Multiple
Views [49.03830902235915]
物体の3次元形状を1つまたは複数の画像から推定することは、最近のディープラーニングによるブレークスルーによって人気を集めている。
本稿では,与えられた視点からの可視情報を統合することで,視点変化の再構築に頼ることを提案する。
提案手法を検証するために,相対的なポーズ推定と3次元形状再構成の観点から,ShapeNet参照ベンチマークの総合評価を行った。
論文 参考訳(メタデータ) (2020-11-17T09:59:32Z) - Reconstruct, Rasterize and Backprop: Dense shape and pose estimation
from a single image [14.9851111159799]
本稿では,1枚の画像から6-DoFポーズとともに高密度物体再構成を行うシステムを提案する。
我々は、カメラフレームの3D再構成でループを閉じるために、差別化可能なレンダリング(特にロボティクス)の最近の進歩を活用している。
論文 参考訳(メタデータ) (2020-04-25T20:53:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。