論文の概要: AlignSDF: Pose-Aligned Signed Distance Fields for Hand-Object
Reconstruction
- arxiv url: http://arxiv.org/abs/2207.12909v1
- Date: Tue, 26 Jul 2022 13:58:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 12:53:27.256303
- Title: AlignSDF: Pose-Aligned Signed Distance Fields for Hand-Object
Reconstruction
- Title(参考訳): AlignSDF:手指再建のためのPose-Aligned Signed Distance Fields
- Authors: Zerui Chen, Yana Hasson, Cordelia Schmid, Ivan Laptev
- Abstract要約: ポーズと形状を両立させる共同学習フレームワークを提案する。
以上の結果から,SDFは形状の細部を再構築することに注力し,手・物体の復元精度を向上させることが示唆された。
- 参考スコア(独自算出の注目度): 76.12874759788298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work achieved impressive progress towards joint reconstruction of
hands and manipulated objects from monocular color images. Existing methods
focus on two alternative representations in terms of either parametric meshes
or signed distance fields (SDFs). On one side, parametric models can benefit
from prior knowledge at the cost of limited shape deformations and mesh
resolutions. Mesh models, hence, may fail to precisely reconstruct details such
as contact surfaces of hands and objects. SDF-based methods, on the other side,
can represent arbitrary details but are lacking explicit priors. In this work
we aim to improve SDF models using priors provided by parametric
representations. In particular, we propose a joint learning framework that
disentangles the pose and the shape. We obtain hand and object poses from
parametric models and use them to align SDFs in 3D space. We show that such
aligned SDFs better focus on reconstructing shape details and improve
reconstruction accuracy both for hands and objects. We evaluate our method and
demonstrate significant improvements over the state of the art on the
challenging ObMan and DexYCB benchmarks.
- Abstract(参考訳): 最近の研究は、モノクロカラー画像からの手や操作対象の関節再構築に目覚ましい進歩を遂げた。
既存の手法では、パラメトリックメッシュまたは符号付き距離場(SDF)という2つの代替表現に焦点を当てている。
一方、パラメトリックモデルは、限られた形状変形とメッシュ分解能のコストで、事前の知識から恩恵を受けることができる。
したがって、メッシュモデルは手や物体の接触面などの細部を正確に再構築することができない。
一方、SDFベースのメソッドは任意の詳細を表現できるが、明確な事前情報がない。
本研究では,パラメトリック表現による事前表現を用いてSDFモデルを改善することを目的とする。
特に,ポーズと形状を両立させる共同学習フレームワークを提案する。
パラメトリックモデルから手とオブジェクトのポーズを取得し,SDFを3次元空間に整列させる。
sdfは, 形状詳細の再構築や手や物体の復元精度の向上に重点を置いている。
我々は,ObMan および DexYCB ベンチマークを用いて,本手法の評価を行い,その技術状況に対する大幅な改善を示す。
関連論文リスト
- HOISDF: Constraining 3D Hand-Object Pose Estimation with Global Signed
Distance Fields [96.04424738803667]
HOISDFは手動ポーズ推定ネットワークである。
手とオブジェクトのSDFを利用して、完全な再構築ボリュームに対してグローバルで暗黙的な表現を提供する。
そこで, HOISDFは手動ポーズ推定ベンチマークにおいて, 最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2024-02-26T22:48:37Z) - DDF-HO: Hand-Held Object Reconstruction via Conditional Directed
Distance Field [82.81337273685176]
DDF-HOは、DDF(Directed Distance Field)を形状表現として活用する新しいアプローチである。
我々はランダムに複数の光線をサンプリングし、新しい2D線に基づく特徴集約方式を導入することにより、局所的・大域的特徴を収集する。
合成および実世界のデータセットの実験は、DFF-HOが全てのベースライン手法を大きなマージンで一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-08-16T09:06:32Z) - gSDF: Geometry-Driven Signed Distance Functions for 3D Hand-Object
Reconstruction [94.46581592405066]
我々は手の構造を利用してSDFによる形状復元の指導を行う。
我々は、ポーズ変換のキネマティック連鎖を予測し、SDFを高調波ハンドポーズと整列させる。
論文 参考訳(メタデータ) (2023-04-24T10:05:48Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - What's in your hands? 3D Reconstruction of Generic Objects in Hands [49.12461675219253]
我々の研究は、単一のRGB画像からハンドヘルドオブジェクトを再構築することを目的としている。
通常、既知の3Dテンプレートを仮定し、問題を3Dポーズ推定に還元する以前の作業とは対照的に、我々の作業は3Dテンプレートを知らずに汎用的なハンドヘルドオブジェクトを再構成する。
論文 参考訳(メタデータ) (2022-04-14T17:59:02Z) - Disentangled Implicit Shape and Pose Learning for Scalable 6D Pose
Estimation [44.8872454995923]
単一オートエンコーダを用いた複数オブジェクトの合成データに対する自己教師付き学習により,スケーラブルな6次元ポーズ推定のための新しい手法を提案する。
提案手法は,T-LESS と NOCS REAL275 という実データを持つ2つのマルチオブジェクトベンチマークで検証し,ポーズ推定精度と一般化の点で既存の RGB 法より優れていることを示す。
論文 参考訳(メタデータ) (2021-07-27T01:55:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。