論文の概要: Occupancy Planes for Single-view RGB-D Human Reconstruction
- arxiv url: http://arxiv.org/abs/2208.02817v1
- Date: Thu, 4 Aug 2022 17:59:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:09:56.514899
- Title: Occupancy Planes for Single-view RGB-D Human Reconstruction
- Title(参考訳): シングルビューRGB-Dヒト再建のための作業計画
- Authors: Xiaoming Zhao and Yuan-Ting Hu and Zhongzheng Ren and Alexander G.
Schwing
- Abstract要約: 暗黙的な機能を持つシングルビューRGB-Dヒト再構成は、しばしばポイント単位の分類として定式化される。
本稿では,カメラの視野フラストラムをスライスする平面上での占有率予測として,一視点のRGB-D人間の再構成を定式化できる占有面(OPlanes)表現を提案する。
- 参考スコア(独自算出の注目度): 120.5818162569105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single-view RGB-D human reconstruction with implicit functions is often
formulated as per-point classification. Specifically, a set of 3D locations
within the view-frustum of the camera are first projected independently onto
the image and a corresponding feature is subsequently extracted for each 3D
location. The feature of each 3D location is then used to classify
independently whether the corresponding 3D point is inside or outside the
observed object. This procedure leads to sub-optimal results because
correlations between predictions for neighboring locations are only taken into
account implicitly via the extracted features. For more accurate results we
propose the occupancy planes (OPlanes) representation, which enables to
formulate single-view RGB-D human reconstruction as occupancy prediction on
planes which slice through the camera's view frustum. Such a representation
provides more flexibility than voxel grids and enables to better leverage
correlations than per-point classification. On the challenging S3D data we
observe a simple classifier based on the OPlanes representation to yield
compelling results, especially in difficult situations with partial occlusions
due to other objects and partial visibility, which haven't been addressed by
prior work.
- Abstract(参考訳): 暗黙的機能を持つ単視点rgb-dヒト再構成はしばしば点単位の分類として定式化される。
具体的には、カメラのビューフラストラム内の一連の3D位置をまず画像上に独立して投影し、その後、各3D位置について対応する特徴を抽出する。
そして、各3D位置の特徴を用いて、対応する3Dポイントが観測対象の内外にあるかどうかを独立に分類する。
この手法は, 周辺位置の予測の相関関係を, 抽出した特徴を通して暗黙的にのみ考慮するため, 準最適結果をもたらす。
より正確な結果を得るために,カメラの視野フラストタルをスライスする平面上での占有率予測として,一視点のRGB-D人間の再構成を定式化できる占領面(OPlanes)表現を提案する。
このような表現はvoxelグリッドよりも柔軟性があり、ポイントごとの分類よりも相関をうまく活用できる。
難解なs3dデータでは,oplanes表現に基づく単純な分類器を観察し,特に他の物体による部分的閉塞や部分的視認性の困難な状況において,事前の作業では対処されていない説得力のある結果が得られる。
関連論文リスト
- Normal-guided Detail-Preserving Neural Implicit Functions for High-Fidelity 3D Surface Reconstruction [6.4279213810512665]
RGBまたはRGBD画像からニューラル暗黙表現を学習する現在の方法は、欠落した部分と詳細を持つ3D曲面を生成する。
本稿では,1次微分特性を持つニューラル表現のトレーニング,すなわち表面正規化が,高精度な3次元表面再構成をもたらすことを示す。
論文 参考訳(メタデータ) (2024-06-07T11:48:47Z) - Occ$^2$Net: Robust Image Matching Based on 3D Occupancy Estimation for
Occluded Regions [14.217367037250296]
Occ$2$Netは、3D占有率を用いて閉塞関係をモデル化し、閉塞領域の一致点を推測する画像マッチング手法である。
本手法は実世界とシミュレーションデータセットの両方で評価し,いくつかの指標における最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-14T13:09:41Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Neural Correspondence Field for Object Pose Estimation [67.96767010122633]
1枚のRGB画像から3次元モデルで剛体物体の6DoFポーズを推定する手法を提案する。
入力画像の画素で3次元オブジェクト座標を予測する古典的対応法とは異なり,提案手法はカメラフラストラムでサンプリングされた3次元クエリポイントで3次元オブジェクト座標を予測する。
論文 参考訳(メタデータ) (2022-07-30T01:48:23Z) - BiCo-Net: Regress Globally, Match Locally for Robust 6D Pose Estimation [32.49091033895255]
双方向対応マッピングネットワーク(BiCo-Net)は、典型的なポーズ回帰によって導かれる点雲を生成する。
局所的マッチングと直接ポーズ回帰による冗長なポーズ予測のアンサンブルは、ノイズ観測に対する最終的なポーズ出力をさらに洗練する。
論文 参考訳(メタデータ) (2022-05-07T03:37:33Z) - What's in your hands? 3D Reconstruction of Generic Objects in Hands [49.12461675219253]
我々の研究は、単一のRGB画像からハンドヘルドオブジェクトを再構築することを目的としている。
通常、既知の3Dテンプレートを仮定し、問題を3Dポーズ推定に還元する以前の作業とは対照的に、我々の作業は3Dテンプレートを知らずに汎用的なハンドヘルドオブジェクトを再構成する。
論文 参考訳(メタデータ) (2022-04-14T17:59:02Z) - Stochastic Modeling for Learnable Human Pose Triangulation [0.7646713951724009]
本研究では,3次元ポーズ三角測量のためのモデリングフレームワークを提案し,その性能を異なるデータセットと空間カメラアレンジメントで評価する。
提案したポーズ三角測量モデルは、異なるカメラアレンジメントと2つの公開データセット間の一般化に成功している。
論文 参考訳(メタデータ) (2021-10-01T09:26:25Z) - Object-Centric Multi-View Aggregation [86.94544275235454]
本稿では,オブジェクトのスパースなビュー集合を集約して,半単純3次元表現を容積特徴格子の形で計算する手法を提案する。
我々のアプローチの鍵となるのは、カメラのポーズを明示することなく、ビューを持ち上げることができるオブジェクト中心の標準3D座標システムである。
画素から標準座標系への対称対応マッピングの計算により、未知の領域への情報伝達がより良くなることを示す。
論文 参考訳(メタデータ) (2020-07-20T17:38:31Z) - Convolutional Occupancy Networks [88.48287716452002]
本稿では,オブジェクトと3Dシーンの詳細な再構築のための,より柔軟な暗黙的表現である畳み込み機能ネットワークを提案する。
畳み込みエンコーダと暗黙の占有デコーダを組み合わせることで、帰納的バイアスが組み込まれ、3次元空間における構造的推論が可能となる。
実験により,本手法は単一物体の微細な3次元再構成,大規模屋内シーンへのスケール,合成データから実データへの一般化を可能にした。
論文 参考訳(メタデータ) (2020-03-10T10:17:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。