論文の概要: HDSDF: Hybrid Directional and Signed Distance Functions for Fast Inverse
Rendering
- arxiv url: http://arxiv.org/abs/2203.16284v1
- Date: Wed, 30 Mar 2022 13:24:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 16:27:32.697689
- Title: HDSDF: Hybrid Directional and Signed Distance Functions for Fast Inverse
Rendering
- Title(参考訳): HDSDF:高速逆レンダリングのためのハイブリッド方向と符号付き距離関数
- Authors: Tarun Yenamandra and Ayush Tewari and Nan Yang and Florian Bernard and
Christian Theobalt and Daniel Cremers
- Abstract要約: 3D形状の暗黙的な神経表現は、シングルビューや複数ビューの3D再構成など、様々な用途に有用な強力な先行情報を形成する。
既存のニューラル表現の欠点は、レンダリングに複数のネットワーク評価が必要であることである。
我々は,方向距離関数(DDF)を付加した符号付き距離関数(SDF)に基づく新しいハイブリッド3次元オブジェクト表現を提案する。
- 参考スコア(独自算出の注目度): 103.80070163611917
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Implicit neural representations of 3D shapes form strong priors that are
useful for various applications, such as single and multiple view 3D
reconstruction. A downside of existing neural representations is that they
require multiple network evaluations for rendering, which leads to high
computational costs. This limitation forms a bottleneck particularly in the
context of inverse problems, such as image-based 3D reconstruction. To address
this issue, in this paper (i) we propose a novel hybrid 3D object
representation based on a signed distance function (SDF) that we augment with a
directional distance function (DDF), so that we can predict distances to the
object surface from any point on a sphere enclosing the object. Moreover, (ii)
using the proposed hybrid representation we address the multi-view consistency
problem common in existing DDF representations. We evaluate our novel hybrid
representation on the task of single-view depth reconstruction and show that
our method is several times faster compared to competing methods, while at the
same time achieving better reconstruction accuracy.
- Abstract(参考訳): 3次元形状の暗黙的な神経表現は、シングルビューやマルチビューの3d再構成など、様々な用途に有用な強い事前構造を形成する。
既存のニューラルネットワーク表現のマイナス面は、レンダリングに複数のネットワーク評価を必要とするため、計算コストが高くなることだ。
この制限は、画像ベースの3D再構成のような逆問題において特にボトルネックとなる。
この問題に対処するため、本稿では
i) 物体を囲む球面上の任意の点から物体表面への距離を予測できるように、方向距離関数(DDF)で拡張した符号付き距離関数(SDF)に基づく新しいハイブリッド3次元オブジェクト表現を提案する。
さらに
(ii)提案するハイブリッド表現を用いて,既存のddf表現に共通する多視点一貫性問題に対処する。
単視点深度復元作業における新しいハイブリッド表現を評価し,提案手法が競合手法に比べて数倍高速であると同時に,再現精度も向上していることを示す。
関連論文リスト
- Weakly-Supervised 3D Reconstruction of Clothed Humans via Normal Maps [1.6462601662291156]
そこで本研究では,2次元正規地図を用いた布地人の3次元再構築のための新しい深層学習手法を提案する。
一つのRGB画像またはマルチビュー画像から、我々のネットワークは、静止ポーズで体を囲む四面体メッシュ上で識別された符号付き距離関数(SDF)を推定する。
ネットワーク推論と3次元再構成の両方に対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-27T18:06:35Z) - ConRad: Image Constrained Radiance Fields for 3D Generation from a
Single Image [15.997195076224312]
単一のRGB画像から3Dオブジェクトを再構成する新しい手法を提案する。
提案手法は,最新の画像生成モデルを用いて隠れた3次元構造を推定する。
我々の3D再構成は入力に忠実なままであり、より一貫性のある3Dモデルを生成することを示す。
論文 参考訳(メタデータ) (2023-11-09T09:17:10Z) - iSDF: Real-Time Neural Signed Distance Fields for Robot Perception [64.80458128766254]
iSDFは実時間符号付き距離場再構成のための連続学習システムである。
より正確な再構築と、衝突コストと勾配のより良い近似を生成する。
論文 参考訳(メタデータ) (2022-04-05T15:48:39Z) - Implicit Neural Deformation for Multi-View Face Reconstruction [43.88676778013593]
マルチビューRGB画像から新しい3次元顔再構成法を提案する。
従来の3次元形態素モデルに基づく手法とは異なり,本手法は暗黙の表現を利用してリッチな幾何学的特徴を符号化する。
いくつかのベンチマークデータセットに対する実験結果から,提案手法は代替ベースラインよりも優れ,最先端の手法に比べて優れた顔再構成結果が得られることが示された。
論文 参考訳(メタデータ) (2021-12-05T07:02:53Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - Neural-Pull: Learning Signed Distance Functions from Point Clouds by
Learning to Pull Space onto Surfaces [68.12457459590921]
3次元点雲から連続曲面を再構成することは、3次元幾何処理の基本的な操作である。
textitNeural-Pullは、シンプルで高品質なSDFを実現する新しいアプローチです。
論文 参考訳(メタデータ) (2020-11-26T23:18:10Z) - Pix2Vox++: Multi-scale Context-aware 3D Object Reconstruction from
Single and Multiple Images [56.652027072552606]
Pix2Vox++という,単一ビューと複数ビューの3Dオブジェクト再構成のための新しいフレームワークを提案する。
良く設計されたエンコーダデコーダを用いて、各入力画像から粗い3Dボリュームを生成する。
次に、マルチスケールコンテキスト対応融合モジュールを導入し、全ての粗い3Dボリュームから異なる部分の高品質な再構成を適応的に選択し、融合した3Dボリュームを得る。
論文 参考訳(メタデータ) (2020-06-22T13:48:09Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - Atlas: End-to-End 3D Scene Reconstruction from Posed Images [13.154808583020229]
RGB画像の集合からTSDF(truncated signed distance function)を直接回帰することにより,シーンのエンドツーエンドな3D再構成手法を提案する。
2D CNNは、各画像から特徴を独立して抽出し、その特徴をバックプロジェクションし、ボクセルボリュームに蓄積する。
3D CNNは蓄積した特徴を洗練し、TSDF値を予測する。
論文 参考訳(メタデータ) (2020-03-23T17:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。