論文の概要: FIRe: Fast Inverse Rendering using Directional and Signed Distance
Functions
- arxiv url: http://arxiv.org/abs/2203.16284v3
- Date: Tue, 19 Dec 2023 09:12:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 03:36:02.644449
- Title: FIRe: Fast Inverse Rendering using Directional and Signed Distance
Functions
- Title(参考訳): FIRE:方向と符号付き距離関数を用いた高速逆レンダリング
- Authors: Tarun Yenamandra and Ayush Tewari and Nan Yang and Florian Bernard and
Christian Theobalt and Daniel Cremers
- Abstract要約: 指向性距離関数(DDF)と呼ばれる新しいニューラルシーン表現を導入する。
DDFは単位球上で定義され、任意の方向に沿って表面までの距離を予測する。
提案手法はDDFに基づいて,提案した深度マップから3次元形状を再構成する高速アルゴリズム (FIRe) を提案する。
- 参考スコア(独自算出の注目度): 97.5540646069663
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural 3D implicit representations learn priors that are useful for diverse
applications, such as single- or multiple-view 3D reconstruction. A major
downside of existing approaches while rendering an image is that they require
evaluating the network multiple times per camera ray so that the high
computational time forms a bottleneck for downstream applications. We address
this problem by introducing a novel neural scene representation that we call
the directional distance function (DDF). To this end, we learn a signed
distance function (SDF) along with our DDF model to represent a class of
shapes. Specifically, our DDF is defined on the unit sphere and predicts the
distance to the surface along any given direction. Therefore, our DDF allows
rendering images with just a single network evaluation per camera ray. Based on
our DDF, we present a novel fast algorithm (FIRe) to reconstruct 3D shapes
given a posed depth map. We evaluate our proposed method on 3D reconstruction
from single-view depth images, where we empirically show that our algorithm
reconstructs 3D shapes more accurately and it is more than 15 times faster (per
iteration) than competing methods.
- Abstract(参考訳): ニューラルな3D暗黙表現は、シングルビューや複数ビューの3D再構成のような多様なアプリケーションに有用な事前学習を行う。
イメージをレンダリングする既存のアプローチの大きな欠点は、高い計算時間が下流アプリケーションにとってボトルネックとなるように、カメラ光量当たりのネットワークを複数回評価する必要があることである。
本稿では,方向距離関数(DDF)と呼ばれるニューラルシーン表現を導入することで,この問題に対処する。
そこで我々は,DDFモデルとともに符号付き距離関数(SDF)を学習し,形状のクラスを表現する。
具体的には、DDFは単位球上で定義され、任意の方向に沿って表面までの距離を予測する。
したがって、ddfは1つのネットワーク評価で1つのカメラ光線で画像をレンダリングできる。
提案手法はDDFに基づいて,提案した深度マップから3次元形状を再構成する高速アルゴリズム (FIRe) を提案する。
提案手法は, 単視点深度画像からの3次元再構成において, アルゴリズムがより正確に3次元形状を再構成できることを実証的に示し, 競合する手法よりも15倍以上高速であることを示した。
関連論文リスト
- Weakly-Supervised 3D Reconstruction of Clothed Humans via Normal Maps [1.6462601662291156]
そこで本研究では,2次元正規地図を用いた布地人の3次元再構築のための新しい深層学習手法を提案する。
一つのRGB画像またはマルチビュー画像から、我々のネットワークは、静止ポーズで体を囲む四面体メッシュ上で識別された符号付き距離関数(SDF)を推定する。
ネットワーク推論と3次元再構成の両方に対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-27T18:06:35Z) - ConRad: Image Constrained Radiance Fields for 3D Generation from a
Single Image [15.997195076224312]
単一のRGB画像から3Dオブジェクトを再構成する新しい手法を提案する。
提案手法は,最新の画像生成モデルを用いて隠れた3次元構造を推定する。
我々の3D再構成は入力に忠実なままであり、より一貫性のある3Dモデルを生成することを示す。
論文 参考訳(メタデータ) (2023-11-09T09:17:10Z) - iSDF: Real-Time Neural Signed Distance Fields for Robot Perception [64.80458128766254]
iSDFは実時間符号付き距離場再構成のための連続学習システムである。
より正確な再構築と、衝突コストと勾配のより良い近似を生成する。
論文 参考訳(メタデータ) (2022-04-05T15:48:39Z) - Implicit Neural Deformation for Multi-View Face Reconstruction [43.88676778013593]
マルチビューRGB画像から新しい3次元顔再構成法を提案する。
従来の3次元形態素モデルに基づく手法とは異なり,本手法は暗黙の表現を利用してリッチな幾何学的特徴を符号化する。
いくつかのベンチマークデータセットに対する実験結果から,提案手法は代替ベースラインよりも優れ,最先端の手法に比べて優れた顔再構成結果が得られることが示された。
論文 参考訳(メタデータ) (2021-12-05T07:02:53Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - Neural-Pull: Learning Signed Distance Functions from Point Clouds by
Learning to Pull Space onto Surfaces [68.12457459590921]
3次元点雲から連続曲面を再構成することは、3次元幾何処理の基本的な操作である。
textitNeural-Pullは、シンプルで高品質なSDFを実現する新しいアプローチです。
論文 参考訳(メタデータ) (2020-11-26T23:18:10Z) - Pix2Vox++: Multi-scale Context-aware 3D Object Reconstruction from
Single and Multiple Images [56.652027072552606]
Pix2Vox++という,単一ビューと複数ビューの3Dオブジェクト再構成のための新しいフレームワークを提案する。
良く設計されたエンコーダデコーダを用いて、各入力画像から粗い3Dボリュームを生成する。
次に、マルチスケールコンテキスト対応融合モジュールを導入し、全ての粗い3Dボリュームから異なる部分の高品質な再構成を適応的に選択し、融合した3Dボリュームを得る。
論文 参考訳(メタデータ) (2020-06-22T13:48:09Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - Atlas: End-to-End 3D Scene Reconstruction from Posed Images [13.154808583020229]
RGB画像の集合からTSDF(truncated signed distance function)を直接回帰することにより,シーンのエンドツーエンドな3D再構成手法を提案する。
2D CNNは、各画像から特徴を独立して抽出し、その特徴をバックプロジェクションし、ボクセルボリュームに蓄積する。
3D CNNは蓄積した特徴を洗練し、TSDF値を予測する。
論文 参考訳(メタデータ) (2020-03-23T17:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。