論文の概要: SupeRVol: Super-Resolution Shape and Reflectance Estimation in Inverse
Volume Rendering
- arxiv url: http://arxiv.org/abs/2212.04968v1
- Date: Fri, 9 Dec 2022 16:30:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 15:29:51.162643
- Title: SupeRVol: Super-Resolution Shape and Reflectance Estimation in Inverse
Volume Rendering
- Title(参考訳): SupeRVol:逆ボリュームレンダリングにおける超解像形状と反射率推定
- Authors: Mohammed Brahimi, Bjoern Haefner, Tarun Yenamandra, Bastian Goldluecke
and Daniel Cremers
- Abstract要約: SupeRVolは、超高解像度でカラー画像の集合から3次元形状と材料パラメータを復元する逆レンダリングパイプラインである。
個々の入力画像よりもシャープな再構成を生成し、低解像度画像からの3Dモデリングに最適である。
- 参考スコア(独自算出の注目度): 42.0782248214221
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an end-to-end inverse rendering pipeline called SupeRVol that
allows us to recover 3D shape and material parameters from a set of color
images in a super-resolution manner. To this end, we represent both the
bidirectional reflectance distribution function (BRDF) and the signed distance
function (SDF) by multi-layer perceptrons. In order to obtain both the surface
shape and its reflectance properties, we revert to a differentiable volume
renderer with a physically based illumination model that allows us to decouple
reflectance and lighting. This physical model takes into account the effect of
the camera's point spread function thereby enabling a reconstruction of shape
and material in a super-resolution quality. Experimental validation confirms
that SupeRVol achieves state of the art performance in terms of inverse
rendering quality. It generates reconstructions that are sharper than the
individual input images, making this method ideally suited for 3D modeling from
low-resolution imagery.
- Abstract(参考訳): 超高解像度のカラー画像から3次元形状と材料パラメータを復元できるsupervolと呼ばれるエンドツーエンドの逆レンダリングパイプラインを提案する。
この目的のために,両方向反射率分布関数 (BRDF) と符号付き距離関数 (SDF) を多層パーセプトロンで表現する。
表面形状と反射特性の両方を得るため、反射率と照明を分離できる物理ベースの照明モデルを用いて、微分可能なボリュームレンダラに戻す。
この物理モデルは、カメラの点展開機能の影響を考慮に入れ、超高解像度の品質の形状と材料の再構成を可能にする。
実験による検証により,SupeRVolが逆レンダリング品質の面で技術性能の状態を達成できることが確認された。
個々の入力画像よりもシャープな再構成を生成し、低解像度画像からの3Dモデリングに最適である。
関連論文リスト
- NeRSP: Neural 3D Reconstruction for Reflective Objects with Sparse Polarized Images [62.752710734332894]
NeRSPはスパース偏光画像を用いた反射面のニューラル3次元再構成技術である。
偏光画像形成モデルと多視点方位整合性から測光的および幾何学的手がかりを導出する。
我々は6つのビューのみを入力として、最先端の表面再構成結果を達成する。
論文 参考訳(メタデータ) (2024-06-11T09:53:18Z) - UniSDF: Unifying Neural Representations for High-Fidelity 3D
Reconstruction of Complex Scenes with Reflections [92.38975002642455]
大規模な複雑なシーンをリフレクションで再構成できる汎用3次元再構成手法UniSDFを提案する。
提案手法は,複雑な大規模シーンを細部と反射面で頑健に再構築することができる。
論文 参考訳(メタデータ) (2023-12-20T18:59:42Z) - RNb-NeuS: Reflectance and Normal-based Multi-View 3D Reconstruction [3.1820300989695833]
本稿では,光度ステレオにより得られる多視点反射率と正規写像を統合するための多目的パラダイムを提案する。
提案手法では, 反射率と正規度の画素ワイドな共同パラメータ化を, 放射光のベクトルとして用いた。
これは、高い曲率または低い視認性を持つ領域の詳細な3D再構成を大幅に改善する。
論文 参考訳(メタデータ) (2023-12-02T19:49:27Z) - Anti-Aliased Neural Implicit Surfaces with Encoding Level of Detail [54.03399077258403]
本稿では,高頻度幾何細部リカバリとアンチエイリアス化された新しいビューレンダリングのための効率的なニューラル表現であるLoD-NeuSを提案する。
我々の表現は、光線に沿った円錐状のフラストラム内の多面体化から空間特徴を集約する。
論文 参考訳(メタデータ) (2023-09-19T05:44:00Z) - Inverse Rendering of Translucent Objects using Physical and Neural
Renderers [13.706425832518093]
本研究では,半透明物体の1対の撮像画像のみから3次元形状,空間的反射率,均質散乱パラメータ,環境照度を推定する逆モデルを提案する。
2つの再構成は微分可能であるため、パラメータ推定を補助するために再構成損失を計算することができる。
我々は117Kシーンからなる半透明物体の大規模合成データセットを構築した。
論文 参考訳(メタデータ) (2023-05-15T04:03:11Z) - Relightify: Relightable 3D Faces from a Single Image via Diffusion
Models [86.3927548091627]
単一画像からの3次元顔BRDF再構成を高精度に行うために,拡散モデルを用いた最初のアプローチを提案する。
既存の手法とは対照的に,観測されたテクスチャを直接入力画像から取得することで,より忠実で一貫した推定が可能となる。
論文 参考訳(メタデータ) (2023-05-10T11:57:49Z) - Multi-View Neural Surface Reconstruction with Structured Light [7.709526244898887]
微分可能レンダリング(DR)に基づく3次元オブジェクト再構成はコンピュータビジョンにおいて活発な研究課題である。
DRに基づく多視点3Dオブジェクト再構成において,構造化光(SL)を用いたアクティブセンシングを導入し,任意のシーンやカメラポーズの未知の形状と外観を学習する。
本手法は, テクスチャレス領域における高い再現精度を実現し, カメラポーズキャリブレーションの労力を削減する。
論文 参考訳(メタデータ) (2022-11-22T03:10:46Z) - AvatarMe++: Facial Shape and BRDF Inference with Photorealistic
Rendering-Aware GANs [119.23922747230193]
そこで本研究では,レンダリング可能な3次元顔形状とBRDFの再構成を,単一の"in-the-wild"画像から実現した最初の手法を提案する。
本手法は,1枚の低解像度画像から,高解像度の3次元顔の再構成を行う。
論文 参考訳(メタデータ) (2021-12-11T11:36:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。