論文の概要: ExtremeNeRF: Few-shot Neural Radiance Fields Under Unconstrained
Illumination
- arxiv url: http://arxiv.org/abs/2303.11728v1
- Date: Tue, 21 Mar 2023 10:32:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 15:33:28.468756
- Title: ExtremeNeRF: Few-shot Neural Radiance Fields Under Unconstrained
Illumination
- Title(参考訳): extremenerf:unconstrainedluminumination条件下でのn-shotニューラルラミアンスフィールド
- Authors: SeokYeong Lee, JunYong Choi, Seungryong Kim, Ig-Jae Kim, Junghyun Cho
- Abstract要約: より実践的な環境で新しい視点を合成する新しい課題を提案する。
NeRFは、制約された照明下で撮影された大量のマルチビュー画像を必要とする。
閉塞型マルチビューアルベド整合性を利用したExtremeNeRFを提案する。
- 参考スコア(独自算出の注目度): 34.50622217192674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new challenge that synthesizes a novel view in a
more practical environment, where the number of input multi-view images is
limited and illumination variations are significant. Despite recent success,
neural radiance fields (NeRF) require a massive amount of input multi-view
images taken under constrained illuminations. To address the problem, we
suggest ExtremeNeRF, which utilizes occlusion-aware multiview albedo
consistency, supported by geometric alignment and depth consistency. We extract
intrinsic image components that should be illumination-invariant across
different views, enabling direct appearance comparison between the input and
novel view under unconstrained illumination. We provide extensive experimental
results for an evaluation of the task, using the newly built NeRF Extreme
benchmark, which is the first in-the-wild novel view synthesis benchmark taken
under multiple viewing directions and varying illuminations. The project page
is at https://seokyeong94.github.io/ExtremeNeRF/
- Abstract(参考訳): 本稿では,より実用的な環境で新しい視点を合成する新しい課題を提案する。
最近の成功にもかかわらず、ニューラルラジアンス場(NeRF)は、制約された照明下で撮影される大量の多視点画像を必要とする。
この問題を解決するために,オクルージョン対応マルチビューアルベド整合性を利用したExtremeNeRFを提案する。
異なる視点で照度不変でなければならない内在的画像成分を抽出し,無拘束照明下での入力と新規ビューの直接の外観比較を可能にした。
提案手法は,複数方向の照度と照度の変化を考慮に入れた最初の新規視界合成ベンチマークであるNeRF Extremeベンチマークを用いて,タスク評価のための広範な実験結果を提供する。
プロジェクトページはhttps://seokyeong94.github.io/ExtremeNeRF/にある。
関連論文リスト
- Sampling for View Synthesis: From Local Light Field Fusion to Neural Radiance Fields and Beyond [27.339452004523082]
局所光電場融合は、サンプルビューの不規則なグリッドから現実的なビュー合成を行うアルゴリズムを提案する。
我々は、最大4000倍のビューを用いて、Nyquistレートビューサンプリングの知覚品質を実現する。
スパースおよび単一画像ビュー合成に関する最近の研究結果のいくつかを再現する。
論文 参考訳(メタデータ) (2024-08-08T16:56:03Z) - MultiDiff: Consistent Novel View Synthesis from a Single Image [60.04215655745264]
MultiDiffは、単一のRGB画像からシーンを一貫した新しいビュー合成のための新しいアプローチである。
以上の結果から,MultiDiffは,課題の多いリアルタイムデータセットであるRealEstate10KとScanNetにおいて,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-26T17:53:51Z) - Learning Novel View Synthesis from Heterogeneous Low-light Captures [7.888623669945243]
我々は、不均一なビュー間で反射率が不変であるように、入力ビューから照明、反射、ノイズを分解することを提案する。
多視点にわたる異種輝度とノイズレベルに対処するために,照明の埋め込みを学習し,各ビューに対して個別にノイズマップを最適化する。
論文 参考訳(メタデータ) (2024-03-20T06:44:26Z) - SAMPLING: Scene-adaptive Hierarchical Multiplane Images Representation
for Novel View Synthesis from a Single Image [60.52991173059486]
単一画像からの新規ビュー合成のためのシーン適応型階層型多面体画像表現であるSAMPlingを紹介する。
提案手法は,KITTIデータセット上の単一画像を用いて,大規模非有界屋外シーンにおいてかなりの性能向上を示す。
論文 参考訳(メタデータ) (2023-09-12T15:33:09Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - SPARF: Neural Radiance Fields from Sparse and Noisy Poses [58.528358231885846]
SPARF(Sparse Pose Adjusting Radiance Field)を導入し,新規な視点合成の課題に対処する。
提案手法は、NeRFを共同学習し、カメラのポーズを洗練するために、多視点幾何学的制約を利用する。
論文 参考訳(メタデータ) (2022-11-21T18:57:47Z) - Crowdsampling the Plenoptic Function [56.10020793913216]
このようなデータから時間変動照明下での新しいビュー合成手法を提案する。
本稿では,新しいDeepMPI表現について紹介する。
本手法は従来のMPI法と同等のパララックスとビュー依存効果を合成し, 反射率の変化と光の時間変化を同時に補間する。
論文 参考訳(メタデータ) (2020-07-30T02:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。