論文の概要: ExtremeNeRF: Few-shot Neural Radiance Fields Under Unconstrained
Illumination
- arxiv url: http://arxiv.org/abs/2303.11728v1
- Date: Tue, 21 Mar 2023 10:32:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 15:33:28.468756
- Title: ExtremeNeRF: Few-shot Neural Radiance Fields Under Unconstrained
Illumination
- Title(参考訳): extremenerf:unconstrainedluminumination条件下でのn-shotニューラルラミアンスフィールド
- Authors: SeokYeong Lee, JunYong Choi, Seungryong Kim, Ig-Jae Kim, Junghyun Cho
- Abstract要約: より実践的な環境で新しい視点を合成する新しい課題を提案する。
NeRFは、制約された照明下で撮影された大量のマルチビュー画像を必要とする。
閉塞型マルチビューアルベド整合性を利用したExtremeNeRFを提案する。
- 参考スコア(独自算出の注目度): 34.50622217192674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new challenge that synthesizes a novel view in a
more practical environment, where the number of input multi-view images is
limited and illumination variations are significant. Despite recent success,
neural radiance fields (NeRF) require a massive amount of input multi-view
images taken under constrained illuminations. To address the problem, we
suggest ExtremeNeRF, which utilizes occlusion-aware multiview albedo
consistency, supported by geometric alignment and depth consistency. We extract
intrinsic image components that should be illumination-invariant across
different views, enabling direct appearance comparison between the input and
novel view under unconstrained illumination. We provide extensive experimental
results for an evaluation of the task, using the newly built NeRF Extreme
benchmark, which is the first in-the-wild novel view synthesis benchmark taken
under multiple viewing directions and varying illuminations. The project page
is at https://seokyeong94.github.io/ExtremeNeRF/
- Abstract(参考訳): 本稿では,より実用的な環境で新しい視点を合成する新しい課題を提案する。
最近の成功にもかかわらず、ニューラルラジアンス場(NeRF)は、制約された照明下で撮影される大量の多視点画像を必要とする。
この問題を解決するために,オクルージョン対応マルチビューアルベド整合性を利用したExtremeNeRFを提案する。
異なる視点で照度不変でなければならない内在的画像成分を抽出し,無拘束照明下での入力と新規ビューの直接の外観比較を可能にした。
提案手法は,複数方向の照度と照度の変化を考慮に入れた最初の新規視界合成ベンチマークであるNeRF Extremeベンチマークを用いて,タスク評価のための広範な実験結果を提供する。
プロジェクトページはhttps://seokyeong94.github.io/ExtremeNeRF/にある。
関連論文リスト
- CMC: Few-shot Novel View Synthesis via Cross-view Multiplane Consistency [18.101763989542828]
本稿では,入力ビュー間の奥行き認識一貫性を明確かつ効果的に構築する手法を提案する。
我々の重要な洞察は、同じ空間点を異なる入力ビューで繰り返しサンプリングすることで、ビュー間の相互作用を強化することができるということである。
単純かつ広範な実験により,提案手法は最先端の手法よりも優れた合成品質が得られることを示した。
論文 参考訳(メタデータ) (2024-02-26T09:04:04Z) - Appearance Codes using Joint Embedding Learning of Multiple Modalities [0.0]
このテクニックの大きな制限は、推論のすべてのシーンで、新しい外観コードを再訓練する必要があることである。
本研究では,異なるモダリティ間の対照的な損失制約を強制することにより,シーンの外観と構造に対する共同埋め込み空間を学習するフレームワークを提案する。
提案手法は,未知の画像に対する外観符号を学習することなく,類似した品質の世代を達成できることを示す。
論文 参考訳(メタデータ) (2023-11-19T21:24:34Z) - SAMPLING: Scene-adaptive Hierarchical Multiplane Images Representation
for Novel View Synthesis from a Single Image [60.52991173059486]
単一画像からの新規ビュー合成のためのシーン適応型階層型多面体画像表現であるSAMPlingを紹介する。
提案手法は,KITTIデータセット上の単一画像を用いて,大規模非有界屋外シーンにおいてかなりの性能向上を示す。
論文 参考訳(メタデータ) (2023-09-12T15:33:09Z) - TensoIR: Tensorial Inverse Rendering [53.51211939277516]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - SPARF: Neural Radiance Fields from Sparse and Noisy Poses [58.528358231885846]
SPARF(Sparse Pose Adjusting Radiance Field)を導入し,新規な視点合成の課題に対処する。
提案手法は、NeRFを共同学習し、カメラのポーズを洗練するために、多視点幾何学的制約を利用する。
論文 参考訳(メタデータ) (2022-11-21T18:57:47Z) - NeRF++: Analyzing and Improving Neural Radiance Fields [117.73411181186088]
ニューラル・レージアンス・フィールド(NeRF)は、様々なキャプチャ設定のための印象的なビュー合成結果を達成する。
NeRFは、ビュー不変不透明度とビュー依存カラーボリュームを表す多層パーセプトロンを一連のトレーニング画像に適合させる。
大規模3次元シーンにおける物体の360度捕獲にNeRFを適用する際のパラメトリゼーション問題に対処する。
論文 参考訳(メタデータ) (2020-10-15T03:24:14Z) - Crowdsampling the Plenoptic Function [56.10020793913216]
このようなデータから時間変動照明下での新しいビュー合成手法を提案する。
本稿では,新しいDeepMPI表現について紹介する。
本手法は従来のMPI法と同等のパララックスとビュー依存効果を合成し, 反射率の変化と光の時間変化を同時に補間する。
論文 参考訳(メタデータ) (2020-07-30T02:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。