論文の概要: Few-shot Neural Radiance Fields Under Unconstrained Illumination
- arxiv url: http://arxiv.org/abs/2303.11728v3
- Date: Mon, 18 Dec 2023 10:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 02:40:24.922505
- Title: Few-shot Neural Radiance Fields Under Unconstrained Illumination
- Title(参考訳): 非拘束照明下でのFew-shot Neural Radiance Field
- Authors: SeokYeong Lee, JunYong Choi, Seungryong Kim, Ig-Jae Kim, Junghyun Cho
- Abstract要約: 入力された多視点画像と様々な照明条件を限定した実用的な環境下での新規ビューイメージの合成に挑戦する。
このタスクの先駆的な作業の1つであるNeRFは、制約された照明下で撮影された多視点画像の広範なセットを要求する。
我々は,多視点アルベド整合性を利用したExtremeNeRFを提案する。
- 参考スコア(独自算出の注目度): 40.384916810850385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a new challenge for synthesizing novel view
images in practical environments with limited input multi-view images and
varying lighting conditions. Neural radiance fields (NeRF), one of the
pioneering works for this task, demand an extensive set of multi-view images
taken under constrained illumination, which is often unattainable in real-world
settings. While some previous works have managed to synthesize novel views
given images with different illumination, their performance still relies on a
substantial number of input multi-view images. To address this problem, we
suggest ExtremeNeRF, which utilizes multi-view albedo consistency, supported by
geometric alignment. Specifically, we extract intrinsic image components that
should be illumination-invariant across different views, enabling direct
appearance comparison between the input and novel view under unconstrained
illumination. We offer thorough experimental results for task evaluation,
employing the newly created NeRF Extreme benchmark-the first in-the-wild
benchmark for novel view synthesis under multiple viewing directions and
varying illuminations.
- Abstract(参考訳): 本稿では,入力された多視点画像と照明条件の異なる実環境における新しい視点画像の合成に関する新たな課題を提案する。
このタスクの先駆的作業の一つであるneural radiance fields(nerf)は、制約付き照明の下で撮影された多視点画像の広範なセットを要求する。
以前の作品では、与えられた画像を異なる照明で合成することに成功したが、その性能は依然としてかなりの数の入力された多視点画像に依存している。
この問題を解決するために,多視点アルベド整合性を利用したExtremeNeRFを提案する。
具体的には、異なる視点にまたがって照明不変であるべき固有画像成分を抽出し、制約のない照明下での入力と新規ビューの直接の外観比較を可能にする。
タスク評価には、新しいNeRF Extremeベンチマークを用いて、複数方向の新規視線合成と様々な照度を計測する。
関連論文リスト
- Sampling for View Synthesis: From Local Light Field Fusion to Neural Radiance Fields and Beyond [27.339452004523082]
局所光電場融合は、サンプルビューの不規則なグリッドから現実的なビュー合成を行うアルゴリズムを提案する。
我々は、最大4000倍のビューを用いて、Nyquistレートビューサンプリングの知覚品質を実現する。
スパースおよび単一画像ビュー合成に関する最近の研究結果のいくつかを再現する。
論文 参考訳(メタデータ) (2024-08-08T16:56:03Z) - MultiDiff: Consistent Novel View Synthesis from a Single Image [60.04215655745264]
MultiDiffは、単一のRGB画像からシーンを一貫した新しいビュー合成のための新しいアプローチである。
以上の結果から,MultiDiffは,課題の多いリアルタイムデータセットであるRealEstate10KとScanNetにおいて,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-26T17:53:51Z) - Learning Novel View Synthesis from Heterogeneous Low-light Captures [7.888623669945243]
我々は、不均一なビュー間で反射率が不変であるように、入力ビューから照明、反射、ノイズを分解することを提案する。
多視点にわたる異種輝度とノイズレベルに対処するために,照明の埋め込みを学習し,各ビューに対して個別にノイズマップを最適化する。
論文 参考訳(メタデータ) (2024-03-20T06:44:26Z) - SAMPLING: Scene-adaptive Hierarchical Multiplane Images Representation
for Novel View Synthesis from a Single Image [60.52991173059486]
単一画像からの新規ビュー合成のためのシーン適応型階層型多面体画像表現であるSAMPlingを紹介する。
提案手法は,KITTIデータセット上の単一画像を用いて,大規模非有界屋外シーンにおいてかなりの性能向上を示す。
論文 参考訳(メタデータ) (2023-09-12T15:33:09Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - SPARF: Neural Radiance Fields from Sparse and Noisy Poses [58.528358231885846]
SPARF(Sparse Pose Adjusting Radiance Field)を導入し,新規な視点合成の課題に対処する。
提案手法は、NeRFを共同学習し、カメラのポーズを洗練するために、多視点幾何学的制約を利用する。
論文 参考訳(メタデータ) (2022-11-21T18:57:47Z) - Crowdsampling the Plenoptic Function [56.10020793913216]
このようなデータから時間変動照明下での新しいビュー合成手法を提案する。
本稿では,新しいDeepMPI表現について紹介する。
本手法は従来のMPI法と同等のパララックスとビュー依存効果を合成し, 反射率の変化と光の時間変化を同時に補間する。
論文 参考訳(メタデータ) (2020-07-30T02:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。