論文の概要: Aleth-NeRF: Low-light Condition View Synthesis with Concealing Fields
- arxiv url: http://arxiv.org/abs/2303.05807v2
- Date: Sat, 30 Dec 2023 02:42:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 02:41:37.703266
- Title: Aleth-NeRF: Low-light Condition View Synthesis with Concealing Fields
- Title(参考訳): Aleth-NeRF:コンセプトフィールドを用いた低照度視野合成
- Authors: Ziteng Cui, Lin Gu, Xiao Sun, Xianzheng Ma, Yu Qiao, Tatsuya Harada
- Abstract要約: ビューアー中心のバニラNeRFは、表示方向の3D位置からの発光としてのみレンダリングプロセスを単純化する。
古代ギリシア人の排ガス理論に触発され、我々はバニラ・ネRFにわずかな修正を加え、低照度シーンの複数の視点で訓練した。
我々は、ボリュームレンダリングの段階で光の輸送を減らし、サロゲートの概念であるConcealing Fieldsを導入する。
- 参考スコア(独自算出の注目度): 65.96818069005145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Common capture low-light scenes are challenging for most computer vision
techniques, including Neural Radiance Fields (NeRF). Vanilla NeRF is
viewer-centred simplifies the rendering process only as light emission from 3D
locations in the viewing direction, thus failing to model the low-illumination
induced darkness. Inspired by the emission theory of ancient Greeks that visual
perception is accomplished by rays casting from eyes, we make slight
modifications on vanilla NeRF to train on multiple views of low-light scenes,
we can thus render out the well-lit scene in an unsupervised manner. We
introduce a surrogate concept, Concealing Fields, that reduces the transport of
light during the volume rendering stage. Specifically, our proposed method,
Aleth-NeRF, directly learns from the dark image to understand volumetric object
representation and concealing field under priors. By simply eliminating
Concealing Fields, we can render a single or multi-view well-lit image(s) and
gain superior performance over other 2D low-light enhancement methods.
Additionally, we collect the first paired LOw-light and normal-light Multi-view
(LOM) datasets for future research. This version is invalid, please refer to
our new AAAI version: arXiv:2312.09093
- Abstract(参考訳): 一般的な低照度シーンは、Neural Radiance Fields (NeRF)など、ほとんどのコンピュータビジョン技術では難しい。
ビューアー中心のバニラNeRFは、表示方向の3D位置からの発光としてのみレンダリングプロセスを単純化し、低照度誘起暗黒をモデル化することができない。
古代ギリシア人のエミッション理論に触発され、視覚知覚は目から放射される光によって達成され、我々はバニラのNeRFにわずかな修正を加えて、低照度シーンの複数のビューを訓練する。
ボリュームレンダリングの段階で光の輸送を減少させるサロゲートの概念であるConcealing Fieldsを導入する。
具体的には,提案手法であるAleth-NeRFを暗黒画像から直接学習して,前処理によるボリュームオブジェクトの表現と隠れフィールドの理解を行う。
Concealing Fieldsを単純に排除することで、シングルまたはマルチビューの well-lit イメージをレンダリングし、他の2次元低光強調法よりも優れた性能を得ることができる。
さらに,今後の研究のために,最初のLOw-light and normal-light Multi-view (LOM)データセットを収集する。
このバージョンは無効で、新しいAAAIバージョンを参照してください: arXiv:2312.09093
関連論文リスト
- PlatoNeRF: 3D Reconstruction in Plato's Cave via Single-View Two-Bounce Lidar [25.332440946211236]
単一視点からの3次元再構成は、単眼視からの曖昧さと閉鎖領域に関する情報の欠如により困難である。
単一光子アバランシェダイオードで捉えた飛行時間データを用いてこれらの制限を克服する。
我々は、制御された環境照明やシーンアルベドに頼らず、データの先行や依存なしに、可視・隠蔽幾何を再構築できることを実証した。
論文 参考訳(メタデータ) (2023-12-21T18:59:53Z) - Aleth-NeRF: Illumination Adaptive NeRF with Concealing Field Assumption [65.96818069005145]
照明効果を考慮した「コンシーリング場」の概念を導入する。
暗黒のシナリオでは、物体の放出は標準的な照明レベルを維持するが、レンダリング中に空気を横切ると減衰する。
評価のために、難解な照明条件下で得られた総合的な多視点データセットを提案する。
論文 参考訳(メタデータ) (2023-12-14T16:24:09Z) - Multi-Space Neural Radiance Fields [74.46513422075438]
既存のニューラルレージアンス場(NeRF)法は反射物体の存在に悩まされている。
並列部分空間における特徴場の群を用いてシーンを表現するマルチスペースニューラルレイディアンス場(MS-NeRF)を提案する。
提案手法は,高品質シーンのレンダリングにおいて,既存の単一空間NeRF法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-07T13:11:07Z) - ABLE-NeRF: Attention-Based Rendering with Learnable Embeddings for
Neural Radiance Field [20.986012773294714]
我々は,光線に沿ったボリュームに自己注意型フレームワークを導入することで,物理ベースのVRアプローチに代わる方法を提案する。
ABLE-NeRFと呼ばれるこの手法は、レンダリングにおける光沢のある表面のぼやけを著しく低減し、先行技術に欠ける現実的な半透明な表面を生成する。
論文 参考訳(メタデータ) (2023-03-24T05:34:39Z) - Physically-Based Editing of Indoor Scene Lighting from a Single Image [106.60252793395104]
本研究では,1つの画像から複雑な室内照明を推定深度と光源セグメンテーションマスクで編集する手法を提案する。
1)シーン反射率とパラメトリックな3D照明を推定する全体的シーン再構成法,2)予測からシーンを再レンダリングするニューラルレンダリングフレームワーク,である。
論文 参考訳(メタデータ) (2022-05-19T06:44:37Z) - Ray Priors through Reprojection: Improving Neural Radiance Fields for
Novel View Extrapolation [35.47411859184933]
本研究では,(1)トレーニング画像が対象をうまく表現できる,(2)トレーニング画像とテスト視点の分布との間には顕著な相違点がある,という新しい視点外挿設定について検討する。
ランダムな光線キャスティングポリシーを提案する。
観測された光線の視方向から予め計算された光アトラスは、外挿された視界のレンダリング品質をさらに高めることができる。
論文 参考訳(メタデータ) (2022-05-12T07:21:17Z) - NeRF++: Analyzing and Improving Neural Radiance Fields [117.73411181186088]
ニューラル・レージアンス・フィールド(NeRF)は、様々なキャプチャ設定のための印象的なビュー合成結果を達成する。
NeRFは、ビュー不変不透明度とビュー依存カラーボリュームを表す多層パーセプトロンを一連のトレーニング画像に適合させる。
大規模3次元シーンにおける物体の360度捕獲にNeRFを適用する際のパラメトリゼーション問題に対処する。
論文 参考訳(メタデータ) (2020-10-15T03:24:14Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。