論文の概要: LuSh-NeRF: Lighting up and Sharpening NeRFs for Low-light Scenes
- arxiv url: http://arxiv.org/abs/2411.06757v1
- Date: Mon, 11 Nov 2024 07:22:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:09:11.427224
- Title: LuSh-NeRF: Lighting up and Sharpening NeRFs for Low-light Scenes
- Title(参考訳): LuSh-NeRF:低照度シーンの照明・研削用NeRF
- Authors: Zefan Qu, Ke Xu, Gerhard Petrus Hancke, Rynson W. H. Lau,
- Abstract要約: 我々は,手持ちの低照度画像群からクリーンでシャープなNeRFを再構成できるLush-NeRFという新しいモデルを提案する。
LuSh-NeRFはシーン表現からノイズを分離するScene-Noise Decompositionモジュールを含む。
実験により、LuSh-NeRFは既存のアプローチよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 38.59630957057759
- License:
- Abstract: Neural Radiance Fields (NeRFs) have shown remarkable performances in producing novel-view images from high-quality scene images. However, hand-held low-light photography challenges NeRFs as the captured images may simultaneously suffer from low visibility, noise, and camera shakes. While existing NeRF methods may handle either low light or motion, directly combining them or incorporating additional image-based enhancement methods does not work as these degradation factors are highly coupled. We observe that noise in low-light images is always sharp regardless of camera shakes, which implies an implicit order of these degradation factors within the image formation process. To this end, we propose in this paper a novel model, named LuSh-NeRF, which can reconstruct a clean and sharp NeRF from a group of hand-held low-light images. The key idea of LuSh-NeRF is to sequentially model noise and blur in the images via multi-view feature consistency and frequency information of NeRF, respectively. Specifically, LuSh-NeRF includes a novel Scene-Noise Decomposition (SND) module for decoupling the noise from the scene representation and a novel Camera Trajectory Prediction (CTP) module for the estimation of camera motions based on low-frequency scene information. To facilitate training and evaluations, we construct a new dataset containing both synthetic and real images. Experiments show that LuSh-NeRF outperforms existing approaches. Our code and dataset can be found here: https://github.com/quzefan/LuSh-NeRF.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)は、高品質なシーン画像から新しいビュー画像を生成する際、顕著な性能を示した。
しかし、手持ちの低照度写真は、撮像された画像が低視認性、ノイズ、およびカメラの揺れに同時に苦しむため、NeRFに挑戦する。
既存のNeRF法は低照度でも運動でも処理できるが、これらの分解係数が高度に結合されているため、直接組み合わせたり、追加の画像ベース拡張法は機能しない。
低照度画像のノイズは、カメラの揺らぎによらず常に鋭く、画像形成過程におけるこれらの劣化要因の暗黙の順序を示す。
そこで本稿では,手持ちの低照度画像群からクリーンでシャープなNeRFを再構成できるLush-NeRFという新しいモデルを提案する。
LuSh-NeRFの鍵となるアイデアは、NeRFの多視点特徴整合と周波数情報によって、画像内のノイズとぼやけを逐次モデル化することである。
特に、LuSh-NeRFは、シーン表現からノイズを分離する新しいScene-Noise Decomposition(SND)モジュールと、低周波シーン情報に基づいてカメラモーションを推定する新しいCamera Trajectory Prediction(CTP)モジュールを含む。
トレーニングと評価を容易にするため,合成画像と実画像の両方を含む新しいデータセットを構築した。
実験により、LuSh-NeRFは既存のアプローチよりも優れていることが示された。
私たちのコードとデータセットは以下の通りです。
関連論文リスト
- CF-NeRF: Camera Parameter Free Neural Radiance Fields with Incremental
Learning [23.080474939586654]
我々は、新しいアンダーラインカメラパラメーターUnderlinefree Neural Radiance Field (CF-NeRF)を提案する。
CF-NeRFは3次元表現を漸進的に再構成し、動きからインクリメンタル構造にインスパイアされたカメラパラメータを復元する。
その結果、CF-NeRFはカメラ回転に頑健であり、事前情報や制約を伴わずに最先端の結果が得られることを示した。
論文 参考訳(メタデータ) (2023-12-14T09:09:31Z) - USB-NeRF: Unrolling Shutter Bundle Adjusted Neural Radiance Fields [7.671858441929298]
ニューラルラジアンスフィールド(USB-NeRF)のアンローリングシャッターバンドルについて提案する。
USB-NeRFは、回転シャッター歪みを補正し、NeRFの枠組みの下で同時に正確なカメラモーション軌跡を復元することができる。
我々のアルゴリズムは、RS画像のシーケンスから高忠実度高フレームレートのグローバルシャッタービデオの復元にも利用できる。
論文 参考訳(メタデータ) (2023-10-04T09:51:58Z) - Robust e-NeRF: NeRF from Sparse & Noisy Events under Non-Uniform Motion [67.15935067326662]
イベントカメラは低電力、低レイテンシ、高時間解像度、高ダイナミックレンジを提供する。
NeRFは効率的かつ効果的なシーン表現の第一候補と見なされている。
本稿では,移動イベントカメラからNeRFを直接かつ堅牢に再構成する新しい手法であるRobust e-NeRFを提案する。
論文 参考訳(メタデータ) (2023-09-15T17:52:08Z) - Lighting up NeRF via Unsupervised Decomposition and Enhancement [40.89359754872889]
そこで我々は,Low-Light NeRF(LLNeRF)と呼ばれる新しい手法を提案し,シーン表現を強化し,sRGB低照度画像から直接ノーマルライトノベルビューを合成する。
低照度シーンからの低ダイナミックレンジ(8ビット/チャネル)画像の集合を考慮し、適切な照明と鮮明な色と細部を持つ新しいビュー画像を作成することができる。
論文 参考訳(メタデータ) (2023-07-20T07:46:34Z) - From NeRFLiX to NeRFLiX++: A General NeRF-Agnostic Restorer Paradigm [57.73868344064043]
我々は、劣化駆動の視点間ミキサーを学習する一般的なNeRF-Agnostic restorerパラダイムであるNeRFLiXを提案する。
また、より強力な2段階のNeRF分解シミュレータとより高速なビューポイントミキサーを備えたNeRFLiX++を提案する。
NeRFLiX++は、ノイズの多い低解像度のNeRFレンダリングビューからフォトリアリスティックな超高解像度出力を復元することができる。
論文 参考訳(メタデータ) (2023-06-10T09:19:19Z) - BAD-NeRF: Bundle Adjusted Deblur Neural Radiance Fields [9.744593647024253]
我々は、新しいバンドルを調整した deblur Neural Radiance Fields (BAD-NeRF) を提案する。
BAD-NeRFは、激しい動きのぼやけた画像や不正確なカメラのポーズに対して堅牢である。
提案手法は、運動ぼかし画像の物理画像形成過程をモデル化し、NeRFのパラメータを共同で学習する。
論文 参考訳(メタデータ) (2022-11-23T10:53:37Z) - E-NeRF: Neural Radiance Fields from a Moving Event Camera [83.91656576631031]
理想的な画像からニューラルレイディアンス場(NeRF)を推定する手法はコンピュータビジョンコミュニティで広く研究されている。
本稿では,高速なイベントカメラからNeRFの形式でボリュームシーンを推定する最初の方法であるE-NeRFを提案する。
論文 参考訳(メタデータ) (2022-08-24T04:53:32Z) - NeRF in the Dark: High Dynamic Range View Synthesis from Noisy Raw
Images [37.917974033687464]
NeRFは、提案した入力画像のコレクションから高品質な新規ビュー合成技術である。
シーンのフルダイナミックレンジを保ちながら,直線的生画像を直接トレーニングするためにNeRFを変更した。
NRFは生雑音のゼロ平均分布に対して非常に頑健であることを示す。
論文 参考訳(メタデータ) (2021-11-26T18:59:47Z) - BARF: Bundle-Adjusting Neural Radiance Fields [104.97810696435766]
不完全なカメラポーズからNeRFを訓練するためのバンドル調整ニューラルラジアンスフィールド(BARF)を提案します。
BARFは、ニューラルネットワークシーンの表現を効果的に最適化し、大きなカメラのポーズミスを同時に解決する。
これにより、未知のカメラポーズからの映像シーケンスのビュー合成とローカライズが可能になり、視覚ローカライズシステムのための新しい道を開くことができる。
論文 参考訳(メタデータ) (2021-04-13T17:59:51Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。