論文の概要: Harnessing Multi-View Perspective of Light Fields for Low-Light Imaging
- arxiv url: http://arxiv.org/abs/2003.02438v2
- Date: Tue, 8 Dec 2020 11:16:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 07:27:39.036649
- Title: Harnessing Multi-View Perspective of Light Fields for Low-Light Imaging
- Title(参考訳): 低照度イメージングのための多視点光フィールドのハーネス化
- Authors: Mohit Lamba, Kranthi Kumar, Kaushik Mitra
- Abstract要約: 本稿では,L3F修復のためのディープニューラルネットワークを提案する。
提案したL3Fnetは、各LFビューの必要な視覚的拡張を行うだけでなく、ビュー間のエピポーラ幾何学も保持する。
また,L3Fnetは1フレーム画像の低照度化にも利用できることを示す。
- 参考スコア(独自算出の注目度): 26.264066009506678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Light Field (LF) offers unique advantages such as post-capture refocusing and
depth estimation, but low-light conditions limit these capabilities. To restore
low-light LFs we should harness the geometric cues present in different LF
views, which is not possible using single-frame low-light enhancement
techniques. We, therefore, propose a deep neural network for Low-Light Light
Field (L3F) restoration, which we refer to as L3Fnet. The proposed L3Fnet not
only performs the necessary visual enhancement of each LF view but also
preserves the epipolar geometry across views. We achieve this by adopting a
two-stage architecture for L3Fnet. Stage-I looks at all the LF views to encode
the LF geometry. This encoded information is then used in Stage-II to
reconstruct each LF view. To facilitate learning-based techniques for low-light
LF imaging, we collected a comprehensive LF dataset of various scenes. For each
scene, we captured four LFs, one with near-optimal exposure and ISO settings
and the others at different levels of low-light conditions varying from low to
extreme low-light settings. The effectiveness of the proposed L3Fnet is
supported by both visual and numerical comparisons on this dataset. To further
analyze the performance of low-light reconstruction methods, we also propose an
L3F-wild dataset that contains LF captured late at night with almost zero lux
values. No ground truth is available in this dataset. To perform well on the
L3F-wild dataset, any method must adapt to the light level of the captured
scene. To do this we propose a novel pre-processing block that makes L3Fnet
robust to various degrees of low-light conditions. Lastly, we show that L3Fnet
can also be used for low-light enhancement of single-frame images, despite it
being engineered for LF data. We do so by converting the single-frame DSLR
image into a form suitable to L3Fnet, which we call as pseudo-LF.
- Abstract(参考訳): ライトフィールド(lf)はポストキャプチャーのリフォーカスや深度推定などのユニークな利点を提供するが、低光度条件ではこれらの能力に制限がある。
低照度LFを復元するには、異なるLFビューに存在する幾何学的手がかりを利用する必要がある。
そこで我々は,L3Fnetと呼ぶLow-Light Light Field (L3F)修復のためのディープニューラルネットワークを提案する。
提案したL3Fnetは、各LFビューの必要な視覚的拡張を行うだけでなく、ビュー間のエピポーラ幾何学も保持する。
L3Fnetの2段階アーキテクチャを採用することで実現した。
Stage-IはLFの幾何学をエンコードするためにすべてのLFビューを見る。
この符号化された情報はStage-IIで各LFビューを再構築するために使用される。
低照度LF画像の学習技術を容易にするため,様々なシーンの総合的なLFデータセットを収集した。
各シーンで、私たちは4つのLFを捉えました。1つは、ほぼ最適露出とISO設定で、もう1つは、低照度から極低照度設定で異なるレベルの低照度条件で。
提案したL3Fnetの有効性は、このデータセットの視覚的および数値的比較によって支持される。
また,低照度再構成法の性能を解析するために,夜間に観測したLFをほぼゼロのラックス値で有するL3F-wildデータセットを提案する。
このデータセットには根拠の真実はありません。
L3F-wildデータセットでうまく機能するためには、任意のメソッドがキャプチャされたシーンの光レベルに適応する必要がある。
そこで我々は,l3fnetを様々な低照度条件で頑健にする新しい前処理ブロックを提案する。
最後に,L3FnetはLFデータのために設計されているにも関わらず,低光域の単一フレーム画像の拡張にも利用できることを示す。
単一フレーム DSLR 画像を L3Fnet に適した形式に変換して,それを擬似LF と呼ぶ。
関連論文リスト
- LGFN: Lightweight Light Field Image Super-Resolution using Local Convolution Modulation and Global Attention Feature Extraction [5.461017270708014]
本稿では,LGFN という軽量なモデルを提案する。このモデルでは,異なるビューの局所的特徴とグローバル的特徴と,LF 画像 SR のための異なるチャネルの特徴を統合している。
我々のモデルは0.45Mのパラメータと19.33GのFLOPを持つ。
論文 参考訳(メタデータ) (2024-09-26T11:53:25Z) - LFIC-DRASC: Deep Light Field Image Compression Using Disentangled Representation and Asymmetrical Strip Convolution [51.909036244222904]
ディスタングル表現と非対称ストリップ畳み込みを用いたエンドツーエンドのディープLF画像圧縮法を提案する。
実験の結果,提案したLFIC-DRASCは平均20.5%のビットレート削減を達成した。
論文 参考訳(メタデータ) (2024-09-18T05:33:42Z) - Diffusion-based Light Field Synthesis [50.24624071354433]
LFdiffは、LF合成に適した拡散ベースの生成フレームワークである。
本稿では,遠絡型雑音推定ネットワークDistgUnetを提案する。
広範囲な実験により、LFdiffは視覚的に快く、不均一に制御可能な光電場を合成する際に優れていることが示されている。
論文 参考訳(メタデータ) (2024-02-01T13:13:16Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - I See-Through You: A Framework for Removing Foreground Occlusion in Both
Sparse and Dense Light Field Images [25.21481624956202]
光フィールド(LF)カメラは、シーンからリッチな情報をキャプチャする。その情報を用いて、LF非閉塞(LF-DeOcc)タスクは、閉塞のないセンタービューイメージを再構成することを目的としている。
本稿では,(1)LF特徴抽出,(2)隠蔽領域の定義,(3)無塗布閉塞領域の3つの役割からなるフレームワークISTYを提案する。
実験において、定性的および定量的な結果から、提案手法はスパースおよび密度の高いLFデータセットにおいて最先端のLF-DeOcc法より優れていることが示された。
論文 参考訳(メタデータ) (2023-01-16T12:25:42Z) - Progressively-connected Light Field Network for Efficient View Synthesis [69.29043048775802]
本稿では、複雑な前方シーンのビュー合成のためのプログレッシブ・コネクテッド・ライトフィールド・ネットワーク(ProLiF)を提案する。
ProLiFは4Dライトフィールドをエンコードし、画像やパッチレベルの損失に対するトレーニングステップで大量の光線をレンダリングすることができる。
論文 参考訳(メタデータ) (2022-07-10T13:47:20Z) - Real-World Light Field Image Super-Resolution via Degradation Modulation [59.68036846233918]
本稿では,実世界のLF画像 SR の簡易かつ効果的な手法を提案する。
実際のLF画像の劣化過程を定式化するために,実用的なLF劣化モデルを開発した。
畳み込みニューラルネットワークは、SRプロセスの前に分解を組み込むように設計されている。
論文 参考訳(メタデータ) (2022-06-13T14:44:46Z) - Disentangling Light Fields for Super-Resolution and Disparity Estimation [67.50796924758221]
光フィールド(LF)カメラは光線の強度と方向の両方を記録し、3Dシーンを4DLF画像にエンコードする。
空間的・角的な情報は様々な相違で高度に絡み合っているため、畳み込みニューラルネットワーク(CNN)がLF画像を処理することは困難である。
本稿では,この結合した情報をLF画像処理のために切り離すための汎用メカニズムを提案する。
論文 参考訳(メタデータ) (2022-02-22T01:04:41Z) - Light field Rectification based on relative pose estimation [5.888941251567256]
ハンドヘルド光場(LF)カメラは3次元シーン再構成や深度推定などのコンピュータビジョンに特有の利点がある。
提案手法では,2台のハンドヘルドLFカメラで捉えた2台のLFをランダムな相対的なポーズで整列する。
高精度な補正のために,2つのLFカメラ間の相対回転と変換を推定するポーズ推定法も提案されている。
論文 参考訳(メタデータ) (2022-01-29T08:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。