論文の概要: Burst Photography for Learning to Enhance Extremely Dark Images
- arxiv url: http://arxiv.org/abs/2006.09845v2
- Date: Fri, 19 Nov 2021 20:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 21:02:40.384189
- Title: Burst Photography for Learning to Enhance Extremely Dark Images
- Title(参考訳): バースト撮影による極暗画像の学習
- Authors: Ahmet Serdar Karadeniz and Erkut Erdem and Aykut Erdem
- Abstract要約: 本稿では,超暗い原画像からよりシャープで高精度なRGB画像を得るため,バースト撮影を活用することを目的とする。
提案するフレームワークのバックボーンは,高品質な出力を段階的に生成する,粗大なネットワークアーキテクチャである。
実験により,本手法は,より詳細で高画質な画像を生成することによって,最先端の手法よりも知覚的により満足な結果をもたらすことが示された。
- 参考スコア(独自算出の注目度): 19.85860245798819
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capturing images under extremely low-light conditions poses significant
challenges for the standard camera pipeline. Images become too dark and too
noisy, which makes traditional enhancement techniques almost impossible to
apply. Recently, learning-based approaches have shown very promising results
for this task since they have substantially more expressive capabilities to
allow for improved quality. Motivated by these studies, in this paper, we aim
to leverage burst photography to boost the performance and obtain much sharper
and more accurate RGB images from extremely dark raw images. The backbone of
our proposed framework is a novel coarse-to-fine network architecture that
generates high-quality outputs progressively. The coarse network predicts a
low-resolution, denoised raw image, which is then fed to the fine network to
recover fine-scale details and realistic textures. To further reduce the noise
level and improve the color accuracy, we extend this network to a permutation
invariant structure so that it takes a burst of low-light images as input and
merges information from multiple images at the feature-level. Our experiments
demonstrate that our approach leads to perceptually more pleasing results than
the state-of-the-art methods by producing more detailed and considerably higher
quality images.
- Abstract(参考訳): 極めて低照度な条件下で画像を撮影することは、標準的なカメラパイプラインにとって大きな課題となる。
画像は暗すぎてノイズが多すぎるため、従来のエンハンスメント技術はほとんど適用できない。
最近、学習ベースのアプローチは、品質を改善するための表現力が大幅に向上するため、このタスクに非常に有望な結果をもたらしています。
本稿では,これらの研究に動機づけられ,バースト撮影による性能向上と,極めて暗い原画像からより鮮明で正確なrgb画像を得ることを目的としている。
提案するフレームワークのバックボーンは,高品質な出力を段階的に生成する,粗大なネットワークアーキテクチャである。
粗いネットワークは低解像度で分断された生画像を予測し、細かな細部とリアルなテクスチャを復元するために細かなネットワークに送られる。
ノイズレベルをさらに低減し、色精度を向上させるため、このネットワークを置換不変構造に拡張し、低照度の画像を入力としてバーストし、特徴レベルの複数の画像から情報をマージする。
実験により,我々のアプローチは,より詳細かつかなり高品質な画像を生成することにより,最先端の手法よりも知覚的に優れた結果をもたらすことを実証した。
関連論文リスト
- CDAN: Convolutional Dense Attention-guided Network for Low-light Image
Enhancement [2.532202013576547]
低照度画像は、明度が低下し、色が変色し、細部が小さくなるという課題を生んでいる。
本稿では,低照度画像を改善するための新しいソリューションであるCDAN(Convolutional Dense Attention-guided Network)を紹介する。
CDANは自動エンコーダベースのアーキテクチャと、アテンション機構とスキップ接続によって補完される、畳み込みブロックと密集ブロックを統合している。
論文 参考訳(メタデータ) (2023-08-24T16:22:05Z) - Simplifying Low-Light Image Enhancement Networks with Relative Loss
Functions [14.63586364951471]
FLW-Net(Fast and LightWeight Network)と2つの相対損失関数を導入し,低照度画像強調における学習を容易にする。
我々はまず、グローバルコントラストを得るための大きな受容領域の必要性の課題を認識した。
そこで我々は,これらの課題を克服するために,相対情報に基づく効率的なグローバル特徴情報抽出コンポーネントと2つの損失関数を提案する。
論文 参考訳(メタデータ) (2023-04-06T10:05:54Z) - DEANet: Decomposition Enhancement and Adjustment Network for Low-Light
Image Enhancement [8.328470427768695]
本稿では,低照度画像強調のためのRetinexに基づくDEANetを提案する。
画像の周波数情報とコンテンツ情報を3つのサブネットワークに結合する。
我々のモデルは、すべての低照度画像に対して優れたロバストな結果が得られる。
論文 参考訳(メタデータ) (2022-09-14T03:01:55Z) - High Dynamic Range and Super-Resolution from Raw Image Bursts [52.341483902624006]
本稿では,露光ブラケット付きハンドヘルドカメラで撮影した原写真からの高解像度・高ダイナミックレンジカラー画像の再構成について紹介する。
提案アルゴリズムは,画像復元における最先端の学習手法と比較して,メモリ要求の少ない高速なアルゴリズムである。
実験では、ハンドヘルドカメラで野生で撮影された実際の写真に最大4ドル(約4,800円)の超高解像度な要素で優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-29T13:31:28Z) - Designing An Illumination-Aware Network for Deep Image Relighting [69.750906769976]
本稿では、階層的なサンプリングから1つの画像からシーンを段階的にリライトするためのガイダンスに従うイルミネーション・アウェア・ネットワーク(IAN)を提案する。
さらに、物理レンダリングプロセスの近似として、イルミネーション・アウェア・残留ブロック(IARB)が設計されている。
実験の結果,提案手法は従来の最先端手法よりも定量的,定性的な照準結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-07-21T16:21:24Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - Zoom-to-Inpaint: Image Inpainting with High-Frequency Details [39.582275854002994]
高分解能で精錬し、出力を元の解像度に縮小する超解像法を提案します。
精細化ネットワークに高精細画像を導入することで、スペクトルバイアスによって通常滑らかになる細部を再構築することができる。
当社のズームイン、精緻化、ズームアウト戦略は、高解像度の監視とプログレッシブラーニングと組み合わせることで、高周波の詳細を高めるためのフレームワークに依存しないアプローチを構成します。
論文 参考訳(メタデータ) (2020-12-17T05:39:37Z) - Deep Bilateral Retinex for Low-Light Image Enhancement [96.15991198417552]
低照度画像は、低コントラスト、色歪み、測定ノイズによる視界の低下に悩まされる。
本稿では,低照度画像強調のための深層学習手法を提案する。
提案手法は最先端の手法と非常に競合し, 極めて低照度で撮影した画像の処理において, 他に比べて大きな優位性を有する。
論文 参考訳(メタデータ) (2020-07-04T06:26:44Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z) - Burst Denoising of Dark Images [19.85860245798819]
超暗い生画像からクリーンでカラフルなRGB画像を得るためのディープラーニングフレームワークを提案する。
我々のフレームワークのバックボーンは、プログレッシブな方法で高品質な出力を生成する新しい粗いネットワークアーキテクチャである。
実験により,提案手法は最先端の手法よりも知覚的により満足な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2020-03-17T17:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。