論文の概要: DALE : Dark Region-Aware Low-light Image Enhancement
- arxiv url: http://arxiv.org/abs/2008.12493v1
- Date: Fri, 28 Aug 2020 06:14:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 02:21:58.250246
- Title: DALE : Dark Region-Aware Low-light Image Enhancement
- Title(参考訳): DALE : 暗黒領域を意識した低照度画像強調
- Authors: Dokyeong Kwon, Guisik Kim, Junseok Kwon
- Abstract要約: 暗域認識低光画像強調(DALE)と呼ばれる新しい低光画像強調手法を提案する。
本手法は, 複雑な処理を伴わずに, 超画素を用いて視覚的注意を効率的に推定することができる。
実験の結果,提案手法により暗黒領域を正確に同定し,定性的かつ定量的に最先端の手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 22.667044691227638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a novel low-light image enhancement method called
dark region-aware low-light image enhancement (DALE), where dark regions are
accurately recognized by the proposed visual attention module and their
brightness are intensively enhanced. Our method can estimate the visual
attention in an efficient manner using super-pixels without any complicated
process. Thus, the method can preserve the color, tone, and brightness of
original images and prevents normally illuminated areas of the images from
being saturated and distorted. Experimental results show that our method
accurately identifies dark regions via the proposed visual attention, and
qualitatively and quantitatively outperforms state-of-the-art methods.
- Abstract(参考訳): 本稿では,暗黒領域認識低光画像強調(DALE)と呼ばれる,暗黒領域を視覚的注意モジュールによって正確に認識し,その明るさを集中的に向上する,新しい低光画像強調手法を提案する。
複雑な処理を伴わずに超画素を用いて視覚的注意を効率的に推定することができる。
これにより、元の画像の色、トーン、明るさを保存でき、画像の通常照らされた領域が飽和したり歪んだりするのを防ぐことができる。
実験の結果,提案手法は暗黒領域を視覚的に正確に識別し,定性的かつ定量的に最先端の手法を上回っていることがわかった。
関連論文リスト
- Inhomogeneous illumination image enhancement under ex-tremely low visibility condition [3.534798835599242]
濃霧を通した画像は、物体の検出や認識の曖昧化といったアプリケーションに不可欠な視覚情報を欠いているため、従来の画像処理手法を妨げている。
本稿では,構造微分・積分フィルタ(F)に基づく背景照明を適応的にフィルタし,信号情報のみを向上させる手法を提案する。
提案手法は, 極めて低視認性条件下で信号の明瞭度を著しく向上し, 既存の技術よりも優れており, 深部霧画像への応用に大きく貢献することを示した。
論文 参考訳(メタデータ) (2024-04-26T16:09:42Z) - Delving into Dark Regions for Robust Shadow Detection [47.60700654394781]
最先端のディープメソッドは、暗黒領域の非シャドウピクセルとシャドウピクセルを区別する際のエラー率が高い傾向にある。
そこで我々は,まず画像全体を通してグローバルな文脈的手がかりを学習し,次に暗黒領域に拡大して局所的な影表現を学習する,新しいシャドウ検出手法を提案する。
論文 参考訳(メタデータ) (2024-02-21T09:07:07Z) - Revealing Shadows: Low-Light Image Enhancement Using Self-Calibrated
Illumination [4.913568097686369]
自己校正イルミネーション(Self-Calibrated Illumination, SCI)は、当初RGB画像向けに開発された戦略である。
我々はSCI法を用いて、低照度条件下で通常失われる詳細を強調・明らかにする。
この選択的照明強調方法は、色情報をそのまま残し、画像の色整合性を保つ。
論文 参考訳(メタデータ) (2023-12-23T08:49:19Z) - Low-Light Image Enhancement with Illumination-Aware Gamma Correction and
Complete Image Modelling Network [69.96295927854042]
低照度環境は通常、情報の少ない大規模な暗黒地帯に繋がる。
本稿では,ガンマ補正の有効性を深層ネットワークのモデリング能力と統合することを提案する。
指数関数演算は高い計算複雑性をもたらすので、Taylor Series を用いてガンマ補正を近似することを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:46:51Z) - Reflectance-Guided, Contrast-Accumulated Histogram Equalization [31.060143365318623]
そこで本研究では,輝度向上のためのデータ依存要求に適応するヒストグラム等化法を提案する。
この方法は、画像コンテキストによって提供される空間情報を、識別的ヒストグラム等化のための密度推定に組み込む。
論文 参考訳(メタデータ) (2022-09-14T04:14:30Z) - Designing An Illumination-Aware Network for Deep Image Relighting [69.750906769976]
本稿では、階層的なサンプリングから1つの画像からシーンを段階的にリライトするためのガイダンスに従うイルミネーション・アウェア・ネットワーク(IAN)を提案する。
さらに、物理レンダリングプロセスの近似として、イルミネーション・アウェア・残留ブロック(IARB)が設計されている。
実験の結果,提案手法は従来の最先端手法よりも定量的,定性的な照準結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-07-21T16:21:24Z) - Unsupervised Night Image Enhancement: When Layer Decomposition Meets
Light-Effects Suppression [67.7508230688415]
層分解ネットワークと光効果抑制ネットワークを統合した教師なし手法を提案する。
本手法は,夜間光効果の抑制と暗黒領域の強度向上において,最先端の手法よりも優れる。
論文 参考訳(メタデータ) (2022-07-21T16:10:24Z) - Deep Bilateral Retinex for Low-Light Image Enhancement [96.15991198417552]
低照度画像は、低コントラスト、色歪み、測定ノイズによる視界の低下に悩まされる。
本稿では,低照度画像強調のための深層学習手法を提案する。
提案手法は最先端の手法と非常に競合し, 極めて低照度で撮影した画像の処理において, 他に比べて大きな優位性を有する。
論文 参考訳(メタデータ) (2020-07-04T06:26:44Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。