論文の概要: CDAN: Convolutional Dense Attention-guided Network for Low-light Image
Enhancement
- arxiv url: http://arxiv.org/abs/2308.12902v2
- Date: Sat, 26 Aug 2023 14:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 10:53:24.378664
- Title: CDAN: Convolutional Dense Attention-guided Network for Low-light Image
Enhancement
- Title(参考訳): CDAN:低照度画像強調のための畳み込みDense Attention-Guided Network
- Authors: Hossein Shakibania, Sina Raoufi, Hassan Khotanlou
- Abstract要約: 低照度画像は、明度が低下し、色が変色し、細部が小さくなるという課題を生んでいる。
本稿では,低照度画像を改善するための新しいソリューションであるCDAN(Convolutional Dense Attention-guided Network)を紹介する。
CDANは自動エンコーダベースのアーキテクチャと、アテンション機構とスキップ接続によって補完される、畳み込みブロックと密集ブロックを統合している。
- 参考スコア(独自算出の注目度): 2.532202013576547
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Low-light images, characterized by inadequate illumination, pose challenges
of diminished clarity, muted colors, and reduced details. Low-light image
enhancement, an essential task in computer vision, aims to rectify these issues
by improving brightness, contrast, and overall perceptual quality, thereby
facilitating accurate analysis and interpretation. This paper introduces the
Convolutional Dense Attention-guided Network (CDAN), a novel solution for
enhancing low-light images. CDAN integrates an autoencoder-based architecture
with convolutional and dense blocks, complemented by an attention mechanism and
skip connections. This architecture ensures efficient information propagation
and feature learning. Furthermore, a dedicated post-processing phase refines
color balance and contrast. Our approach demonstrates notable progress compared
to state-of-the-art results in low-light image enhancement, showcasing its
robustness across a wide range of challenging scenarios. Our model performs
remarkably on benchmark datasets, effectively mitigating under-exposure and
proficiently restoring textures and colors in diverse low-light scenarios. This
achievement underscores CDAN's potential for diverse computer vision tasks,
notably enabling robust object detection and recognition in challenging
low-light conditions.
- Abstract(参考訳): 低照度画像は、照明が不十分で、明度が低下し、色が変色し、細部が小さくなる。
コンピュータビジョンの重要なタスクである低光度画像強調は、明るさ、コントラスト、全体的な知覚品質を改善し、正確な分析と解釈を容易にすることで、これらの問題を是正することを目的としている。
本稿では,低照度画像を改善するための新しいソリューションであるCDAN(Convolutional Dense Attention-guided Network)を紹介する。
cdanは自動エンコーダベースのアーキテクチャと畳み込みブロックと密集ブロックを統合し、アテンション機構とスキップ接続を補完する。
このアーキテクチャは、効率的な情報伝達と特徴学習を保証する。
さらに、専用の後処理フェーズは、色バランスとコントラストを精製する。
我々のアプローチは、低光度画像強調における最先端の成果と比較して顕著な進歩を示しており、幅広い挑戦的シナリオにおいてその堅牢性を示している。
本モデルでは,低照度環境でのテクスチャや色彩の復元を効果的に行うため,ベンチマークデータセットを著しく改善する。
この成果は、CDANの様々なコンピュータビジョンタスクの可能性を強調し、特に低照度環境に挑戦するオブジェクトの検出と認識を可能にする。
関連論文リスト
- A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - Diving into Darkness: A Dual-Modulated Framework for High-Fidelity
Super-Resolution in Ultra-Dark Environments [51.58771256128329]
本稿では,低照度超解像課題の性質を深く理解しようとする,特殊二変調学習フレームワークを提案する。
Illuminance-Semantic Dual Modulation (ISDM) コンポーネントを開発した。
包括的実験は、我々のアプローチが多様で挑戦的な超低照度条件に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-09-11T06:55:32Z) - Low-Light Image Enhancement with Illumination-Aware Gamma Correction and
Complete Image Modelling Network [69.96295927854042]
低照度環境は通常、情報の少ない大規模な暗黒地帯に繋がる。
本稿では,ガンマ補正の有効性を深層ネットワークのモデリング能力と統合することを提案する。
指数関数演算は高い計算複雑性をもたらすので、Taylor Series を用いてガンマ補正を近似することを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:46:51Z) - Division Gets Better: Learning Brightness-Aware and Detail-Sensitive
Representations for Low-Light Image Enhancement [10.899693396348171]
LCDBNetは、輝度調整ネットワーク(LAN)と色復元ネットワーク(CRN)の2つのブランチで構成されている。
LANは、長距離依存と局所的な注意相関を利用した輝度認識機能を学ぶ責任を負う。
CRNはマルチレベルウェーブレット分解によるディテールセンシティブな特徴の学習に重点を置いている。
最後に、融合ネットワークは、学習した特徴をブレンドして視覚的に印象的な画像を生成するように設計されている。
論文 参考訳(メタデータ) (2023-07-18T09:52:48Z) - SCRNet: a Retinex Structure-based Low-light Enhancement Model Guided by
Spatial Consistency [22.54951703413469]
本稿では,SCRNet(Spatial Consistency Retinex Network)と呼ばれる,新しい低照度画像強調モデルを提案する。
提案モデルでは, 空間的整合性の原理に着想を得て, チャネルレベル, セマンティックレベル, テクスチャレベルという3つのレベルの整合性を考慮した。
様々な低照度画像データセットに対する広範囲な評価は、提案したSCRNetが既存の最先端手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-05-14T03:32:19Z) - Diffusion in the Dark: A Diffusion Model for Low-Light Text Recognition [78.50328335703914]
ディフュージョン・イン・ザ・ダーク (Diffusion in the Dark, DiD) は、テキスト認識のための低照度画像再構成のための拡散モデルである。
実画像上での低照度テキスト認識において,Digital DiDがSOTAの低照度手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-03-07T23:52:51Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - Bridge the Vision Gap from Field to Command: A Deep Learning Network
Enhancing Illumination and Details [17.25188250076639]
我々は,明るさを調整し,細部を同時に強化する2ストリームフレームワークNEIDを提案する。
提案手法は,光強調 (LE), 細粒化 (DR), 特徴拡散 (FF) モジュールの3つの部分から構成される。
論文 参考訳(メタデータ) (2021-01-20T09:39:57Z) - Burst Photography for Learning to Enhance Extremely Dark Images [19.85860245798819]
本稿では,超暗い原画像からよりシャープで高精度なRGB画像を得るため,バースト撮影を活用することを目的とする。
提案するフレームワークのバックボーンは,高品質な出力を段階的に生成する,粗大なネットワークアーキテクチャである。
実験により,本手法は,より詳細で高画質な画像を生成することによって,最先端の手法よりも知覚的により満足な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2020-06-17T13:19:07Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。