論文の概要: ALEN: An Adaptive Dual-Approach for Enhancing Uniform and Non-Uniform Low-Light Images
- arxiv url: http://arxiv.org/abs/2407.19708v2
- Date: Mon, 09 Dec 2024 18:04:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:49:05.000697
- Title: ALEN: An Adaptive Dual-Approach for Enhancing Uniform and Non-Uniform Low-Light Images
- Title(参考訳): ALEN:UniformとNon-Uniformの低照度画像をエンハンスするための適応型デュアルアプリケーション
- Authors: Ezequiel Perez-Zarate, Oscar Ramos-Soto, Chunxiao Liu, Diego Oliva, Marco Perez-Cisneros,
- Abstract要約: 低照度画像強調は、最適な照明条件下で撮影された画像の可視性と品質を向上させるために不可欠である。
最近のディープラーニングベースのアプローチは、有効ではあるが、さまざまなデータセットの一般化に苦戦している。
ALENは,局所照明とグローバル照明の強化の必要性を判定するために,分類機構を利用した新しい手法である。
- 参考スコア(独自算出の注目度): 10.957431540794836
- License:
- Abstract: Low-light image enhancement is vital for improving the visibility and quality of images captured under suboptimal lighting conditions. Traditional methods often fail to adequately capture local lighting variations and enhance both textural and chromatic details. Recent deep learning-based approaches, while effective, still struggle with generalization across diverse datasets, leading to noise amplification and unnatural color saturation. To address these challenges, the Adaptive Light Enhancement Network (ALEN) is introduced, a novel method that utilizes a classification mechanism to determine whether local or global illumination enhancement is required. ALEN integrates the Swin Light-Classification Transformer (SLCformer) for illuminance categorization, complemented by the Single-Channel Network (SCNet) and Multi-Channel Network (MCNet) for precise illumination and color estimation, respectively. Extensive experiments on publicly available datasets demonstrate ALEN's robust generalization capabilities, outperforming state-of-the-art methods in both quantitative metrics and qualitative assessments. Furthermore, ALEN not only enhances image quality but also improves the performance of high-level vision tasks such as semantic segmentation, showcasing its broader applicability and potential impact. The code for this method and the datasets are available at https://github.com/xingyumex/ALEN}{https://github.com/xingyumex/ALEN
- Abstract(参考訳): 低照度画像強調は、最適な照明条件下で撮影された画像の可視性と品質を向上させるために不可欠である。
伝統的な方法では、局所的な照明の変動を適切に捉え、テクスチャと彩色の両方の細部を強化することができないことが多い。
最近のディープラーニングベースのアプローチは、効果はあるものの、さまざまなデータセットの一般化に苦慮し、ノイズの増幅と不自然な色の飽和につながっている。
これらの課題に対処するために、局所照明とグローバル照明の強化が必要かどうかを分類する手法である適応光強調ネットワーク(ALEN)を導入している。
ALENは、Swin Light-Classification Transformer (SLCformer) を照明分類用に統合し、SCNet(Single-Channel Network)とMCNet(Multi-Channel Network)によって補完され、それぞれ正確な照明と色推定を行う。
公開されているデータセットに関する大規模な実験は、ALENの堅牢な一般化能力を示し、定量測定と定性評価の両方において最先端の手法を上回っている。
さらに、ALENは画像品質の向上だけでなく、セマンティックセグメンテーションなどのハイレベルな視覚タスクの性能向上も図っている。
このメソッドとデータセットのコードはhttps://github.com/xingyumex/ALEN}{https://github.com/xingyumex/ALENで入手できる。
関連論文リスト
- CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - Dimma: Semi-supervised Low Light Image Enhancement with Adaptive Dimming [0.728258471592763]
自然色を維持しながら低照度画像を強調することは、カメラ処理のバリエーションによって難しい問題である。
そこで我々はDimmaを提案する。Dimmaは、画像対の小さなセットを利用して、任意のカメラと整合する半教師付きアプローチである。
そこで我々は,照明の違いに基づいて,シーンの歪み色を生成する畳み込み混合密度ネットワークを導入することで実現した。
論文 参考訳(メタデータ) (2023-10-14T17:59:46Z) - Diving into Darkness: A Dual-Modulated Framework for High-Fidelity
Super-Resolution in Ultra-Dark Environments [51.58771256128329]
本稿では,低照度超解像課題の性質を深く理解しようとする,特殊二変調学習フレームワークを提案する。
Illuminance-Semantic Dual Modulation (ISDM) コンポーネントを開発した。
包括的実験は、我々のアプローチが多様で挑戦的な超低照度条件に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-09-11T06:55:32Z) - Improving Lens Flare Removal with General Purpose Pipeline and Multiple
Light Sources Recovery [69.71080926778413]
フレアアーティファクトは、画像の視覚的品質と下流のコンピュータビジョンタスクに影響を与える。
現在の方法では、画像信号処理パイプラインにおける自動露光やトーンマッピングは考慮されていない。
本稿では、ISPを再検討し、より信頼性の高い光源回収戦略を設計することで、レンズフレア除去性能を向上させるソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-31T04:58:17Z) - CDAN: Convolutional dense attention-guided network for low-light image enhancement [2.2530496464901106]
低照度画像は、明度が低下し、色が変色し、細部が小さくなるという課題を生んでいる。
本稿では,低照度画像を改善するための新しいソリューションであるCDAN(Convolutional Dense Attention-guided Network)を紹介する。
CDANは自動エンコーダベースのアーキテクチャと、アテンション機構とスキップ接続によって補完される、畳み込みブロックと密集ブロックを統合している。
論文 参考訳(メタデータ) (2023-08-24T16:22:05Z) - Low-Light Image Enhancement with Illumination-Aware Gamma Correction and
Complete Image Modelling Network [69.96295927854042]
低照度環境は通常、情報の少ない大規模な暗黒地帯に繋がる。
本稿では,ガンマ補正の有効性を深層ネットワークのモデリング能力と統合することを提案する。
指数関数演算は高い計算複雑性をもたらすので、Taylor Series を用いてガンマ補正を近似することを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:46:51Z) - Self-Aligned Concave Curve: Illumination Enhancement for Unsupervised
Adaptation [36.050270650417325]
ハイレベルビジョンのための学習可能な照明強調モデルを提案する。
実際のカメラ応答関数にインスパイアされた照明強調関数は凹凸曲線であると仮定する。
我々のモデルアーキテクチャとトレーニングデザインは相互に恩恵を受け、強力な教師なし正規-低照度適応フレームワークを形成する。
論文 参考訳(メタデータ) (2022-10-07T19:32:55Z) - Designing An Illumination-Aware Network for Deep Image Relighting [69.750906769976]
本稿では、階層的なサンプリングから1つの画像からシーンを段階的にリライトするためのガイダンスに従うイルミネーション・アウェア・ネットワーク(IAN)を提案する。
さらに、物理レンダリングプロセスの近似として、イルミネーション・アウェア・残留ブロック(IARB)が設計されている。
実験の結果,提案手法は従来の最先端手法よりも定量的,定性的な照準結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-07-21T16:21:24Z) - Improving Aerial Instance Segmentation in the Dark with Self-Supervised
Low Light Enhancement [6.500738558466833]
空中画像の低照度条件は、視覚ベースのアプリケーションの性能に悪影響を及ぼす。
自己監督型で低照度画像を高めることができる新しい手法を提案する。
GANを用いた新しい低照度航空データセットも提案する。
論文 参考訳(メタデータ) (2021-02-10T12:24:40Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。