論文の概要: Entropy-Driven Genetic Optimization for Deep-Feature-Guided Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2505.11246v1
- Date: Fri, 16 May 2025 13:40:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:15.165023
- Title: Entropy-Driven Genetic Optimization for Deep-Feature-Guided Low-Light Image Enhancement
- Title(参考訳): エントロピー駆動型遺伝的最適化による奥行き誘導低光画像強調
- Authors: Nirjhor Datta, Afroza Akther, M. Sohel Rahman,
- Abstract要約: NSGA-IIアルゴリズムによって導かれる、教師なし、ファジィにインスパイアされた画像強調フレームワークを提案する。
我々は,複数の目標,すなわち画像エントロピーの増大,知覚的類似性の向上,適切な明るさを維持するために,GPU加速NSGA-IIアルゴリズムを用いる。
本モデルでは, 平均BRISQUEとNIQEのスコアが19.82と3.652であり, 全ての未ペアデータセットにおいて優れた性能を示す。
- 参考スコア(独自算出の注目度): 1.0428401220897083
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image enhancement methods often prioritize pixel level information, overlooking the semantic features. We propose a novel, unsupervised, fuzzy-inspired image enhancement framework guided by NSGA-II algorithm that optimizes image brightness, contrast, and gamma parameters to achieve a balance between visual quality and semantic fidelity. Central to our proposed method is the use of a pre trained deep neural network as a feature extractor. To find the best enhancement settings, we use a GPU-accelerated NSGA-II algorithm that balances multiple objectives, namely, increasing image entropy, improving perceptual similarity, and maintaining appropriate brightness. We further improve the results by applying a local search phase to fine-tune the top candidates from the genetic algorithm. Our approach operates entirely without paired training data making it broadly applicable across domains with limited or noisy labels. Quantitatively, our model achieves excellent performance with average BRISQUE and NIQE scores of 19.82 and 3.652, respectively, in all unpaired datasets. Qualitatively, enhanced images by our model exhibit significantly improved visibility in shadowed regions, natural balance of contrast and also preserve the richer fine detail without introducing noticable artifacts. This work opens new directions for unsupervised image enhancement where semantic consistency is critical.
- Abstract(参考訳): 画像強調法は、しばしば、セマンティックな特徴を見渡すために、ピクセルレベルの情報を優先する。
画像の明るさ,コントラスト,ガンマパラメータを最適化し,視覚的品質と意味的忠実度を両立させるNSGA-IIアルゴリズムによって導かれる,教師なしのファジィインスパイアされた画像強調フレームワークを提案する。
提案手法の中心は、事前訓練されたディープニューラルネットワークを特徴抽出器として使用することである。
最高のエンハンスメント設定を見つけるために、GPU加速NSGA-IIアルゴリズムを用いて、画像エントロピーの増大、知覚的類似性の改善、適切な明るさの維持など、複数の目標のバランスをとる。
遺伝的アルゴリズムから上位候補を微調整するために局所探索フェーズを適用することにより、結果をさらに改善する。
このアプローチは、ペア化されたトレーニングデータなしで完全に動作し、限られたラベルやうるさいラベルを持つドメインに広く適用できます。
本モデルでは, 平均BRISQUEとNIQEのスコアが19.82と3.652であり, 精度が良好である。
定量的に,本モデルによる拡張画像は,陰影領域の視認性,コントラストの自然なバランスを著しく向上するとともに,目に見える人工物を導入することなく,よりリッチな細部を保存できる。
この研究は、意味的一貫性が不可欠である教師なし画像強調のための新しい方向を開く。
関連論文リスト
- DCEvo: Discriminative Cross-Dimensional Evolutionary Learning for Infrared and Visible Image Fusion [58.36400052566673]
赤外線および可視画像融合は、異なるスペクトルバンドからの情報を統合して画質を向上させる。
既存のアプローチでは、画像融合とそれに続くハイレベルなタスクを別プロセスとして扱う。
本稿では、視覚的品質と知覚精度を同時に向上させるDCEvoと呼ばれる識別的クロス次元進化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-22T07:01:58Z) - An Improved Optimal Proximal Gradient Algorithm for Non-Blind Image Deblurring [15.645711819668582]
改良された最適近位勾配アルゴリズム(IOptISTA)を導入し,非盲点画像の劣化問題に効率的に対処する。
その結果,既存の手法と比較して,PSNRとSSIMの値が向上し,耐性が低下することが示唆された。
論文 参考訳(メタデータ) (2025-02-11T14:52:11Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Self-Reference Deep Adaptive Curve Estimation for Low-Light Image
Enhancement [7.253235412867934]
自己参照深部適応曲線推定(Self-DACE)と呼ばれる2段階低照度画像強調手法を提案する。
最初の段階では、直感的で、軽量で、高速で、教師なしの輝度向上アルゴリズムを提示する。
また,自然画像の色,構造,忠実度を保存するために,物理モデルを単純化した新たな損失関数を提案する。
論文 参考訳(メタデータ) (2023-08-16T07:57:35Z) - LUT-GCE: Lookup Table Global Curve Estimation for Fast Low-light Image
Enhancement [62.17015413594777]
LUT-GCEという低照度画像強調のための効果的かつ効率的な手法を提案する。
画像全体に対する大域的な曲線を推定し、被曝と過剰露光の両方の補正を可能にする。
我々のアプローチは、特に高精細画像(例えば1080pと4k)において、推論速度の観点から、技術の現状よりも優れています。
論文 参考訳(メタデータ) (2023-06-12T12:53:06Z) - In-N-Out Generative Learning for Dense Unsupervised Video Segmentation [89.21483504654282]
本稿では,ラベルなしビデオから視覚的対応を学習する,教師なしビデオオブジェクト(VOS)タスクに焦点を当てる。
In-aNd-Out(INO)生成学習を純粋に生成的観点から提案する。
我々のINOは、最先端の手法をかなりのマージンで上回っている。
論文 参考訳(メタデータ) (2022-03-29T07:56:21Z) - Low Light Image Enhancement via Global and Local Context Modeling [164.85287246243956]
低照度画像強調のためのコンテキスト認識ディープネットワークを導入。
まず、全空間領域上の補完的な手がかりを見つけるために空間相関をモデル化するグローバルコンテキストモジュールを特徴とする。
第二に、比較的大きな受容フィールドで局所的なコンテキストをキャプチャする密な残留ブロックを導入する。
論文 参考訳(メタデータ) (2021-01-04T09:40:54Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。