論文の概要: A Multi-Scale Spatial Attention-Based Zero-Shot Learning Framework for Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2506.18323v1
- Date: Mon, 23 Jun 2025 06:11:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.878617
- Title: A Multi-Scale Spatial Attention-Based Zero-Shot Learning Framework for Low-Light Image Enhancement
- Title(参考訳): 低照度画像強調のためのマルチスケール空間注意に基づくゼロショット学習フレームワーク
- Authors: Muhammad Azeem Aslam, Hassan Khalid, Nisar Ahmed,
- Abstract要約: LucentVisionNetは、低照度画像強調のための新しいゼロショット学習フレームワークである。
我々のフレームワークは、高い視覚的品質、構造的整合性、計算効率を実現する。
モバイル写真、監視、自律ナビゲーションといった現実世界のアプリケーションにデプロイするのに適しています。
- 参考スコア(独自算出の注目度): 3.55026004901472
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Low-light image enhancement remains a challenging task, particularly in the absence of paired training data. In this study, we present LucentVisionNet, a novel zero-shot learning framework that addresses the limitations of traditional and deep learning-based enhancement methods. The proposed approach integrates multi-scale spatial attention with a deep curve estimation network, enabling fine-grained enhancement while preserving semantic and perceptual fidelity. To further improve generalization, we adopt a recurrent enhancement strategy and optimize the model using a composite loss function comprising six tailored components, including a novel no-reference image quality loss inspired by human visual perception. Extensive experiments on both paired and unpaired benchmark datasets demonstrate that LucentVisionNet consistently outperforms state-of-the-art supervised, unsupervised, and zero-shot methods across multiple full-reference and no-reference image quality metrics. Our framework achieves high visual quality, structural consistency, and computational efficiency, making it well-suited for deployment in real-world applications such as mobile photography, surveillance, and autonomous navigation.
- Abstract(参考訳): 低照度画像の強化は、特にペアのトレーニングデータがない場合には、依然として困難な課題である。
本研究では,従来型および深層学習に基づく拡張手法の限界に対処する新しいゼロショット学習フレームワークである LucentVisionNet を提案する。
提案手法は,マルチスケールの空間的注意を深部曲線推定ネットワークに統合し,意味的・知覚的忠実性を維持しつつ,きめ細かな拡張を可能にする。
一般化をさらに向上するため、我々はリカレントエンハンスメント戦略を採用し、人間の視覚知覚にインスパイアされた新しい非参照画像品質損失を含む6つの調整済みコンポーネントからなる複合損失関数を用いてモデルを最適化する。
LucentVisionNetは、複数のフルレファレンスとノンレファレンス画像品質メトリクスで、最先端の教師付き、教師なし、ゼロショットメソッドを一貫して上回っている。
われわれのフレームワークは、高い視覚的品質、構造的整合性、計算効率を実現し、モバイル写真、監視、自律ナビゲーションといった現実世界のアプリケーションに展開するのに適している。
関連論文リスト
- Leveraging Content and Context Cues for Low-Light Image Enhancement [25.97198463881292]
低照度条件はマシン認知に悪影響を及ぼし、現実のコンピュータビジョンシステムの性能を制限する。
本稿では、CLIPモデルを利用して、画像の先行と意味的ガイダンスの取得により、既存のゼロ参照低照度化を改善することを提案する。
提案手法は,画像のコントラストと色調の改善,背景背景の識別の改善に有効であることを示す。
論文 参考訳(メタデータ) (2024-12-10T17:32:09Z) - Semi-LLIE: Semi-supervised Contrastive Learning with Mamba-based Low-light Image Enhancement [59.17372460692809]
本研究は、平均教師による半教師付き低照度強化(Semi-LLIE)フレームワークを提案する。
照度分布を忠実に伝達するために、意味認識によるコントラスト損失を導入し、自然色による画像の強調に寄与する。
また,大規模な視覚言語認識モデル(RAM)に基づく新たな知覚損失を提案し,よりリッチなテキストによる画像生成を支援する。
論文 参考訳(メタデータ) (2024-09-25T04:05:32Z) - Unsupervised Deep Learning-based Pansharpening with Jointly-Enhanced
Spectral and Spatial Fidelity [4.425982186154401]
本稿では,この手法の可能性をフル活用した,ディープラーニングに基づくパンシャーピングモデルを提案する。
提案モデルでは,パンシャーペンデータのスペクトルと空間的品質を協調的に向上する新たな損失関数を特徴とする。
挑戦的なシナリオで実施された多種多様なテスト画像の実験により,提案手法が技術状況と良好に比較できることが実証された。
論文 参考訳(メタデータ) (2023-07-26T17:25:28Z) - SCRNet: a Retinex Structure-based Low-light Enhancement Model Guided by
Spatial Consistency [22.54951703413469]
本稿では,SCRNet(Spatial Consistency Retinex Network)と呼ばれる,新しい低照度画像強調モデルを提案する。
提案モデルでは, 空間的整合性の原理に着想を得て, チャネルレベル, セマンティックレベル, テクスチャレベルという3つのレベルの整合性を考慮した。
様々な低照度画像データセットに対する広範囲な評価は、提案したSCRNetが既存の最先端手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-05-14T03:32:19Z) - Bridging Synthetic and Real Images: a Transferable and Multiple
Consistency aided Fundus Image Enhancement Framework [61.74188977009786]
画像強調とドメイン適応を同時に行うために,エンドツーエンドの教師支援フレームワークを提案する。
また,教師ネットワークと学生ネットワークのバックボーンとして,マルチステージ型マルチアテンション・ガイド・エンハンスメント・ネットワーク(MAGE-Net)を提案する。
論文 参考訳(メタデータ) (2023-02-23T06:16:15Z) - Self-Aligned Concave Curve: Illumination Enhancement for Unsupervised
Adaptation [36.050270650417325]
ハイレベルビジョンのための学習可能な照明強調モデルを提案する。
実際のカメラ応答関数にインスパイアされた照明強調関数は凹凸曲線であると仮定する。
我々のモデルアーキテクチャとトレーニングデザインは相互に恩恵を受け、強力な教師なし正規-低照度適応フレームワークを形成する。
論文 参考訳(メタデータ) (2022-10-07T19:32:55Z) - Toward Fast, Flexible, and Robust Low-Light Image Enhancement [87.27326390675155]
我々は、現実の低照度シナリオにおいて、高速でフレキシブルで頑健な鮮明化のための新しい自己校正イルミネーション(SCI)学習フレームワークを開発した。
カスケードパターンの計算負担を考慮すると、各ステージの結果の収束を実現する自己校正モジュールを構築する。
我々は,SCI固有の特性について,操作不感適応性やモデル非関係の一般性を含む包括的探索を行う。
論文 参考訳(メタデータ) (2022-04-21T14:40:32Z) - Robust Single Image Dehazing Based on Consistent and Contrast-Assisted
Reconstruction [95.5735805072852]
画像復調モデルのロバスト性を改善するための新しい密度変分学習フレームワークを提案する。
具体的には、デハジングネットワークは、一貫性の規則化されたフレームワークの下で最適化されている。
我々の手法は最先端のアプローチを大きく上回っている。
論文 参考訳(メタデータ) (2022-03-29T08:11:04Z) - Low-light Image Enhancement by Retinex Based Algorithm Unrolling and
Adjustment [50.13230641857892]
本稿では,低照度画像強調(LIE)問題に対する新たなディープラーニングフレームワークを提案する。
提案フレームワークは,大域的明るさと局所的明るさ感度の両方を考慮したアルゴリズムアンロールと調整ネットワークに着想を得た分解ネットワークを含む。
一連の典型的なLIEデータセットの実験では,既存の手法と比較して,定量的かつ視覚的に,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-02-12T03:59:38Z) - Learning Deep Context-Sensitive Decomposition for Low-Light Image
Enhancement [58.72667941107544]
典型的なフレームワークは、照明と反射を同時に推定することであるが、特徴空間にカプセル化されたシーンレベルの文脈情報を無視する。
本研究では,空間スケールにおけるシーンレベルのコンテキスト依存を生かした,コンテキスト依存型分解ネットワークアーキテクチャを提案する。
チャネル数を減らして軽量なCSDNet(LiteCSDNet)を開発する。
論文 参考訳(メタデータ) (2021-12-09T06:25:30Z) - Semantic-Guided Zero-Shot Learning for Low-Light Image/Video Enhancement [3.4722706398428493]
低照度画像は人間の知覚とコンピュータビジョンのアルゴリズムの両方に挑戦する。
計算写真やコンピュータビジョンアプリケーションのための低照度画像の啓蒙にアルゴリズムを堅牢にすることが不可欠である。
本稿では,ペア画像の欠如により訓練されたセマンティック誘導ゼロショット低照度拡張ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-03T10:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。