論文の概要: GTFMN: Guided Texture and Feature Modulation Network for Low-Light Image Enhancement and Super-Resolution
- arxiv url: http://arxiv.org/abs/2601.19157v1
- Date: Tue, 27 Jan 2026 03:43:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.160347
- Title: GTFMN: Guided Texture and Feature Modulation Network for Low-Light Image Enhancement and Super-Resolution
- Title(参考訳): GTFMN:低照度画像強調・超解像のためのガイドテクスチャと特徴変調ネットワーク
- Authors: Yongsong Huang, Tzu-Hsuan Peng, Tomo Miyazaki, Xiaofeng Liu, Chun-Ting Chou, Ai-Chun Pang, Shinichiro Omachi,
- Abstract要約: 低照度画像超解像(LLSR)は、劣化と照明不良が相まって難しい課題である。
LLSRタスクを2つのサブプロブレム(照明推定とテクスチャ復元)に分解する新しいフレームワークであるGTFMN(Guid Texture and Feature Modulation Network)を提案する。
GTFMNは、OmniNormal5とOmniNormal15データセットの競合するメソッドの中で最高のパフォーマンスを達成し、定量的メトリクスと視覚的品質の両方でそれらを上回っている。
- 参考スコア(独自算出の注目度): 6.392781152715588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light image super-resolution (LLSR) is a challenging task due to the coupled degradation of low resolution and poor illumination. To address this, we propose the Guided Texture and Feature Modulation Network (GTFMN), a novel framework that decouples the LLSR task into two sub-problems: illumination estimation and texture restoration. First, our network employs a dedicated Illumination Stream whose purpose is to predict a spatially varying illumination map that accurately captures lighting distribution. Further, this map is utilized as an explicit guide within our novel Illumination Guided Modulation Block (IGM Block) to dynamically modulate features in the Texture Stream. This mechanism achieves spatially adaptive restoration, enabling the network to intensify enhancement in poorly lit regions while preserving details in well-exposed areas. Extensive experiments demonstrate that GTFMN achieves the best performance among competing methods on the OmniNormal5 and OmniNormal15 datasets, outperforming them in both quantitative metrics and visual quality.
- Abstract(参考訳): 低解像度画像超解像(LLSR)は、低解像度化と低照度化の複合化による課題である。
LLSRタスクを2つのサブプロブレム(照明推定とテクスチャ復元)に分離する新しいフレームワークであるGTFMN(Guid Texture and Feature Modulation Network)を提案する。
まず,照明分布を正確に把握する空間的に変化する照明マップの予測を目的としたイルミネーションストリームを用いた。
さらに,この地図は,テクスチュアストリームの特徴を動的に変調する新しいIllumination Guided Modulation Block (IGM Block) の中で,明示的なガイドとして利用されています。
この機構は空間適応的な復元を実現し、未明領域の強化を図り、未公開領域の細部を保存できる。
大規模な実験により、GTFMNはOmniNormal5とOmniNormal15データセットの競合するメソッドの中で最高のパフォーマンスを達成し、定量的な測定値と視覚的品質の両方でそれらを上回ります。
関連論文リスト
- SAIGFormer: A Spatially-Adaptive Illumination-Guided Network for Low-Light Image Enhancement [58.79901582809091]
近年, トランスフォーマーを用いた低照度化手法は, 世界照明の回復に有望な進展をもたらした。
近年, トランスフォーマーを用いた低照度化手法は, 世界照明の回復に有望な進展をもたらした。
正確な照明復元を可能にする空間適応照明誘導変圧器フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-21T11:38:56Z) - Low-Light Enhancement via Encoder-Decoder Network with Illumination Guidance [0.0]
本稿では,低照度画像強調のための新しいディープラーニングフレームワーク,Theを紹介する。
Illumination Guidance (EDNIG) を用いたデコーダネットワーク
EDNIGはBright Channel Prior (BCP)から派生した照明マップをガイダンス入力として統合する。
合成損失関数を用いてGAN(Generative Adversarial Network)フレームワーク内で最適化され、対向損失、画素単位の平均二乗誤差(MSE)、知覚損失を組み合わせた。
論文 参考訳(メタデータ) (2025-07-04T09:35:00Z) - UnfoldIR: Rethinking Deep Unfolding Network in Illumination Degradation Image Restoration [33.290565892897824]
DUN(Deep Openfolding Network)は、照明劣化画像復元(IDIR)に広く利用されている。
IDIRタスクのための新しいDUNベースのUnfoldIRを提案する。
反射率支援照明補正(RAIC)モジュールと照明誘導反射率向上(IGRE)モジュールから構成される。
論文 参考訳(メタデータ) (2025-05-10T16:13:01Z) - LUMINA-Net: Low-light Upgrade through Multi-stage Illumination and Noise Adaptation Network for Image Enhancement [26.585985828583304]
低照度画像強調(LLIE)は、低照度条件下で撮影された画像の視覚的忠実度を高めることを目的としたコンピュータビジョンにおける重要な課題である。
LUMINA-Netは,多段照明と反射モジュールを統合することで,低照度画像ペアから適応的な事前学習を行う,教師なしのディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2025-02-21T03:37:58Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - Reti-Diff: Illumination Degradation Image Restoration with Retinex-based
Latent Diffusion Model [59.08821399652483]
照明劣化画像復元(IDIR)技術は、劣化した画像の視認性を改善し、劣化した照明の悪影響を軽減することを目的としている。
これらのアルゴリズムのうち、拡散モデル(DM)に基づく手法は期待できる性能を示しているが、画像レベルの分布を予測する際に、重い計算要求や画素の不一致の問題に悩まされることが多い。
我々は、コンパクトな潜在空間内でDMを活用して、簡潔な指導先を生成することを提案し、IDIRタスクのためのReti-Diffと呼ばれる新しいソリューションを提案する。
Reti-Diff は Retinex-based Latent DM (RLDM) と Retinex-Guided Transformer (RG) の2つの鍵成分からなる。
論文 参考訳(メタデータ) (2023-11-20T09:55:06Z) - Low-Light Image Enhancement with Illumination-Aware Gamma Correction and
Complete Image Modelling Network [69.96295927854042]
低照度環境は通常、情報の少ない大規模な暗黒地帯に繋がる。
本稿では,ガンマ補正の有効性を深層ネットワークのモデリング能力と統合することを提案する。
指数関数演算は高い計算複雑性をもたらすので、Taylor Series を用いてガンマ補正を近似することを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:46:51Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Lightness Modulated Deep Inverse Tone Mapping [18.31269649436267]
シングルイメージHDR再構成や逆トーンマッピング(iTM)は難しい課題である。
深層畳み込みニューラルネットワーク(CNN)の特徴抽出とマッピング能力を利用した深層学習に基づくiTM法を提案する。
本手法の有効性を示す実験結果について述べる。
論文 参考訳(メタデータ) (2021-07-16T13:56:20Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。