論文の概要: GTFMN: Guided Texture and Feature Modulation Network for Low-Light Image Enhancement and Super-Resolution
- arxiv url: http://arxiv.org/abs/2601.19157v1
- Date: Tue, 27 Jan 2026 03:43:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.160347
- Title: GTFMN: Guided Texture and Feature Modulation Network for Low-Light Image Enhancement and Super-Resolution
- Title(参考訳): GTFMN:低照度画像強調・超解像のためのガイドテクスチャと特徴変調ネットワーク
- Authors: Yongsong Huang, Tzu-Hsuan Peng, Tomo Miyazaki, Xiaofeng Liu, Chun-Ting Chou, Ai-Chun Pang, Shinichiro Omachi,
- Abstract要約: 低照度画像超解像(LLSR)は、劣化と照明不良が相まって難しい課題である。
LLSRタスクを2つのサブプロブレム(照明推定とテクスチャ復元)に分解する新しいフレームワークであるGTFMN(Guid Texture and Feature Modulation Network)を提案する。
GTFMNは、OmniNormal5とOmniNormal15データセットの競合するメソッドの中で最高のパフォーマンスを達成し、定量的メトリクスと視覚的品質の両方でそれらを上回っている。
- 参考スコア(独自算出の注目度): 6.392781152715588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light image super-resolution (LLSR) is a challenging task due to the coupled degradation of low resolution and poor illumination. To address this, we propose the Guided Texture and Feature Modulation Network (GTFMN), a novel framework that decouples the LLSR task into two sub-problems: illumination estimation and texture restoration. First, our network employs a dedicated Illumination Stream whose purpose is to predict a spatially varying illumination map that accurately captures lighting distribution. Further, this map is utilized as an explicit guide within our novel Illumination Guided Modulation Block (IGM Block) to dynamically modulate features in the Texture Stream. This mechanism achieves spatially adaptive restoration, enabling the network to intensify enhancement in poorly lit regions while preserving details in well-exposed areas. Extensive experiments demonstrate that GTFMN achieves the best performance among competing methods on the OmniNormal5 and OmniNormal15 datasets, outperforming them in both quantitative metrics and visual quality.
- Abstract(参考訳): 低解像度画像超解像(LLSR)は、低解像度化と低照度化の複合化による課題である。
LLSRタスクを2つのサブプロブレム(照明推定とテクスチャ復元)に分離する新しいフレームワークであるGTFMN(Guid Texture and Feature Modulation Network)を提案する。
まず,照明分布を正確に把握する空間的に変化する照明マップの予測を目的としたイルミネーションストリームを用いた。
さらに,この地図は,テクスチュアストリームの特徴を動的に変調する新しいIllumination Guided Modulation Block (IGM Block) の中で,明示的なガイドとして利用されています。
この機構は空間適応的な復元を実現し、未明領域の強化を図り、未公開領域の細部を保存できる。
大規模な実験により、GTFMNはOmniNormal5とOmniNormal15データセットの競合するメソッドの中で最高のパフォーマンスを達成し、定量的な測定値と視覚的品質の両方でそれらを上回ります。
関連論文リスト
- Low-Light Enhancement via Encoder-Decoder Network with Illumination Guidance [0.0]
本稿では,低照度画像強調のための新しいディープラーニングフレームワーク,Theを紹介する。
Illumination Guidance (EDNIG) を用いたデコーダネットワーク
EDNIGはBright Channel Prior (BCP)から派生した照明マップをガイダンス入力として統合する。
合成損失関数を用いてGAN(Generative Adversarial Network)フレームワーク内で最適化され、対向損失、画素単位の平均二乗誤差(MSE)、知覚損失を組み合わせた。
論文 参考訳(メタデータ) (2025-07-04T09:35:00Z) - UnfoldIR: Rethinking Deep Unfolding Network in Illumination Degradation Image Restoration [33.290565892897824]
DUN(Deep Openfolding Network)は、照明劣化画像復元(IDIR)に広く利用されている。
IDIRタスクのための新しいDUNベースのUnfoldIRを提案する。
反射率支援照明補正(RAIC)モジュールと照明誘導反射率向上(IGRE)モジュールから構成される。
論文 参考訳(メタデータ) (2025-05-10T16:13:01Z) - Reti-Diff: Illumination Degradation Image Restoration with Retinex-based
Latent Diffusion Model [59.08821399652483]
照明劣化画像復元(IDIR)技術は、劣化した画像の視認性を改善し、劣化した照明の悪影響を軽減することを目的としている。
これらのアルゴリズムのうち、拡散モデル(DM)に基づく手法は期待できる性能を示しているが、画像レベルの分布を予測する際に、重い計算要求や画素の不一致の問題に悩まされることが多い。
我々は、コンパクトな潜在空間内でDMを活用して、簡潔な指導先を生成することを提案し、IDIRタスクのためのReti-Diffと呼ばれる新しいソリューションを提案する。
Reti-Diff は Retinex-based Latent DM (RLDM) と Retinex-Guided Transformer (RG) の2つの鍵成分からなる。
論文 参考訳(メタデータ) (2023-11-20T09:55:06Z) - Low-Light Image Enhancement with Illumination-Aware Gamma Correction and
Complete Image Modelling Network [69.96295927854042]
低照度環境は通常、情報の少ない大規模な暗黒地帯に繋がる。
本稿では,ガンマ補正の有効性を深層ネットワークのモデリング能力と統合することを提案する。
指数関数演算は高い計算複雑性をもたらすので、Taylor Series を用いてガンマ補正を近似することを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:46:51Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。