論文の概要: Revisiting Lightweight Low-Light Image Enhancement: From a YUV Color Space Perspective
- arxiv url: http://arxiv.org/abs/2601.17349v1
- Date: Sat, 24 Jan 2026 07:27:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.615716
- Title: Revisiting Lightweight Low-Light Image Enhancement: From a YUV Color Space Perspective
- Title(参考訳): 軽量低光画像強調の再考:YUVカラー空間から
- Authors: Hailong Yan, Shice Liu, Xiangtao Zhang, Lujian Yao, Fengxiang Yang, Jinwei Chen, Bo Li,
- Abstract要約: 本稿では,Yチャネル用のDual-Stream Global-Local Attentionモジュール,UVチャネル用のY-Guided Local-Aware Frequency Attentionモジュール,最終機能融合のためのGuid Interactionモジュールを用いて,チャネルを戦略的に復元するYUVベースの新しいパラダイムを提案する。
提案モデルでは,複数のベンチマークで新たな最先端性を確立し,パラメータ数を大幅に低減した視覚的品質を実現する。
- 参考スコア(独自算出の注目度): 17.507319835166406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the current era of mobile internet, Lightweight Low-Light Image Enhancement (L3IE) is critical for mobile devices, which faces a persistent trade-off between visual quality and model compactness. While recent methods employ disentangling strategies to simplify lightweight architectural design, such as Retinex theory and YUV color space transformations, their performance is fundamentally limited by overlooking channel-specific degradation patterns and cross-channel interactions. To address this gap, we perform a frequency-domain analysis that confirms the superiority of the YUV color space for L3IE. We identify a key insight: the Y channel primarily loses low-frequency content, while the UV channels are corrupted by high-frequency noise. Leveraging this finding, we propose a novel YUV-based paradigm that strategically restores channels using a Dual-Stream Global-Local Attention module for the Y channel, a Y-guided Local-Aware Frequency Attention module for the UV channels, and a Guided Interaction module for final feature fusion. Extensive experiments validate that our model establishes a new state-of-the-art on multiple benchmarks, delivering superior visual quality with a significantly lower parameter count.
- Abstract(参考訳): モバイルインターネットの現在において、軽量低光画像強調(L3IE)は、視覚的品質とモデルコンパクト性の間の永続的なトレードオフに直面しているモバイルデバイスにとって重要である。
近年の手法では、Retinex理論やYUV色空間変換といった軽量なアーキテクチャ設計を単純化するための解離戦略が採用されているが、その性能はチャネル固有の劣化パターンやチャネル間の相互作用を見渡すことで根本的に制限されている。
このギャップに対処するために、L3IEのYUV色空間の優位性を確認する周波数領域解析を行う。
Yチャネルは主として低周波のコンテンツを失うが、UVチャネルは高周波ノイズによって破壊される。
そこで本研究では,Yチャネル用Dual-Stream Global-Local Attentionモジュール,UVチャネル用Y-Guided Local-Aware Frequency Attentionモジュール,最終機能融合のためのGuid Interactionモジュールを用いて,チャネルを戦略的に復元するYUVベースの新しいパラダイムを提案する。
広範囲な実験により、我々のモデルは複数のベンチマークで新たな最先端性を確立し、パラメータ数を大幅に減らし、優れた視覚的品質を実現することが検証された。
関連論文リスト
- One-Shot Refiner: Boosting Feed-forward Novel View Synthesis via One-Step Diffusion [57.824020826432815]
スパース画像から高忠実性ノベルビュー合成(NVS)を実現するための新しいフレームワークを提案する。
ViTバックボーンによって制限されることなく高解像度画像を処理できるデュアルドメイン詳細知覚モジュールを設計する。
我々は,修復過程において高周波の詳細を保存できる特徴誘導拡散ネットワークを開発した。
論文 参考訳(メタデータ) (2026-01-20T17:11:55Z) - IrisNet: Infrared Image Status Awareness Meta Decoder for Infrared Small Targets Detection [92.56025546608699]
IrisNetは、入力赤外線画像ステータスに検出戦略を適用する、新しいメタ学習フレームワークである。
提案手法は,赤外線画像特徴量とデコーダパラメータ全体の動的マッピングを確立する。
NUDT-SIRST、NUAA-SIRST、IRSTD-1Kデータセットの実験は、我々のIrisNetの優位性を示している。
論文 参考訳(メタデータ) (2025-11-25T13:53:54Z) - Rethinking Diffusion Model-Based Video Super-Resolution: Leveraging Dense Guidance from Aligned Features [51.5076190312734]
ビデオ超解法アプローチは、エラーの蓄積、空間的アーティファクト、知覚的品質と忠実さのトレードオフに悩まされる。
ビデオ超解像(DGAF-VSR)に適した特徴を持つ新しい誘導拡散モデルを提案する。
合成および実世界のデータセットの実験では、DGAF-VSRがVSRの重要な側面において最先端の手法を超越していることが示されている。
論文 参考訳(メタデータ) (2025-11-21T03:40:45Z) - FRBNet: Revisiting Low-Light Vision through Frequency-Domain Radial Basis Network [7.386546521017689]
我々は、低照度画像形成を再考し、古典ランベルトモデルを拡張して、低照度条件をより正確に特徴付ける。
textbfFrequency- domain textbfRadial textbfBasis textbfNetwork。
プラグアンドプレイモジュールとして、FRBNetは損失関数を変更することなく、ダウンストリームタスクのために既存のネットワークに統合することができる。
論文 参考訳(メタデータ) (2025-10-27T15:46:07Z) - FreSca: Scaling in Frequency Space Enhances Diffusion Models [55.75504192166779]
本稿では,潜時拡散モデルにおける周波数制御について検討する。
本稿では,低周波成分と高周波成分にノイズ差を分解する新しいフレームワークFreScaを紹介する。
FreScaはモデルの再トレーニングやアーキテクチャの変更なしに動作し、モデルとタスクに依存しない制御を提供する。
論文 参考訳(メタデータ) (2025-04-02T22:03:11Z) - Triple-domain Feature Learning with Frequency-aware Memory Enhancement for Moving Infrared Small Target Detection [12.641645684148136]
赤外線小ターゲット検出は、ターゲットサイズと背景とのコントラストが低いため、重大な課題を呈する。
我々は、赤外線小ターゲット検出のための時間領域に周波数認識メモリを付加した新しいトリプルドメイン戦略(トリド)を提案する。
人間の視覚システムにインスパイアされたメモリ拡張は、ビデオフレーム間の赤外線ターゲットの空間的関係を捉えるように設計されている。
論文 参考訳(メタデータ) (2024-06-11T05:21:30Z) - Learning Spatial Adaptation and Temporal Coherence in Diffusion Models for Video Super-Resolution [151.1255837803585]
ビデオ超解像のための空間適応と時間コヒーレンス(SATeCo)を追求する新しい手法を提案する。
SATeCoは低解像度ビデオから時空間ガイダンスを学習し、潜時空間高解像度ビデオデノイングとピクセル空間ビデオ再構成の両方を校正する。
REDS4データセットとVid4データセットを用いて行った実験は、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-25T17:59:26Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - LYT-NET: Lightweight YUV Transformer-based Network for Low-light Image Enhancement [0.0]
LYT-Netは低照度画像強調(LLIE)のための新しい軽量トランスモデルである
本手法では, 蛍光チャネルU, V, 発光チャネルYを別個のエンティティとして扱い, 照明調整や劣化復旧の精度向上に寄与する。
確立されたLLIEデータセットに対する包括的評価は、その複雑さが低いにもかかわらず、我々のモデルは最近のLLIE法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-26T21:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。