論文の概要: Bridging Robustness and Efficiency: Real-Time Low-Light Enhancement via Attention U-Net GAN
- arxiv url: http://arxiv.org/abs/2601.06518v1
- Date: Sat, 10 Jan 2026 10:39:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.857434
- Title: Bridging Robustness and Efficiency: Real-Time Low-Light Enhancement via Attention U-Net GAN
- Title(参考訳): ブリッジングロバスト性と効率:注意U-Net GANによるリアルタイム低照度化
- Authors: Yash Thesia, Meera Suthar,
- Abstract要約: エッジ展開可能な速度で生成レベルのテクスチャを復元するハイブリッドな注意型U-Net GANを提案する。
提案手法は,効率的なモデルのうち,クラス別LPIPSスコアが0.112であることを示す。
これは遅延拡散モデルよりも40倍のスピードアップを示し、我々のアプローチはほぼリアルタイムなアプリケーションに適している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in Low-Light Image Enhancement (LLIE) have focused heavily on Diffusion Probabilistic Models, which achieve high perceptual quality but suffer from significant computational latency (often exceeding 2-4 seconds per image). Conversely, traditional CNN-based baselines offer real-time inference but struggle with "over-smoothing," failing to recover fine structural details in extreme low-light conditions. This creates a practical gap in the literature: the lack of a model that provides generative-level texture recovery at edge-deployable speeds. In this paper, we address this trade-off by proposing a hybrid Attention U-Net GAN. We demonstrate that the heavy iterative sampling of diffusion models is not strictly necessary for texture recovery. Instead, by integrating Attention Gates into a lightweight U-Net backbone and training within a conditional adversarial framework, we can approximate the high-frequency fidelity of generative models in a single forward pass. Extensive experiments on the SID dataset show that our method achieves a best-in-class LPIPS score of 0.112 among efficient models, significantly outperforming efficient baselines (SID, EnlightenGAN) while maintaining an inference latency of 0.06s. This represents a 40x speedup over latent diffusion models, making our approach suitable for near real-time applications.
- Abstract(参考訳): 近年の低光画像強調(LLIE)の進歩は拡散確率モデル(Diffusion Probabilistic Models)に大きく焦点が当てられている。
逆に、従来のCNNベースのベースラインはリアルタイムな推論を提供するが、極端に低照度な条件下での微細な構造的詳細の回復に失敗する「過度な平滑化」に苦慮している。
これは、エッジデプロイ可能な速度で生成レベルのテクスチャリカバリを提供するモデルがないという、文学における実践的なギャップを生み出します。
本稿では,ハイブリッドな意識型U-Net GANを提案することで,このトレードオフに対処する。
テクスチャ回復には拡散モデルの重度反復サンプリングが必須ではないことを示す。
代わりに、Attention Gatesを軽量なU-Netバックボーンに統合し、条件付き逆向きのフレームワーク内でトレーニングすることにより、生成モデルの高周波忠実度を単一の前方通過で近似することができる。
SIDデータセットの大規模な実験により,提案手法は効率のよいモデルの中で最良値のLPIPSスコア0.112を達成し,予測レイテンシ0.06sを維持しながら,効率のよいベースライン(SID, EnlightenGAN)を著しく上回った。
これは遅延拡散モデルよりも40倍のスピードアップを示し、我々のアプローチはほぼリアルタイムなアプリケーションに適している。
関連論文リスト
- BADiff: Bandwidth Adaptive Diffusion Model [55.10134744772338]
従来の拡散モデルは、下流の伝送制限によらず、一定数のデノナイジングステップを実行することで、高忠実度画像を生成する。
実際のクラウド・ツー・デバイス・シナリオでは、帯域幅の制限はしばしば重い圧縮を必要とし、微妙なテクスチャや無駄な計算が失われる。
使用可能な帯域幅から導かれる目標品質レベルに拡散モデルを条件付けする,共同エンドツーエンドのトレーニング戦略を導入する。
論文 参考訳(メタデータ) (2025-10-24T11:50:03Z) - One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - Accelerating Linear Recurrent Neural Networks for the Edge with Unstructured Sparsity [39.483346492111515]
線形リカレントニューラルネットワークは、推論中に一定のメモリ使用量と時間毎の時間を含む強力な長距離シーケンスモデリングを可能にする。
非構造化空間は、互換性のあるハードウェアプラットフォームによって加速されるときに、計算とメモリの要求を大幅に削減できる魅力的なソリューションを提供する。
非常に疎い線形RNNは、高密度ベースラインよりも高い効率と性能のトレードオフを一貫して達成している。
論文 参考訳(メタデータ) (2025-02-03T13:09:21Z) - Spatial Annealing for Efficient Few-shot Neural Rendering [73.49548565633123]
我々はtextbfSpatial textbf Annealing regularized textbfNeRF (textbfSANeRF) という,正確で効率的な数発のニューラルレンダリング手法を導入する。
単に1行のコードを追加することで、SANeRFは、現在の数ショットのニューラルレンダリング方法と比較して、より優れたレンダリング品質とはるかに高速な再構築速度を提供する。
論文 参考訳(メタデータ) (2024-06-12T02:48:52Z) - DeepCache: Accelerating Diffusion Models for Free [65.02607075556742]
DeepCacheは、モデルアーキテクチャの観点から拡散モデルを加速するトレーニング不要のパラダイムである。
DeepCacheは拡散モデルのシーケンシャルなデノナイジングステップで観測される時間的冗長性に乗じている。
同じスループットで、DeepCacheはDDIMやPLMSで、事実上同等または極端に改善された結果を達成する。
論文 参考訳(メタデータ) (2023-12-01T17:01:06Z) - The Missing U for Efficient Diffusion Models [3.712196074875643]
拡散確率モデル(Diffusion Probabilistic Models)は、画像合成、ビデオ生成、分子設計などのタスクにおいて、記録破りのパフォーマンスをもたらす。
それらの能力にもかかわらず、その効率、特に逆過程では、収束速度が遅いことと計算コストが高いため、依然として課題である。
本研究では,連続力学系を利用した拡散モデルのための新しいデノナイジングネットワークの設計手法を提案する。
論文 参考訳(メタデータ) (2023-10-31T00:12:14Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。