論文の概要: Towards Flexible and Efficient Diffusion Low Light Enhancer
- arxiv url: http://arxiv.org/abs/2410.12346v1
- Date: Wed, 16 Oct 2024 08:07:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:42:15.312744
- Title: Towards Flexible and Efficient Diffusion Low Light Enhancer
- Title(参考訳): フレキシブルかつ高効率な拡散型低光増幅器を目指して
- Authors: Guanzhou Lan, Qianli Ma, Yuqi Yang, Zhigang Wang, Dong Wang, Yuan Yuan, Bin Zhao,
- Abstract要約: 拡散に基づく低照度画像強調(LLIE)は、低照度画像の可視性向上に大きく成功している。
LLIE用に特別に設計されたステップ蒸留フレームワークである textbfDistilled textbfTrajectory (textbfReDDiT) を用いた textbfReflectance-aware textbfDiffusion を提案する。
- 参考スコア(独自算出の注目度): 30.515393168075448
- License:
- Abstract: Diffusion-based Low-Light Image Enhancement (LLIE) has demonstrated significant success in improving the visibility of low-light images. However, the substantial computational burden introduced by the iterative sampling process remains a major concern. Current acceleration methods, whether training-based or training-free, often lead to significant performance degradation. As a result, to achieve an efficient student model with performance comparable to that of existing multi-step teacher model, it is usually necessary to retrain a more capable teacher model. This approach introduces inflexibility, as it requires additional training to enhance the teacher's performance. To address these challenges, we propose \textbf{Re}flectance-aware \textbf{D}iffusion with \textbf{Di}stilled \textbf{T}rajectory (\textbf{ReDDiT}), a step distillation framework specifically designed for LLIE. ReDDiT trains a student model to replicate the teacher's trajectory in fewer steps while also possessing the ability to surpass the teacher's performance. Specifically, we first introduce a trajectory decoder from the teacher model to provide guidance. Subsequently, a reflectance-aware trajectory refinement module is incorporated into the distillation process to enable more deterministic guidance from the teacher model. Our framework achieves comparable performance to previous diffusion-based methods with redundant steps in just 2 steps while establishing new state-of-the-art (SOTA) results with 8 or 4 steps. Comprehensive experimental evaluations on 10 benchmark datasets validate the effectiveness of our method, consistently outperforming existing SOTA methods.
- Abstract(参考訳): 拡散に基づく低照度画像強調(LLIE)は、低照度画像の可視性向上に大きく成功している。
しかし、反復サンプリングプロセスによってもたらされるかなりの計算負担は、依然として大きな懸念事項である。
トレーニングベースであれ、トレーニングフリーであれ、現在のアクセラレーション手法は、しばしばパフォーマンスを著しく低下させる。
その結果、既存の多段階教師モデルに匹敵する性能を持つ効率的な学生モデルを実現するためには、通常、より有能な教師モデルを再訓練する必要がある。
このアプローチでは、教師のパフォーマンスを高めるために追加のトレーニングが必要であるため、柔軟性がもたらされる。
これらの課題に対処するため、LLIE用に特別に設計されたステップ蒸留フレームワークである \textbf{Re}flectance-aware \textbf{D}iffusion with \textbf{Di}stilled \textbf{T}rajectory (\textbf{ReDDiT})を提案する。
ReDDiTは、教師のパフォーマンスを上回る能力を持ちながら、より少ないステップで教師の軌道を再現する学生モデルを訓練する。
具体的には、まず教師モデルから軌道デコーダを導入し、指導を行う。
その後、リフレクタンス対応軌道修正モジュールを蒸留工程に組み込んで、教師モデルからのより決定論的ガイダンスを可能にする。
本フレームワークは,従来の拡散法と同等の性能を2ステップで達成し,新しいSOTA(State-of-the-art)を8ステップないし4ステップで実現した。
提案手法の有効性を10のベンチマークデータセットで総合的に評価し,既存のSOTA法を一貫して上回る結果を得た。
関連論文リスト
- Representation Alignment for Generation: Training Diffusion Transformers Is Easier Than You Think [72.48325960659822]
生成のための大規模拡散モデルの訓練における主要なボトルネックは、これらの表現を効果的に学習することにある。
本稿では,RePresentation Alignment (REPA) と呼ばれる単純な正規化を導入し,ノイズの多い入力隠れ状態の投影を,外部の事前学習された視覚エンコーダから得られるクリーンな画像表現と整合させる手法を提案する。
我々の単純な戦略は、一般的な拡散やDiTsやSiTsといったフローベースのトランスフォーマーに適用した場合、トレーニング効率と生成品質の両方に大きな改善をもたらす。
論文 参考訳(メタデータ) (2024-10-09T14:34:53Z) - Distillation-Free One-Step Diffusion for Real-World Image Super-Resolution [81.81748032199813]
蒸留不要1ステップ拡散モデルを提案する。
具体的には、敵対的訓練に参加するためのノイズ認識識別器(NAD)を提案する。
我々は、エッジ対応disTS(EA-DISTS)による知覚損失を改善し、詳細な情報を生成するモデルの能力を向上させる。
論文 参考訳(メタデータ) (2024-10-05T16:41:36Z) - Exploring and Enhancing the Transfer of Distribution in Knowledge Distillation for Autoregressive Language Models [62.5501109475725]
知識蒸留(KD)は、より小さな学生モデルを模倣するように訓練することで、大きな教師モデルを圧縮する技術である。
本稿では、教師ネットワークが小さなオンラインモジュールを統合し、学生モデルと同時学習するオンライン知識蒸留(OKD)について紹介する。
OKDは、様々なモデルアーキテクチャやサイズにおけるリードメソッドのパフォーマンスを達成または超え、トレーニング時間を最大4倍に短縮する。
論文 参考訳(メタデータ) (2024-09-19T07:05:26Z) - Step-On-Feet Tuning: Scaling Self-Alignment of LLMs via Bootstrapping [53.454408491386886]
自己アライメントのブートストラップは、シングルラウンドアプローチをはるかに上回る。
モデルが継続的に強化した複数ショット機能を活用してゼロまたはワンショットのパフォーマンスを向上するステップ・オン・フィート・チューニング(SOFT)を提案する。
簡単な学習法に基づいて、自己アライメントの性能をさらに向上させるSOFT+を提案する。
論文 参考訳(メタデータ) (2024-02-12T12:30:42Z) - You Only Need One Step: Fast Super-Resolution with Stable Diffusion via
Scale Distillation [42.599077240711]
YONOS-SRは、画像超解像に対する安定拡散に基づくアプローチであり、単一のDDIMステップのみを用いて最先端の結果を得る。
SRモデルの学習のための新しいスケール蒸留手法を提案する。
論文 参考訳(メタデータ) (2024-01-30T18:49:44Z) - SinSR: Diffusion-Based Image Super-Resolution in a Single Step [119.18813219518042]
拡散モデルに基づく超解像(SR)法は有望な結果を示す。
しかし、それらの実践的応用は、必要な推論ステップのかなりの数によって妨げられている。
本稿では,SinSRという単一ステップのSR生成を実現するための,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:21:29Z) - FD-Align: Feature Discrimination Alignment for Fine-tuning Pre-Trained
Models in Few-Shot Learning [21.693779973263172]
本稿では,特徴識別アライメント(FD-Align)と呼ばれる微調整手法を提案する。
本手法は,突発的特徴の一貫性を保ち,モデルの一般化可能性を高めることを目的としている。
一度微調整すると、モデルは既存のメソッドとシームレスに統合され、パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-10-23T17:12:01Z) - BOOT: Data-free Distillation of Denoising Diffusion Models with
Bootstrapping [64.54271680071373]
拡散モデルは多様な画像を生成する優れた可能性を示している。
知識蒸留は、推論ステップの数を1つか数に減らすための治療法として最近提案されている。
本稿では,効率的なデータフリー蒸留アルゴリズムにより限界を克服するBOOTと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T20:30:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。