論文の概要: Boosting All-in-One Image Restoration via Self-Improved Privilege Learning
- arxiv url: http://arxiv.org/abs/2505.24207v1
- Date: Fri, 30 May 2025 04:36:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.771832
- Title: Boosting All-in-One Image Restoration via Self-Improved Privilege Learning
- Title(参考訳): 自己改善型民生学習によるオールインワン画像復元の促進
- Authors: Gang Wu, Junjun Jiang, Kui Jiang, Xianming Liu,
- Abstract要約: SIPL(Self-Improved Privilege Learning)は、トレーニング以外の特権情報(PI)を推論段階に拡張することで制限を克服する新しいパラダイムである。
SIPLの中心は、学習可能なPrivleged Dictionaryを組み込んだ軽量モジュールであるProxy Fusionである。
大規模な実験により、SIPLは様々なオールインワン画像復元ベンチマークの最先端性を著しく向上することが示された。
- 参考スコア(独自算出の注目度): 72.35265021054471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unified image restoration models for diverse and mixed degradations often suffer from unstable optimization dynamics and inter-task conflicts. This paper introduces Self-Improved Privilege Learning (SIPL), a novel paradigm that overcomes these limitations by innovatively extending the utility of privileged information (PI) beyond training into the inference stage. Unlike conventional Privilege Learning, where ground-truth-derived guidance is typically discarded after training, SIPL empowers the model to leverage its own preliminary outputs as pseudo-privileged signals for iterative self-refinement at test time. Central to SIPL is Proxy Fusion, a lightweight module incorporating a learnable Privileged Dictionary. During training, this dictionary distills essential high-frequency and structural priors from privileged feature representations. Critically, at inference, the same learned dictionary then interacts with features derived from the model's initial restoration, facilitating a self-correction loop. SIPL can be seamlessly integrated into various backbone architectures, offering substantial performance improvements with minimal computational overhead. Extensive experiments demonstrate that SIPL significantly advances the state-of-the-art on diverse all-in-one image restoration benchmarks. For instance, when integrated with the PromptIR model, SIPL achieves remarkable PSNR improvements of +4.58 dB on composite degradation tasks and +1.28 dB on diverse five-task benchmarks, underscoring its effectiveness and broad applicability. Codes are available at our project page https://github.com/Aitical/SIPL.
- Abstract(参考訳): 多様な複合劣化に対する統一画像復元モデルは、不安定な最適化力学とタスク間競合に悩まされることが多い。
本稿では,これらの制約を克服する新たなパラダイムとして,学習段階を超えて特権情報(PI)の活用を革新的に拡張し,自己改善型プライビレゲラーニング(SIPL)を紹介した。
従来のプリヴィレジ・ラーニングとは違い、グランドトルースに基づく指導は訓練後に放棄されるのが一般的であるが、SIPLはテスト時に繰り返し自己修正を行うための擬似プリミティブ信号として、自身の予備出力を活用する権限をモデルに与えている。
SIPLの中心は、学習可能なPrivleged Dictionaryを組み込んだ軽量モジュールであるProxy Fusionである。
訓練中、この辞書は特権的特徴表現から必須の高周波および構造的先行情報を蒸留する。
批判的に、推論において、同じ学習された辞書は、モデルの初期復元から派生した特徴と相互作用し、自己補正ループを容易にする。
SIPLは様々なバックボーンアーキテクチャにシームレスに統合することができ、計算オーバーヘッドを最小限に抑え、大幅なパフォーマンス向上を実現している。
大規模な実験により、SIPLは様々なオールインワン画像復元ベンチマークの最先端性を著しく向上することが示された。
例えば、PromptIRモデルと統合すると、SIPLは複合劣化タスクで+4.58dB、様々な5タスクベンチマークで+1.28dBのPSNR改善を実現し、その有効性と幅広い適用性を示している。
コードはプロジェクトのページ https://github.com/Aitical/SIPL.org で公開されている。
関連論文リスト
- CSE-SFP: Enabling Unsupervised Sentence Representation Learning via a Single Forward Pass [3.0566617373924325]
プレトレーニング言語モデル(PLM)の最近の進歩は、この分野において顕著な進歩をもたらした。
CSE-SFPは,生成モデルの構造的特徴を利用する革新的な手法である。
CSE-SFPは高品質な埋め込みを実現するだけでなく、トレーニング時間とメモリ消費を著しく削減する。
論文 参考訳(メタデータ) (2025-05-01T08:27:14Z) - Beyond Degradation Redundancy: Contrastive Prompt Learning for All-in-One Image Restoration [109.38288333994407]
コントラスト・プロンプト・ラーニング(Contrastive Prompt Learning, CPL)は、プロンプト・タスクのアライメントを根本的に強化する新しいフレームワークである。
本フレームワークは,パラメータ効率を保ちながら,新たな最先端性能を確立し,統一画像復元のための原理的ソリューションを提供する。
論文 参考訳(メタデータ) (2025-04-14T08:24:57Z) - Will Pre-Training Ever End? A First Step Toward Next-Generation Foundation MLLMs via Self-Improving Systematic Cognition [86.21199607040147]
自己改善認知(Self-Improving cognition、SIcog)は、次世代基礎言語モデルを構築するための自己学習フレームワークである。
ステップバイステップの視覚的理解手法であるChain-of-Descriptionを導入し、構造化連鎖推論(CoT)を統合し、深いマルチモーダル推論をサポートする。
広範囲にわたる実験により、SIcogはマルチモーダル認知を著しく改善した次世代基盤MLLMを生産することが示された。
論文 参考訳(メタデータ) (2025-03-16T00:25:13Z) - Imitating Language via Scalable Inverse Reinforcement Learning [34.161807103808016]
我々は,模倣に対する逆強化学習の観点からの考察に焦点をあてる。
IRLをベースとした模倣には,特にタスク性能を最大化しながら多様性を維持する上で,明らかなメリットがある。
論文 参考訳(メタデータ) (2024-09-02T16:48:57Z) - REAL: Representation Enhanced Analytic Learning for Exemplar-free Class-incremental Learning [21.98964541770695]
Exemplar-free Class-Incremental Learning (EFCIL) は、学級増進学習(CIL)における破滅的な忘れを、模範として利用可能な過去のトレーニングサンプルなしで軽減することを目的としている。
近年、ACL(Analytic Continual Learning)と呼ばれる新しいEFCILブランチが、勾配のないパラダイムを導入している。
本稿では,これらの問題に対処するための表現強化分析学習(REAL)を提案する。
論文 参考訳(メタデータ) (2024-03-20T11:48:10Z) - Step-On-Feet Tuning: Scaling Self-Alignment of LLMs via Bootstrapping [53.454408491386886]
自己アライメントのブートストラップは、シングルラウンドアプローチをはるかに上回る。
モデルが継続的に強化した複数ショット機能を活用してゼロまたはワンショットのパフォーマンスを向上するステップ・オン・フィート・チューニング(SOFT)を提案する。
簡単な学習法に基づいて、自己アライメントの性能をさらに向上させるSOFT+を提案する。
論文 参考訳(メタデータ) (2024-02-12T12:30:42Z) - Toward Fast, Flexible, and Robust Low-Light Image Enhancement [87.27326390675155]
我々は、現実の低照度シナリオにおいて、高速でフレキシブルで頑健な鮮明化のための新しい自己校正イルミネーション(SCI)学習フレームワークを開発した。
カスケードパターンの計算負担を考慮すると、各ステージの結果の収束を実現する自己校正モジュールを構築する。
我々は,SCI固有の特性について,操作不感適応性やモデル非関係の一般性を含む包括的探索を行う。
論文 参考訳(メタデータ) (2022-04-21T14:40:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。