論文の概要: Edit2Restore:Few-Shot Image Restoration via Parameter-Efficient Adaptation of Pre-trained Editing Models
- arxiv url: http://arxiv.org/abs/2601.03391v1
- Date: Tue, 06 Jan 2026 19:56:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.060736
- Title: Edit2Restore:Few-Shot Image Restoration via Parameter-Efficient Adaptation of Pre-trained Editing Models
- Title(参考訳): Edit2Restore:事前学習した編集モデルのパラメータ適応によるFew-Shot画像復元
- Authors: M. Akın Yılmaz, Ahmet Bilican, Burak Can Biner, A. Murat Tekalp,
- Abstract要約: テキスト条件付き画像編集モデルでは,複数の復元作業に効率よく適応できることを示す。
FLUX.1 Kontextは画像から画像への変換のための12Bパラメータフローマッチングモデルである。
- 参考スコア(独自算出の注目度): 4.573600918393017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image restoration has traditionally required training specialized models on thousands of paired examples per degradation type. We challenge this paradigm by demonstrating that powerful pre-trained text-conditioned image editing models can be efficiently adapted for multiple restoration tasks through parameter-efficient fine-tuning with remarkably few examples. Our approach fine-tunes LoRA adapters on FLUX.1 Kontext, a state-of-the-art 12B parameter flow matching model for image-to-image translation, using only 16-128 paired images per task, guided by simple text prompts that specify the restoration operation. Unlike existing methods that train specialized restoration networks from scratch with thousands of samples, we leverage the rich visual priors already encoded in large-scale pre-trained editing models, dramatically reducing data requirements while maintaining high perceptual quality. A single unified LoRA adapter, conditioned on task-specific text prompts, effectively handles multiple degradations including denoising, deraining, and dehazing. Through comprehensive ablation studies, we analyze: (i) the impact of training set size on restoration quality, (ii) trade-offs between task-specific versus unified multi-task adapters, (iii) the role of text encoder fine-tuning, and (iv) zero-shot baseline performance. While our method prioritizes perceptual quality over pixel-perfect reconstruction metrics like PSNR/SSIM, our results demonstrate that pre-trained image editing models, when properly adapted, offer a compelling and data-efficient alternative to traditional image restoration approaches, opening new avenues for few-shot, prompt-guided image enhancement. The code to reproduce our results are available at: https://github.com/makinyilmaz/Edit2Restore
- Abstract(参考訳): 画像復元は伝統的に、分解タイプ当たりの数千のペアの例について、特別なモデルを訓練する必要がある。
このパラダイムは, パラメータ効率のよい微調整により, 強力なテキスト条件付き画像編集モデルを複数の復元作業に効率的に適用できることを, 極めて少数の例で示すことで, 課題を解決している。
FLUX.1上のLORAアダプタを微調整するアプローチ
Kontextは、画像と画像の変換のための最先端12Bパラメータフローマッチングモデルで、1タスクあたり16-128のペアイメージしか使用せず、復元操作を指定する単純なテキストプロンプトでガイドされている。
数千のサンプルで特殊復元ネットワークをゼロから訓練する既存の方法とは異なり、我々は、大規模な事前学習編集モデルですでに符号化されているリッチな視覚的先行情報を活用し、高い知覚品質を維持しながら、データ要求を劇的に削減する。
タスク固有のテキストプロンプトに条件付けされた単一統一LoRAアダプタは、デノイング、デライニング、デヘイジングなどの複数の劣化を効果的に処理する。
包括的アブレーション研究を通して、分析する。
一 修整セットの大きさが修整品質に及ぼす影響
(ii)タスク固有のマルチタスクアダプタと統合マルチタスクアダプタのトレードオフ
三 テキストエンコーダの微調整の役割及び
(4)ゼロショットベースラインのパフォーマンス。
提案手法は,PSNR/SSIMなどの画素完全再構成指標よりも知覚品質を優先するが,事前学習した画像編集モデルは,適切に適応すれば,従来の画像復元手法に代わる説得力とデータ効率のよい代替手段を提供することを示す。
結果を再現するコードは、https://github.com/makinyilmaz/Edit2Restoreで利用可能です。
関連論文リスト
- Pruning Overparameterized Multi-Task Networks for Degraded Web Image Restoration [1.9336815376402718]
マルチタスク画像復元モデルを圧縮する手法を提案する。
提案手法は,低マグニチュード重みを除去する反復的プルーニング戦略を用いて,MIR-Lモデルを提案する。
テストの結果、MIR-Lはトレーニング可能なパラメータの10%しか保持せず、高い画像復元性能を維持していることがわかった。
論文 参考訳(メタデータ) (2025-10-16T09:04:05Z) - Acquire and then Adapt: Squeezing out Text-to-Image Model for Image Restoration [25.65952375846516]
我々は、よく訓練された大きなT2Iモデル(すなわち、Flux)が、現実世界の分布に合わせて様々な高品質な画像を生成することができることを発見した。
また、Diffusion Transformer (DiT) ベースのT2Iモデルを制御するために、圧縮・励起層を持つ新しい軽量アダプタ (FluxIR) も慎重に設計されている。
論文 参考訳(メタデータ) (2025-04-21T15:05:22Z) - Review Learning: Advancing All-in-One Ultra-High-Definition Image Restoration Training Method [7.487270862599671]
本稿では,bfReview Learning という一般画像復元モデルの学習パラダイムを提案する。
このアプローチは、いくつかの劣化したデータセット上のイメージ復元モデルのシーケンシャルなトレーニングと、レビューメカニズムの組み合わせから始まります。
コンシューマグレードのGPU上で4K解像度で画像の劣化を効率的に推論できる軽量な全目的画像復元ネットワークを設計する。
論文 参考訳(メタデータ) (2024-08-13T08:08:45Z) - Efficient and Versatile Robust Fine-Tuning of Zero-shot Models [34.27380518351181]
本稿では、下流タスクにゼロショットモデルを微調整する新しい手法であるRobust Adapter(R-Adapter)を紹介する。
本手法は, 軽量モジュールを事前学習モデルに統合し, OODロバスト性を高め, 保存コストを大幅に削減するために, 新たな自己アンサンブル技術を用いる。
実験により,R-Adapterは,CLIPエンコーダのパラメータの13%をチューニングし,タスクのさまざまなセットで最先端のパフォーマンスを実現することを確認した。
論文 参考訳(メタデータ) (2024-08-11T11:37:43Z) - PromptFix: You Prompt and We Fix the Photo [84.69812824355269]
言語モデルを備えた拡散モデルは、画像生成タスクにおいて優れた制御性を示す。
多様な命令追跡データの欠如は、モデルの開発を妨げている。
本稿では,人間の指示に従う拡散モデルを実現するフレームワークであるPromptFixを提案する。
論文 参考訳(メタデータ) (2024-05-27T03:13:28Z) - Unified-Width Adaptive Dynamic Network for All-In-One Image Restoration [50.81374327480445]
本稿では, 複雑な画像劣化を基本劣化の観点で表現できる, という新しい概念を提案する。
We propose the Unified-Width Adaptive Dynamic Network (U-WADN) which consist of two pivotal components: a Width Adaptive Backbone (WAB) and a Width Selector (WS)。
提案したU-WADNは、最大32.3%のFLOPを同時に削減し、約15.7%のリアルタイム加速を実現している。
論文 参考訳(メタデータ) (2024-01-24T04:25:12Z) - Exposure Bracketing Is All You Need For A High-Quality Image [50.822601495422916]
マルチ露光画像は、デノイング、デブロアリング、高ダイナミックレンジイメージング、超解像において相補的である。
本研究では,これらの課題を組み合わせ,高品質な画像を得るために露光ブラケット写真を活用することを提案する。
特に時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - Parameter Efficient Adaptation for Image Restoration with Heterogeneous Mixture-of-Experts [52.39959535724677]
画像復元モデルの一般化を改善するための代替手法を提案する。
ローカル,グローバル,チャネル表現ベースをキャプチャするマルチブランチ設計のMixture-of-Experts (MoE) であるAdaptIRを提案する。
我々のAdaptIRは、単一劣化タスクにおける安定した性能を実現し、8時間間、微調整はわずか0.6%のパラメータしか持たず、ハイブリッド劣化タスクにおいて優れる。
論文 参考訳(メタデータ) (2023-12-12T14:27:59Z) - Learning from History: Task-agnostic Model Contrastive Learning for
Image Restoration [79.04007257606862]
本稿では,対象モデル自体から負のサンプルを動的に生成する「歴史からの学習」という革新的な手法を提案する。
我々のアプローチはMCLIR(Model Contrastive Learning for Image Restoration)と呼ばれ、遅延モデルを負のモデルとして再定義し、多様な画像復元タスクと互換性を持たせる。
論文 参考訳(メタデータ) (2023-09-12T07:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。