論文の概要: AdaIR: Exploiting Underlying Similarities of Image Restoration Tasks with Adapters
- arxiv url: http://arxiv.org/abs/2404.11475v1
- Date: Wed, 17 Apr 2024 15:31:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 13:25:44.206671
- Title: AdaIR: Exploiting Underlying Similarities of Image Restoration Tasks with Adapters
- Title(参考訳): AdaIR: 画像復元タスクとアダプタの類似点を爆発させる
- Authors: Hao-Wei Chen, Yu-Syuan Xu, Kelvin C. K. Chan, Hsien-Kai Kuo, Chun-Yi Lee, Ming-Hsuan Yang,
- Abstract要約: AdaIRは、パフォーマンスを犠牲にすることなく、低コストで効率的なトレーニングを可能にする新しいフレームワークである。
AdaIRは軽量でタスク固有のモジュールのトレーニングのみを必要とし、より効率的なストレージとトレーニング体制を確保する。
- 参考スコア(独自算出の注目度): 57.62742271140852
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Existing image restoration approaches typically employ extensive networks specifically trained for designated degradations. Despite being effective, such methods inevitably entail considerable storage costs and computational overheads due to the reliance on task-specific networks. In this work, we go beyond this well-established framework and exploit the inherent commonalities among image restoration tasks. The primary objective is to identify components that are shareable across restoration tasks and augment the shared components with modules specifically trained for individual tasks. Towards this goal, we propose AdaIR, a novel framework that enables low storage cost and efficient training without sacrificing performance. Specifically, a generic restoration network is first constructed through self-supervised pre-training using synthetic degradations. Subsequent to the pre-training phase, adapters are trained to adapt the pre-trained network to specific degradations. AdaIR requires solely the training of lightweight, task-specific modules, ensuring a more efficient storage and training regimen. We have conducted extensive experiments to validate the effectiveness of AdaIR and analyze the influence of the pre-training strategy on discovering shareable components. Extensive experimental results show that AdaIR achieves outstanding results on multi-task restoration while utilizing significantly fewer parameters (1.9 MB) and less training time (7 hours) for each restoration task. The source codes and trained models will be released.
- Abstract(参考訳): 既存の画像復元手法は通常、指定された劣化に特化して訓練された広範囲なネットワークを使用する。
有効であるにもかかわらず、これらの方法は必然的に、タスク固有のネットワークに依存するため、かなりのストレージコストと計算オーバーヘッドを伴います。
本研究は、この確立された枠組みを超えて、画像復元作業における固有の共通点を活用するものである。
主な目的は、リストアタスク間で共有可能なコンポーネントを特定し、個々のタスクのために特別に訓練されたモジュールで共有コンポーネントを拡張することである。
この目標に向けて,性能を犠牲にすることなく,低ストレージコストと効率的なトレーニングを可能にする新しいフレームワークであるAdaIRを提案する。
具体的には, 合成劣化を利用した自己教師付き事前学習により, 総合的な修復ネットワークを構築した。
プレトレーニングフェーズの後、アダプタはトレーニング済みのネットワークを特定の劣化に適応するように訓練される。
AdaIRは軽量でタスク固有のモジュールのトレーニングのみを必要とし、より効率的なストレージとトレーニング体制を確保する。
我々は,AdaIRの有効性を検証し,共有可能なコンポーネントの発見に対する事前学習戦略の影響を分析するために,広範囲な実験を行った。
広範囲な実験結果から,AdaIRはマルチタスク修復において,各修復作業に要するパラメータ (1.9 MB) とトレーニング時間 (7時間) を著しく減らし,優れた結果が得られた。
ソースコードとトレーニングされたモデルがリリースされる。
関連論文リスト
- LoRA-IR: Taming Low-Rank Experts for Efficient All-in-One Image Restoration [62.3751291442432]
高速なオールインワン画像復元を実現するために,コンパクトな低ランクの専門家を動的に活用する,フレキシブルなフレームワークであるLoRA-IRを提案する。
LoRA-IRは、劣化誘導前訓練とパラメータ効率の良い微調整の2つの訓練段階で構成されている。
実験により、LoRA-IRは計算効率を維持しつつ、14のIRタスクと29のベンチマークでSOTA性能を達成することが示された。
論文 参考訳(メタデータ) (2024-10-20T13:00:24Z) - Make the Pertinent Salient: Task-Relevant Reconstruction for Visual Control with Distractions [14.274653873720334]
本研究では, 気を散らす環境下での表現学習を容易にするための, 単純かつ効果的な補助タスクを提案する。
画像観察の課題関連成分は、先行知識と容易に識別できるという前提のもと、画像観察にセグメンテーションマスクを用いてタスク関連成分のみを識別する。
改良されたDeepMind Control Suite(DMC)とMeta-Worldタスクでは、SDは以前の作業よりもはるかに優れたサンプル効率と最終的なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-10-13T19:24:07Z) - MOST: MR reconstruction Optimization for multiple downStream Tasks via continual learning [12.0749219807816]
個別に訓練された再構成ネットワークと下流タスクネットワークをカスケーディングすることで、性能劣化がもたらされることが示されている。
この最適化を順次導入した複数のダウンストリームタスクに拡張し,複数のダウンストリームタスクに対して単一のMR再構成ネットワークを最適化できることを実証する。
論文 参考訳(メタデータ) (2024-09-16T15:31:04Z) - Boosting Image Restoration via Priors from Pre-trained Models [54.83907596825985]
我々は、OSFによるターゲット復元ネットワークの復元結果を改善するために、Pre-Train-Guided Refinement Module (PTG-RM)と呼ばれる軽量モジュールを学習する。
PTG-RMは、低照度強化、デラリニング、デブロアリング、デノナイジングなど、様々なタスクにおける様々なモデルの復元性能を効果的に向上させる。
論文 参考訳(メタデータ) (2024-03-11T15:11:57Z) - Meta-Learning with Versatile Loss Geometries for Fast Adaptation Using
Mirror Descent [44.56938629818211]
メタ学習における根本的な課題は、タスク固有のモデルをトレーニングするために、抽出したモデルを迅速に“適応”する方法である。
既存のアプローチは、タスク毎のトレーニングプロセスの収束性を高めるプリコンディショナーを使用して、この課題に対処する。
この寄与は非線形ミラーマップを学習することでこの制限に対処し、多角距離メートル法を誘導する。
論文 参考訳(メタデータ) (2023-12-20T23:45:06Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - E2-AEN: End-to-End Incremental Learning with Adaptively Expandable
Network [57.87240860624937]
本稿では,E2-AENという,エンドツーエンドのトレーニング可能な適応拡張可能なネットワークを提案する。
以前のタスクの精度を落とさずに、新しいタスクのための軽量な構造を動的に生成する。
E2-AENはコストを削減し、あらゆるフィードフォワードアーキテクチャをエンドツーエンドで構築できる。
論文 参考訳(メタデータ) (2022-07-14T09:04:51Z) - Proper Reuse of Image Classification Features Improves Object Detection [4.240984948137734]
トランスファーラーニングの一般的な実践は、データに基づく上流タスクで事前学習することで、下流モデルの重み付けを初期化することである。
近年の研究では、長いトレーニング体制下では必須ではないことが示されており、背骨をスクラッチからトレーニングするためのレシピを提供している。
知識保存の極端な形態 -- 分類器dのバックボーンを凍結する -- が、一貫して多くの異なる検出モデルを改善していることを示す。
論文 参考訳(メタデータ) (2022-04-01T14:44:47Z) - Rapid Structural Pruning of Neural Networks with Set-based Task-Adaptive
Meta-Pruning [83.59005356327103]
既存のプルーニング技術に共通する制限は、プルーニングの前に少なくとも1回はネットワークの事前トレーニングが必要であることである。
本稿では,ターゲットデータセットの関数としてプルーニングマスクを生成することにより,大規模な参照データセット上で事前訓練されたネットワークをタスク適応的にプルークするSTAMPを提案する。
ベンチマークデータセット上での最近の先進的なプルーニング手法に対するSTAMPの有効性を検証する。
論文 参考訳(メタデータ) (2020-06-22T10:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。