論文の概要: AdaIR: Exploiting Underlying Similarities of Image Restoration Tasks with Adapters
- arxiv url: http://arxiv.org/abs/2404.11475v1
- Date: Wed, 17 Apr 2024 15:31:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 13:25:44.206671
- Title: AdaIR: Exploiting Underlying Similarities of Image Restoration Tasks with Adapters
- Title(参考訳): AdaIR: 画像復元タスクとアダプタの類似点を爆発させる
- Authors: Hao-Wei Chen, Yu-Syuan Xu, Kelvin C. K. Chan, Hsien-Kai Kuo, Chun-Yi Lee, Ming-Hsuan Yang,
- Abstract要約: AdaIRは、パフォーマンスを犠牲にすることなく、低コストで効率的なトレーニングを可能にする新しいフレームワークである。
AdaIRは軽量でタスク固有のモジュールのトレーニングのみを必要とし、より効率的なストレージとトレーニング体制を確保する。
- 参考スコア(独自算出の注目度): 57.62742271140852
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Existing image restoration approaches typically employ extensive networks specifically trained for designated degradations. Despite being effective, such methods inevitably entail considerable storage costs and computational overheads due to the reliance on task-specific networks. In this work, we go beyond this well-established framework and exploit the inherent commonalities among image restoration tasks. The primary objective is to identify components that are shareable across restoration tasks and augment the shared components with modules specifically trained for individual tasks. Towards this goal, we propose AdaIR, a novel framework that enables low storage cost and efficient training without sacrificing performance. Specifically, a generic restoration network is first constructed through self-supervised pre-training using synthetic degradations. Subsequent to the pre-training phase, adapters are trained to adapt the pre-trained network to specific degradations. AdaIR requires solely the training of lightweight, task-specific modules, ensuring a more efficient storage and training regimen. We have conducted extensive experiments to validate the effectiveness of AdaIR and analyze the influence of the pre-training strategy on discovering shareable components. Extensive experimental results show that AdaIR achieves outstanding results on multi-task restoration while utilizing significantly fewer parameters (1.9 MB) and less training time (7 hours) for each restoration task. The source codes and trained models will be released.
- Abstract(参考訳): 既存の画像復元手法は通常、指定された劣化に特化して訓練された広範囲なネットワークを使用する。
有効であるにもかかわらず、これらの方法は必然的に、タスク固有のネットワークに依存するため、かなりのストレージコストと計算オーバーヘッドを伴います。
本研究は、この確立された枠組みを超えて、画像復元作業における固有の共通点を活用するものである。
主な目的は、リストアタスク間で共有可能なコンポーネントを特定し、個々のタスクのために特別に訓練されたモジュールで共有コンポーネントを拡張することである。
この目標に向けて,性能を犠牲にすることなく,低ストレージコストと効率的なトレーニングを可能にする新しいフレームワークであるAdaIRを提案する。
具体的には, 合成劣化を利用した自己教師付き事前学習により, 総合的な修復ネットワークを構築した。
プレトレーニングフェーズの後、アダプタはトレーニング済みのネットワークを特定の劣化に適応するように訓練される。
AdaIRは軽量でタスク固有のモジュールのトレーニングのみを必要とし、より効率的なストレージとトレーニング体制を確保する。
我々は,AdaIRの有効性を検証し,共有可能なコンポーネントの発見に対する事前学習戦略の影響を分析するために,広範囲な実験を行った。
広範囲な実験結果から,AdaIRはマルチタスク修復において,各修復作業に要するパラメータ (1.9 MB) とトレーニング時間 (7時間) を著しく減らし,優れた結果が得られた。
ソースコードとトレーニングされたモデルがリリースされる。
関連論文リスト
- PYRA: Parallel Yielding Re-Activation for Training-Inference Efficient Task Adaptation [61.57833648734164]
本稿では,PYRA(Parallel Yielding Re-Activation)手法を提案する。
PYRAは低圧縮率と高圧縮率の両方で競合する全ての手法より優れている。
論文 参考訳(メタデータ) (2024-03-14T09:06:49Z) - Boosting Image Restoration via Priors from Pre-trained Models [54.83907596825985]
我々は、OSFによるターゲット復元ネットワークの復元結果を改善するために、Pre-Train-Guided Refinement Module (PTG-RM)と呼ばれる軽量モジュールを学習する。
PTG-RMは、低照度強化、デラリニング、デブロアリング、デノナイジングなど、様々なタスクにおける様々なモデルの復元性能を効果的に向上させる。
論文 参考訳(メタデータ) (2024-03-11T15:11:57Z) - Meta-Learning with Versatile Loss Geometries for Fast Adaptation Using
Mirror Descent [44.56938629818211]
メタ学習における根本的な課題は、タスク固有のモデルをトレーニングするために、抽出したモデルを迅速に“適応”する方法である。
既存のアプローチは、タスク毎のトレーニングプロセスの収束性を高めるプリコンディショナーを使用して、この課題に対処する。
この寄与は非線形ミラーマップを学習することでこの制限に対処し、多角距離メートル法を誘導する。
論文 参考訳(メタデータ) (2023-12-20T23:45:06Z) - Negotiated Representations to Prevent Forgetting in Machine Learning
Applications [0.0]
破滅的な忘れは、機械学習の分野で重要な課題である。
本稿では,機械学習アプリケーションにおける破滅的忘れを防止する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-11-30T22:43:50Z) - Disposable Transfer Learning for Selective Source Task Unlearning [31.020636963762836]
転送学習は、強力な表現を構築するためのディープニューラルネットワーク(DNN)のトレーニングに広く使用されている。
Disposable Transfer Learning (DTL)は、ターゲットタスクのパフォーマンスを低下させることなく、ソースタスクのみを処分する。
我々は,GC損失がDTL問題に対する効果的なアプローチであることを示し,GC損失をトレーニングしたモデルが,PL精度を著しく低減した目標タスクの性能を維持することを示した。
論文 参考訳(メタデータ) (2023-08-19T10:13:17Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - E2-AEN: End-to-End Incremental Learning with Adaptively Expandable
Network [57.87240860624937]
本稿では,E2-AENという,エンドツーエンドのトレーニング可能な適応拡張可能なネットワークを提案する。
以前のタスクの精度を落とさずに、新しいタスクのための軽量な構造を動的に生成する。
E2-AENはコストを削減し、あらゆるフィードフォワードアーキテクチャをエンドツーエンドで構築できる。
論文 参考訳(メタデータ) (2022-07-14T09:04:51Z) - Proper Reuse of Image Classification Features Improves Object Detection [4.240984948137734]
トランスファーラーニングの一般的な実践は、データに基づく上流タスクで事前学習することで、下流モデルの重み付けを初期化することである。
近年の研究では、長いトレーニング体制下では必須ではないことが示されており、背骨をスクラッチからトレーニングするためのレシピを提供している。
知識保存の極端な形態 -- 分類器dのバックボーンを凍結する -- が、一貫して多くの異なる検出モデルを改善していることを示す。
論文 参考訳(メタデータ) (2022-04-01T14:44:47Z) - Dynamic Sparse Training for Deep Reinforcement Learning [36.66889208433228]
我々は,ニューラルネットワークをスクラッチから切り離した深層強化学習エージェントを動的に訓練する試みを初めて提案する。
私たちのアプローチは、既存の深層強化学習アルゴリズムに簡単に統合できます。
我々は,オープンAI体育連続制御タスクに対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-06-08T09:57:20Z) - Rapid Structural Pruning of Neural Networks with Set-based Task-Adaptive
Meta-Pruning [83.59005356327103]
既存のプルーニング技術に共通する制限は、プルーニングの前に少なくとも1回はネットワークの事前トレーニングが必要であることである。
本稿では,ターゲットデータセットの関数としてプルーニングマスクを生成することにより,大規模な参照データセット上で事前訓練されたネットワークをタスク適応的にプルークするSTAMPを提案する。
ベンチマークデータセット上での最近の先進的なプルーニング手法に対するSTAMPの有効性を検証する。
論文 参考訳(メタデータ) (2020-06-22T10:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。