論文の概要: AdaptIR: Parameter Efficient Multi-task Adaptation for Pre-trained Image
Restoration Models
- arxiv url: http://arxiv.org/abs/2312.08881v1
- Date: Tue, 12 Dec 2023 14:27:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-15 22:25:03.742122
- Title: AdaptIR: Parameter Efficient Multi-task Adaptation for Pre-trained Image
Restoration Models
- Title(参考訳): AdaptIR:事前学習画像復元モデルのためのパラメータ効率的なマルチタスク適応
- Authors: Hang Guo, Tao Dai, Yuanchao Bai, Bin Chen, Shu-Tao Xia, Zexuan Zhu
- Abstract要約: 本稿では,事前学習した復元モデルに適応するためのパラメータ効率の良い移動学習手法であるAdaptIRを提案する。
実験により,提案手法は0.6%しか使用せず,完全微調整よりも同等あるいはさらに優れた性能が得られることが示された。
- 参考スコア(独自算出の注目度): 58.10797482129863
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Pre-training has shown promising results on various image restoration tasks,
which is usually followed by full fine-tuning for each specific downstream task
(e.g., image denoising). However, such full fine-tuning usually suffers from
the problems of heavy computational cost in practice, due to the massive
parameters of pre-trained restoration models, thus limiting its real-world
applications. Recently, Parameter Efficient Transfer Learning (PETL) offers an
efficient alternative solution to full fine-tuning, yet still faces great
challenges for pre-trained image restoration models, due to the diversity of
different degradations. To address these issues, we propose AdaptIR, a novel
parameter efficient transfer learning method for adapting pre-trained
restoration models. Specifically, the proposed method consists of a
multi-branch inception structure to orthogonally capture local spatial, global
spatial, and channel interactions. In this way, it allows powerful
representations under a very low parameter budget. Extensive experiments
demonstrate that the proposed method can achieve comparable or even better
performance than full fine-tuning, while only using 0.6% parameters. Code is
available at https://github.com/csguoh/AdaptIR.
- Abstract(参考訳): 事前トレーニングは、様々な画像復元タスクで有望な結果を示しており、通常は、特定の下流タスク(例えば、画像デノイジング)ごとに完全な微調整が行われる。
しかし、そのような完全な微調整は通常、事前訓練された修復モデルの膨大なパラメータのため、実際の計算コストの問題に苦しむため、実際の応用は制限される。
近年,パラメータ効率のよい転写学習 (PETL) は完全な微調整に有効な代替手段を提供しているが,劣化の多様性のため,事前学習した画像復元モデルには大きな課題に直面している。
そこで本研究では,事前学習した復元モデルに適応する新しいパラメータ効率の高い転送学習法であるadaptirを提案する。
具体的には,局所的空間的,大域的空間的,チャネル的相互作用を直交的に捉えるマルチブランチインセプション構造からなる。
このように、非常に低いパラメータ予算で強力な表現を可能にする。
広範な実験により,本手法は0.6%のパラメータしか使用せずに,完全な微調整と同等あるいはそれ以上の性能を達成できることが証明された。
コードはhttps://github.com/csguoh/AdaptIRで入手できる。
関連論文リスト
- Time-, Memory- and Parameter-Efficient Visual Adaptation [75.28557015773217]
バックボーンを介して勾配をバックプロパゲートしない適応法を提案する。
凍結した、事前訓練されたバックボーンの機能を利用する軽量ネットワークを並列に設計することで、これを実現する。
論文 参考訳(メタデータ) (2024-02-05T10:55:47Z) - Efficient Adaptation of Large Vision Transformer via Adapter
Re-Composing [8.88477151877883]
高容量事前学習モデルはコンピュータビジョンにおける問題解決に革命をもたらした。
本稿では,効率的な事前学習モデル適応に対処する新しい適応型再コンパイル(ARC)戦略を提案する。
提案手法は適応パラメータの再利用可能性について考察し,パラメータ共有方式を提案する。
論文 参考訳(メタデータ) (2023-10-10T01:04:15Z) - PVP: Pre-trained Visual Parameter-Efficient Tuning [29.05396521860764]
大規模事前学習型トランスフォーマーは、様々なコンピュータビジョンタスクにおいて顕著な成功を収めている。
計算とストレージのコストが高いため、これらのモデルを下流タスクのために完全に微調整することは依然として非常に困難である。
事前学習型ビジュアルを提案する。
効率的な(PVP)チューニングフレームワーク - 最初にパラメータ効率のチューニングモジュールを事前トレーニングし、次に事前トレーニングされたモジュールを活用する。
論文 参考訳(メタデータ) (2023-04-26T15:55:29Z) - Evaluating Parameter-Efficient Transfer Learning Approaches on SURE
Benchmark for Speech Understanding [40.27182770995891]
ファインチューニングは、事前訓練されたモデルからのトランスファー学習のデフォルトアルゴリズムとして広く使われている。
本稿では,様々な音声処理タスクに対するパラメータ効率学習のための音声不確定評価(SURE)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-03-02T08:57:33Z) - General Framework for Self-Supervised Model Priming for
Parameter-Efficient Fine-tuning [54.47460770634613]
本稿では,パラメータ効率の高い手法の少数ショット適応とクロスドメイン一般化能力を高めるための汎用フレームワークを提案する。
本フレームワークでは,パラメータ効率向上のための自己教師型モデルを用いて,下流の諸課題に迅速に適応する。
我々は160種類のNLPタスクを含む数ショットのクロスドメインベンチマークで実験を行った。
論文 参考訳(メタデータ) (2022-12-02T08:56:53Z) - Parameter-Efficient Image-to-Video Transfer Learning [66.82811235484607]
様々な下流タスクのための大規模な事前訓練されたモデルが、最近、有望なパフォーマンスで登場した。
モデルのサイズが拡大しているため、モデルトレーニングや記憶の面では、標準のフルチューニングベースのタスク適応戦略がコストがかかる。
本稿では,ビデオタスク毎のパラメータ効率の高い微調整のための新しいスペーシ・アダプタを提案する。
論文 参考訳(メタデータ) (2022-06-27T18:02:29Z) - Few-Shot Parameter-Efficient Fine-Tuning is Better and Cheaper than
In-Context Learning [81.3514358542452]
ICL (Few-shot in-context Learning) は、予測を行うたびにトレーニング例を全て処理するので、かなりの計算、メモリ、ストレージコストを発生させる。
パラメータ効率の良い微調整は、モデルの新たなタスクの実行を可能にするために、小さなパラメータセットをトレーニングする、代替パラダイムを提供する。
本稿では,少数ショットICLとパラメータ効率の微調整を厳密に比較し,後者が計算コストを劇的に削減できることを示す。
論文 参考訳(メタデータ) (2022-05-11T17:10:41Z) - Parameter-Efficient Transfer from Sequential Behaviors for User Modeling
and Recommendation [111.44445634272235]
本稿では,PeterRecと呼ばれるパラメータ効率のよい移動学習アーキテクチャを提案する。
PeterRecは、トレーニング済みのパラメータを、一連の再学習ニューラルネットワークを注入することで、微調整中に修正されないようにする。
我々は5つの下流タスクにおいて学習したユーザ表現の有効性を示すために、広範囲な実験的アブレーションを行う。
論文 参考訳(メタデータ) (2020-01-13T14:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。