論文の概要: PAC-Net: A Model Pruning Approach to Inductive Transfer Learning
- arxiv url: http://arxiv.org/abs/2206.05703v1
- Date: Sun, 12 Jun 2022 09:45:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 13:36:00.298411
- Title: PAC-Net: A Model Pruning Approach to Inductive Transfer Learning
- Title(参考訳): PAC-Net:インダクティブトランスファー学習のためのモデルプランニングアプローチ
- Authors: Sanghoon Myung, In Huh, Wonik Jang, Jae Myung Choe, Jisu Ryu, Dae Sin
Kim, Kee-Eung Kim, Changwook Jeong
- Abstract要約: PAC-Netは、プルーニングに基づく伝達学習において、シンプルだが効果的なアプローチである。
PAC-NetはPrune、Allocate、Calibrateの3つのステップで構成されている。
様々な多種多様な帰納的伝達学習実験において,本手法は最先端の性能を高いマージンで達成することを示す。
- 参考スコア(独自算出の注目度): 16.153557870191488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inductive transfer learning aims to learn from a small amount of training
data for the target task by utilizing a pre-trained model from the source task.
Most strategies that involve large-scale deep learning models adopt
initialization with the pre-trained model and fine-tuning for the target task.
However, when using over-parameterized models, we can often prune the model
without sacrificing the accuracy of the source task. This motivates us to adopt
model pruning for transfer learning with deep learning models. In this paper,
we propose PAC-Net, a simple yet effective approach for transfer learning based
on pruning. PAC-Net consists of three steps: Prune, Allocate, and Calibrate
(PAC). The main idea behind these steps is to identify essential weights for
the source task, fine-tune on the source task by updating the essential
weights, and then calibrate on the target task by updating the remaining
redundant weights. Under the various and extensive set of inductive transfer
learning experiments, we show that our method achieves state-of-the-art
performance by a large margin.
- Abstract(参考訳): インダクティブ転送学習は、ソースタスクから事前学習されたモデルを利用して、ターゲットタスクの少量のトレーニングデータから学習することを目的としている。
大規模ディープラーニングモデルを含む戦略のほとんどは、事前訓練されたモデルによる初期化と、目標タスクの微調整を採用する。
しかし、過パラメータ化モデルを使用する場合、ソースタスクの精度を犠牲にすることなく、しばしばモデルを実行することができる。
これにより、ディープラーニングモデルによるトランスファーラーニングにモデルプルーニングを採用するモチベーションが生まれます。
本稿では,プルーニングに基づく伝達学習のための簡易かつ効果的な手法であるPAC-Netを提案する。
PAC-NetはPrune、Allocate、Calibrate(PAC)の3つのステップで構成される。
これらのステップの背後にある主なアイデアは、ソースタスクの本質的な重みを識別し、本質的な重みを更新してソースタスクを微調整し、残りの冗長重みを更新してターゲットタスクを校正することである。
様々な多種多様な帰納的伝達学習実験において,本手法は最先端の性能を高いマージンで達成することを示す。
関連論文リスト
- Simplified Temporal Consistency Reinforcement Learning [19.814047499837084]
本稿では,潜時整合性によって訓練された潜時力学モデルに依存する単純な表現学習手法が,高性能なRLには十分であることを示す。
提案手法は,モデルフリー手法を大きなマージンで上回り,モデルベース手法のサンプル効率を2.4倍高速にトレーニングしながら比較する。
論文 参考訳(メタデータ) (2023-06-15T19:37:43Z) - Model-Based Reinforcement Learning with Multi-Task Offline Pretraining [59.82457030180094]
本稿では,オフラインデータから新しいタスクへ,潜在的に有用なダイナミックスや動作デモを伝達するモデルベースRL法を提案する。
主な考え方は、世界モデルを行動学習のシミュレーターとしてだけでなく、タスクの関連性を測定するツールとして使うことである。
本稿では,Meta-WorldとDeepMind Control Suiteの最先端手法と比較して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-06-06T02:24:41Z) - Towards Efficient Task-Driven Model Reprogramming with Foundation Models [52.411508216448716]
ビジョンファウンデーションモデルは、非常に大きなモデルキャパシティと幅広いトレーニングデータから恩恵を受け、印象的なパワーを示す。
しかし、実際には、下流のシナリオは限られた計算資源や効率上の考慮のため、小さなモデルしかサポートできない。
これは、ファンデーションモデルの現実的な応用に重要な課題をもたらします。
論文 参考訳(メタデータ) (2023-04-05T07:28:33Z) - Scalable Weight Reparametrization for Efficient Transfer Learning [10.265713480189486]
効率的な転送学習は、より大きなデータセットでトレーニングされたトレーニング済みのモデルを使用して、下流タスクのためにそれを再利用する。
以前の作業ではパラメータやタスク固有のモジュールが更新され、特に小さなモデルでは計算量が増加した。
本稿では,事前学習したモデルの再パラメータ化の場所を決定するためのポリシネットワークの学習を提案する。
論文 参考訳(メタデータ) (2023-02-26T23:19:11Z) - Voting from Nearest Tasks: Meta-Vote Pruning of Pre-trained Models for
Downstream Tasks [55.431048995662714]
我々は、類似タスクの刈り取られたモデルから、新しいタスクのための小さなモデルを作成する。
このモデルに関するいくつかの微調整ステップは、新しいタスクに対して有望なプルーンドモデルを生成するのに十分であることを示す。
我々は, 単純だが効果的な'Meta-Vote Pruning (MVP)' 手法を開発した。
論文 参考訳(メタデータ) (2023-01-27T06:49:47Z) - Hub-Pathway: Transfer Learning from A Hub of Pre-trained Models [89.44031286278347]
本稿では,モデルハブからの知識伝達を可能にするハブパスウェイフレームワークを提案する。
提案するフレームワークは、目的のタスク固有の損失でエンドツーエンドにトレーニングすることができる。
コンピュータビジョンおよび強化学習タスクの実験結果は、このフレームワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2022-06-08T08:00:12Z) - Pre-Train Your Loss: Easy Bayesian Transfer Learning with Informative
Priors [59.93972277761501]
我々は,教師付きあるいは自己指導型アプローチにより,ソースタスクから高い情報的後部を学習できることを実証した。
このシンプルなモジュラーアプローチは、様々な下流の分類とセグメンテーションタスクにおいて、大幅なパフォーマンス向上と、よりデータ効率のよい学習を可能にする。
論文 参考訳(メタデータ) (2022-05-20T16:19:30Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - Bridging Pre-trained Models and Downstream Tasks for Source Code
Understanding [13.65914588243695]
本稿では,事前学習されたモデルとコード関連タスクをブリッジする手法を提案する。
我々は、下流データの多様性を豊かにする意味保存変換を利用する。
本稿では,既存の事前学習モデルを微調整するために,変換されたデータを手軽に整理するためのカリキュラム学習を紹介する。
論文 参考訳(メタデータ) (2021-12-04T07:21:28Z) - Merging Models with Fisher-Weighted Averaging [24.698591753644077]
我々は、複数のモデルを1つに“マージ”するモデル間で知識を伝達する、根本的に異なる方法を紹介します。
提案手法は,モデルのパラメータの重み付け平均を効果的に計算する。
マージ手順により、これまで探索されていなかった方法でモデルを組み合わせることが可能であることを示す。
論文 参考訳(メタデータ) (2021-11-18T17:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。