論文の概要: Optimal transfer protocol by incremental layer defrosting
- arxiv url: http://arxiv.org/abs/2303.01429v1
- Date: Thu, 2 Mar 2023 17:32:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 13:15:35.005193
- Title: Optimal transfer protocol by incremental layer defrosting
- Title(参考訳): インクリメンタル層デロストによる最適転送プロトコル
- Authors: Federica Gerace, Diego Doimo, Stefano Sarao Mannelli, Luca Saglietti,
Alessandro Laio
- Abstract要約: トランスファーラーニングは、限られた量のデータでモデルトレーニングを可能にする強力なツールである。
最も単純な転送学習プロトコルは、データリッチなソースタスクで事前訓練されたネットワークの機能抽出層を凍結する。
このプロトコルは、しばしば準最適であり、事前学習されたネットワークの小さな部分を凍結したままにしておくと、最大の性能向上が達成される可能性がある。
- 参考スコア(独自算出の注目度): 66.76153955485584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning is a powerful tool enabling model training with limited
amounts of data. This technique is particularly useful in real-world problems
where data availability is often a serious limitation. The simplest transfer
learning protocol is based on ``freezing" the feature-extractor layers of a
network pre-trained on a data-rich source task, and then adapting only the last
layers to a data-poor target task. This workflow is based on the assumption
that the feature maps of the pre-trained model are qualitatively similar to the
ones that would have been learned with enough data on the target task. In this
work, we show that this protocol is often sub-optimal, and the largest
performance gain may be achieved when smaller portions of the pre-trained
network are kept frozen. In particular, we make use of a controlled framework
to identify the optimal transfer depth, which turns out to depend non-trivially
on the amount of available training data and on the degree of source-target
task correlation. We then characterize transfer optimality by analyzing the
internal representations of two networks trained from scratch on the source and
the target task through multiple established similarity measures.
- Abstract(参考訳): 転送学習は、限られた量のデータでモデルトレーニングを可能にする強力なツールである。
この技術は、データ可用性が深刻な制限である実世界の問題に特に有用である。
最も単純な転送学習プロトコルは、データ豊富なソースタスクで事前トレーニングされたネットワークの機能抽出層を ``freezing' し、最後の層だけをデータポーアターゲットタスクに適応させる。
このワークフローは、事前トレーニングされたモデルのフィーチャーマップが、ターゲットタスクの十分なデータで学習されたものと定性的に似ているという仮定に基づいている。
本稿では,このプロトコルが最適ではない場合が多く,事前学習したネットワークの小さな部分が凍結された場合,最大性能向上を達成できることを示す。
特に,制御されたフレームワークを用いて最適な転送深度を同定し,利用可能なトレーニングデータ量とソースとターゲットのタスク相関度に非自明に依存することが判明した。
次に、複数の類似度尺度を用いて、ソースとターゲットタスクのスクラッチから訓練された2つのネットワークの内部表現を解析することにより、転送最適性を特徴づける。
関連論文リスト
- Features are fate: a theory of transfer learning in high-dimensional regression [23.840251319669907]
対象タスクが事前学習されたモデルの特徴空間で適切に表現されている場合、転送学習はスクラッチからトレーニングに優れることを示す。
本モデルでは, 音源と目標タスクの重なり合う特徴空間が十分に強い場合, 線形転送と微調整の両方で性能が向上することを確認した。
論文 参考訳(メタデータ) (2024-10-10T17:58:26Z) - Less is More: On the Feature Redundancy of Pretrained Models When
Transferring to Few-shot Tasks [120.23328563831704]
事前訓練されたモデルを下流タスクに転送することは、ターゲットデータと線形探索を行うのと同じくらい簡単である。
線形探索では, 下流データが少ない場合に, 事前学習した特徴が極めて冗長であることを示す。
論文 参考訳(メタデータ) (2023-10-05T19:00:49Z) - An Exploration of Data Efficiency in Intra-Dataset Task Transfer for
Dialog Understanding [65.75873687351553]
本研究は,対話領域における逐次移動学習における目標タスク訓練データ量の影響について検討する。
非意図的に、我々のデータでは、タスクトレーニングデータのサイズを目標とする場合、シーケンシャルトランスファーラーニングがトランスファーラーニングなしで同じモデルと比較した場合、最小限の効果が示される。
論文 参考訳(メタデータ) (2022-10-21T04:36:46Z) - Knowledge Distillation as Efficient Pre-training: Faster Convergence,
Higher Data-efficiency, and Better Transferability [53.27240222619834]
効率的な事前学習としての知識蒸留は、学習した特徴表現を学習済みモデルから将来の下流タスクのための新しい学生モデルに効率的に転送することを目的としている。
提案手法は,3つの下流タスクにおける教師付き事前学習タスクと,10倍少ないデータと5倍少ない事前学習時間を必要とする9つの下流データセットとを比較検討する。
論文 参考訳(メタデータ) (2022-03-10T06:23:41Z) - Probing transfer learning with a model of synthetic correlated datasets [11.53207294639557]
トランスファーラーニングはニューラルネットワークのサンプル効率を大幅に向上させることができる。
我々は、データセット間の相関をモデル化するためのフレームワークとして、合成データの解決可能なモデルを再考する。
本研究では,本モデルが実データを用いた伝達学習の多彩な特徴を捉えることができることを示す。
論文 参考訳(メタデータ) (2021-06-09T22:15:41Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - Uniform Priors for Data-Efficient Transfer [65.086680950871]
もっとも移動可能な特徴は埋め込み空間において高い均一性を有することを示す。
我々は、未確認のタスクやデータへの適応を容易にする能力の正規化を評価する。
論文 参考訳(メタデータ) (2020-06-30T04:39:36Z) - Minimax Lower Bounds for Transfer Learning with Linear and One-hidden
Layer Neural Networks [27.44348371795822]
転送学習の限界を特徴付けるための統計的ミニマックスフレームワークを開発する。
ラベル付きソース数とターゲットデータの関数として,任意のアルゴリズムで達成可能なターゲット一般化誤差に対して,低いバウンドを導出する。
論文 参考訳(メタデータ) (2020-06-16T22:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。