論文の概要: Minimax Lower Bounds for Transfer Learning with Linear and One-hidden
Layer Neural Networks
- arxiv url: http://arxiv.org/abs/2006.10581v1
- Date: Tue, 16 Jun 2020 22:49:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 20:40:31.149324
- Title: Minimax Lower Bounds for Transfer Learning with Linear and One-hidden
Layer Neural Networks
- Title(参考訳): リニア・ハイデン層ニューラルネットワークを用いたトランスファー学習のためのミニマックス下限
- Authors: Seyed Mohammadreza Mousavi Kalan, Zalan Fabian, A. Salman Avestimehr,
and Mahdi Soltanolkotabi
- Abstract要約: 転送学習の限界を特徴付けるための統計的ミニマックスフレームワークを開発する。
ラベル付きソース数とターゲットデータの関数として,任意のアルゴリズムで達成可能なターゲット一般化誤差に対して,低いバウンドを導出する。
- 参考スコア(独自算出の注目度): 27.44348371795822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning has emerged as a powerful technique for improving the
performance of machine learning models on new domains where labeled training
data may be scarce. In this approach a model trained for a source task, where
plenty of labeled training data is available, is used as a starting point for
training a model on a related target task with only few labeled training data.
Despite recent empirical success of transfer learning approaches, the benefits
and fundamental limits of transfer learning are poorly understood. In this
paper we develop a statistical minimax framework to characterize the
fundamental limits of transfer learning in the context of regression with
linear and one-hidden layer neural network models. Specifically, we derive a
lower-bound for the target generalization error achievable by any algorithm as
a function of the number of labeled source and target data as well as
appropriate notions of similarity between the source and target tasks. Our
lower bound provides new insights into the benefits and limitations of transfer
learning. We further corroborate our theoretical finding with various
experiments.
- Abstract(参考訳): ラベル付きトレーニングデータが不足する可能性のある、新たなドメインにおける機械学習モデルのパフォーマンス向上のための強力なテクニックとして、転送学習が登場している。
このアプローチでは、多くのラベル付きトレーニングデータが利用可能なソースタスク用にトレーニングされたモデルが、ラベル付きトレーニングデータが少ない関連するターゲットタスクでモデルをトレーニングするための出発点として使用される。
近年のトランスファーラーニングアプローチの実証的成功にもかかわらず、トランスファーラーニングの利点と基本的限界は理解されていない。
本稿では,線形および一重層ニューラルネットワークモデルによる回帰の文脈における伝達学習の基本的限界を特徴付ける統計的ミニマックスフレームワークを開発する。
具体的には、ラベル付きソースとターゲットデータの関数として、任意のアルゴリズムによって達成可能なターゲット一般化誤差の低い値と、ソースとターゲットタスク間の類似性の適切な概念を導出する。
私たちの下限は、転校学習のメリットと限界に対する新たな洞察を提供します。
さらに様々な実験で理論的な発見を裏付ける。
関連論文リスト
- Features are fate: a theory of transfer learning in high-dimensional regression [23.840251319669907]
対象タスクが事前学習されたモデルの特徴空間で適切に表現されている場合、転送学習はスクラッチからトレーニングに優れることを示す。
本モデルでは, 音源と目標タスクの重なり合う特徴空間が十分に強い場合, 線形転送と微調整の両方で性能が向上することを確認した。
論文 参考訳(メタデータ) (2024-10-10T17:58:26Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - An information-Theoretic Approach to Semi-supervised Transfer Learning [33.89602092349131]
トランスファーラーニングは、ある"ソースデータセット"から別の"ターゲットデータセット"に情報を伝達することを可能にする
ソースとターゲットデータの分布の相違は一般的です。
本稿では,伝達学習の文脈におけるディープニューラルネットワークの性能解析のための新しい情報理論アプローチを提案する。
論文 参考訳(メタデータ) (2023-06-11T17:45:46Z) - Optimal transfer protocol by incremental layer defrosting [66.76153955485584]
トランスファーラーニングは、限られた量のデータでモデルトレーニングを可能にする強力なツールである。
最も単純な転送学習プロトコルは、データリッチなソースタスクで事前訓練されたネットワークの機能抽出層を凍結する。
このプロトコルは、しばしば準最適であり、事前学習されたネットワークの小さな部分を凍結したままにしておくと、最大の性能向上が達成される可能性がある。
論文 参考訳(メタデータ) (2023-03-02T17:32:11Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - A Survey on Self-supervised Pre-training for Sequential Transfer
Learning in Neural Networks [1.1802674324027231]
移動学習のための自己教師付き事前学習は、ラベルのないデータを用いて最先端の結果を改善する技術として、ますます人気が高まっている。
本稿では,自己指導型学習と伝達学習の分類学の概要を述べるとともに,各領域にまたがる事前学習タスクを設計するためのいくつかの顕著な手法を強調した。
論文 参考訳(メタデータ) (2020-07-01T22:55:48Z) - Uniform Priors for Data-Efficient Transfer [65.086680950871]
もっとも移動可能な特徴は埋め込み空間において高い均一性を有することを示す。
我々は、未確認のタスクやデータへの適応を容易にする能力の正規化を評価する。
論文 参考訳(メタデータ) (2020-06-30T04:39:36Z) - A survey on domain adaptation theory: learning bounds and theoretical
guarantees [17.71634393160982]
この調査の主な目的は、特定の、そして間違いなく最も人気のある、移動学習のサブフィールドにおける最先端の理論的結果の概要を提供することである。
このサブフィールドでは、学習タスクは同じままで、トレーニングとテストデータの間でデータ分布が変化すると仮定される。
本稿では、ドメイン適応問題に関連する既存の結果の最新の記述について述べる。
論文 参考訳(メタデータ) (2020-04-24T16:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。