論文の概要: Transfer Learning Can Outperform the True Prior in Double Descent
Regularization
- arxiv url: http://arxiv.org/abs/2103.05621v1
- Date: Tue, 9 Mar 2021 18:46:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 14:51:31.616426
- Title: Transfer Learning Can Outperform the True Prior in Double Descent
Regularization
- Title(参考訳): 転送学習は二重日射正則化における真の優先度を上回る
- Authors: Yehuda Dar, Richard G. Baraniuk
- Abstract要約: 線形回帰タスクのソースからターゲットへの基本的な転送学習プロセスについて検討する。
転送学習が個々の目標タスクの最小平均平方誤差(MMSE)ソリューションを破ることができることを示しています。
- 参考スコア(独自算出の注目度): 36.42044316389072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a fundamental transfer learning process from source to target linear
regression tasks, including overparameterized settings where there are more
learned parameters than data samples. The target task learning is addressed by
using its training data together with the parameters previously computed for
the source task. We define the target task as a linear regression optimization
with a regularization on the distance between the to-be-learned target
parameters and the already-learned source parameters. This approach can be also
interpreted as adjusting the previously learned source parameters for the
purpose of the target task, and in the case of sufficiently related tasks this
process can be perceived as fine tuning. We analytically characterize the
generalization performance of our transfer learning approach and demonstrate
its ability to resolve the peak in generalization errors in double descent
phenomena of min-norm solutions to ordinary least squares regression. Moreover,
we show that for sufficiently related tasks the optimally tuned transfer
learning approach can outperform the optimally tuned ridge regression method,
even when the true parameter vector conforms with isotropic Gaussian prior
distribution. Namely, we demonstrate that transfer learning can beat the
minimum mean square error (MMSE) solution of the individual target task.
- Abstract(参考訳): データサンプルよりも学習パラメータが多いオーバーパラメータ設定を含む、ソースからターゲットの線形回帰タスクへの基本的な転送学習プロセスを研究します。
目標タスク学習は、そのトレーニングデータと、ソースタスクのために予め計算されたパラメータを用いて対処される。
対象タスクを, to-be-learnedターゲットパラメータと既に学習済みソースパラメータ間の距離を正規化した線形回帰最適化として定義する。
このアプローチは、対象タスクの目的のために学習したソースパラメータを調整したものと解釈することもでき、十分に関連するタスクの場合、このプロセスは微調整と見なすことができる。
転送学習手法の一般化性能を解析的に解析し、最小二乗回帰に対するマイナスノルム解の二重降下現象における一般化誤差のピークを解く能力を示す。
さらに、十分関連するタスクに対して、真のパラメータベクトルが等方的ガウス分布に適合する場合でも、最適に調整された転送学習アプローチが最適に調整されたリッジ回帰法より優れていることを示す。
すなわち、転送学習が個々のターゲットタスクの最小平均平方誤差(MMSE)ソリューションを破ることができることを実証する。
関連論文リスト
- When Does Visual Prompting Outperform Linear Probing for Vision-Language Models? A Likelihood Perspective [57.05315507519704]
本稿では,視覚的プロンプトと線形探索の利点を比較分析するために,ログ類似率(LLR)アプローチを提案する。
本測定は,最大で100倍の時間短縮が可能であり,予測精度は最大91%に達する。
論文 参考訳(メタデータ) (2024-09-03T12:03:45Z) - Diffusion Generative Flow Samplers: Improving learning signals through
partial trajectory optimization [87.21285093582446]
Diffusion Generative Flow Samplers (DGFS) はサンプルベースのフレームワークであり、学習プロセスを短い部分的軌道セグメントに分解することができる。
生成フローネットワーク(GFlowNets)のための理論から着想を得た。
論文 参考訳(メタデータ) (2023-10-04T09:39:05Z) - Revisiting the Robustness of the Minimum Error Entropy Criterion: A
Transfer Learning Case Study [16.07380451502911]
本稿では,非ガウス雑音に対処する最小誤差エントロピー基準のロバスト性を再考する。
本稿では,分散シフトが一般的である実生活伝達学習回帰タスクの実現可能性と有用性について検討する。
論文 参考訳(メタデータ) (2023-07-17T15:38:11Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Theoretical Characterization of the Generalization Performance of
Overfitted Meta-Learning [70.52689048213398]
本稿では,ガウス的特徴を持つ線形回帰モデルの下で,過剰適合型メタラーニングの性能について検討する。
シングルタスク線形回帰には存在しない新しい興味深い性質が見つかる。
本分析は,各訓練課題における基礎的真理のノイズや多様性・変動が大きい場合には,良心過剰がより重要かつ容易に観察できることを示唆する。
論文 参考訳(メタデータ) (2023-04-09T20:36:13Z) - Meta Learning MDPs with Linear Transition Models [22.508479528847634]
マルコフ決定過程 (MDP) におけるメタラーニングについて, 線形遷移モデルを用いて検討した。
本稿では,UC-Matrix RLアルゴリズムのバージョンであるBUC-MatrixRLを提案する。
BUC-Matrix RLは,タスクを個別に学習するのに比べて,高バイアス低分散タスク分布に対する伝達後悔の大幅な改善を提供する。
論文 参考訳(メタデータ) (2022-01-21T14:57:03Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Meta-learning Transferable Representations with a Single Target Domain [46.83481356352768]
微調整とジョイントトレーニングは、下流タスクの精度を常に向上させるわけではない。
伝達可能な特徴を学習するためのメタ表現学習(MeRLin)を提案する。
MeRLinは、様々な実世界のビジョンとNLP転送学習ベンチマークにおいて、従来の最先端のトランスファー学習アルゴリズムを実証的に上回っている。
論文 参考訳(メタデータ) (2020-11-03T01:57:37Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Double Double Descent: On Generalization Errors in Transfer Learning
between Linear Regression Tasks [30.075430694663293]
本稿では,2つの線形回帰問題間の伝達学習過程について検討する。
本稿では,対象タスクのパラメータのサブセットを関連するソースタスクで学習した値に制約するパラメータ転送機構について検討する。
論文 参考訳(メタデータ) (2020-06-12T08:42:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。