論文の概要: Phase Transitions in Transfer Learning for High-Dimensional Perceptrons
- arxiv url: http://arxiv.org/abs/2101.01918v1
- Date: Wed, 6 Jan 2021 08:29:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 05:46:39.974162
- Title: Phase Transitions in Transfer Learning for High-Dimensional Perceptrons
- Title(参考訳): 高次元パーセプトロンの伝達学習における相転移
- Authors: Oussama Dhifallah and Yue M. Lu
- Abstract要約: 伝達学習は、関連するソースタスクから学んだ知識を活用することにより、対象タスクの一般化性能の向上を目指す。
後者の質問は、転送元情報が実際にターゲットタスクの一般化性能を減少させるいわゆる負の転送現象に関連しています。
本稿では,関連する1対のパーセプトロン学習タスクを解析し,転送学習の理論解析を行う。
- 参考スコア(独自算出の注目度): 12.614901374282868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transfer learning seeks to improve the generalization performance of a target
task by exploiting the knowledge learned from a related source task. Central
questions include deciding what information one should transfer and when
transfer can be beneficial. The latter question is related to the so-called
negative transfer phenomenon, where the transferred source information actually
reduces the generalization performance of the target task. This happens when
the two tasks are sufficiently dissimilar. In this paper, we present a
theoretical analysis of transfer learning by studying a pair of related
perceptron learning tasks. Despite the simplicity of our model, it reproduces
several key phenomena observed in practice. Specifically, our asymptotic
analysis reveals a phase transition from negative transfer to positive transfer
as the similarity of the two tasks moves past a well-defined threshold.
- Abstract(参考訳): 伝達学習は、関連するソースタスクから学んだ知識を活用して、対象タスクの一般化性能を向上させる。
中心となる質問は、どの情報を転送すべきか、いつ転送が有益かを判断することである。
後者の問題は、転送元情報が実際に目標タスクの一般化性能を低下させるいわゆる負の伝達現象に関連している。
これは2つのタスクが十分に異なる場合に起こる。
本稿では,2つの関連するパーセプトロン学習タスクを研究することによって,伝達学習の理論解析を行う。
モデルの単純さにもかかわらず、実際に観察されるいくつかの重要な現象を再現します。
具体的には,2つのタスクの類似性が明確に定義されたしきい値を越えると,負の伝達から正の伝達への相転移が明らかとなる。
関連論文リスト
- Generalization Performance of Transfer Learning: Overparameterized and
Underparameterized Regimes [61.22448274621503]
現実世界のアプリケーションでは、タスクは部分的な類似性を示し、あるアスペクトは似ているが、他のアスペクトは異なるか無関係である。
本研究は,パラメータ伝達の2つの選択肢を包含して,多種多様な移動学習について検討する。
一般化性能を向上させるために,共通部分とタスク特化部分の特徴数を決定するための実践的ガイドラインを提供する。
論文 参考訳(メタデータ) (2023-06-08T03:08:40Z) - ForkMerge: Mitigating Negative Transfer in Auxiliary-Task Learning [59.08197876733052]
補助タスク学習(ATL)は、関連するタスクから得られる知識を活用することにより、目標タスクの性能を向上させることを目的としている。
複数のタスクを同時に学習すると、ターゲットタスクのみを学習するよりも精度が低下することがある。
ForkMergeは、モデルを定期的に複数のブランチにフォークし、タスクの重みを自動的に検索する新しいアプローチである。
論文 参考訳(メタデータ) (2023-01-30T02:27:02Z) - An Information-Theoretic Approach to Transferability in Task Transfer
Learning [16.05523977032659]
タスク転送学習は、訓練済みのモデルを用いて関連するタスクの監督コストを削減する画像処理アプリケーションで一般的な手法である。
分類問題において、あるタスクから別のタスクへ変換された表現のパフォーマンスを推定する新しい計量 H-score を提案する。
論文 参考訳(メタデータ) (2022-12-20T08:47:17Z) - Frozen Overparameterization: A Double Descent Perspective on Transfer
Learning of Deep Neural Networks [27.17697714584768]
ディープニューラルネットワーク(DNN)の伝達学習の一般化挙動について検討する。
目標トレーニング中のテストエラーの進化は、目標トレーニングデータセットが十分に大きい場合、より顕著な二重降下効果を有することを示す。
また、二重降下現象は、より関連するソースタスクからの転送よりも、関連するソースタスクからの転送をより良くする可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-20T20:26:23Z) - Identifying Suitable Tasks for Inductive Transfer Through the Analysis
of Feature Attributions [78.55044112903148]
我々は、単一タスクモデル間のニューラルネットワークアクティベーションの比較を通じて、タスクペアが相補的になるかどうかを予測するために、説明可能性技術を使用する。
提案手法により,TREC-IS 2020-Aデータセットでは,正のクラスF1の0.034の削減に留まらず,最大83.5%のトレーニング時間を短縮することが可能である。
論文 参考訳(メタデータ) (2022-02-02T15:51:07Z) - Frustratingly Easy Transferability Estimation [64.42879325144439]
本稿では,TransRate という,シンプルで効率的かつ効果的な転送可能性尺度を提案する。
TransRateは、事前訓練されたモデルによって抽出された対象サンプルの特徴とそれらのラベルとの間の相互情報として、転送可能性を測定する。
10行のコードで並外れた単純さにもかかわらず、TransRateは、22の事前訓練されたモデルと16のダウンストリームタスクに対する広範囲な評価において、非常にうまく機能している。
論文 参考訳(メタデータ) (2021-06-17T10:27:52Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - What is being transferred in transfer learning? [51.6991244438545]
事前訓練した重量からトレーニングを行うと、モデルは損失景観の同じ流域に留まることを示す。
事前学習した重みからトレーニングする場合、モデルは損失ランドスケープの同じ流域に留まり、そのようなモデルの異なるインスタンスは特徴空間と類似しており、パラメータ空間は近接している。
論文 参考訳(メタデータ) (2020-08-26T17:23:40Z) - Learning Boost by Exploiting the Auxiliary Task in Multi-task Domain [1.2183405753834562]
ひとつの共有関数で2つのタスクを学ぶことは、いくつかの利点があります。
これは、両方のタスクに対して一般的に適用可能な情報を使って学習できる関数を一般化するのに役立ちます。
しかし、現実の環境では、タスクは必然的に、負の移動と呼ばれる学習フェーズにおいてそれらの間に衝突する。
本稿では, 学習過程におけるクラスワイドの活用により, 肯定的な伝達を促進し, 負の伝達を抑制する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-05T10:56:56Z) - Uncovering the Connections Between Adversarial Transferability and
Knowledge Transferability [27.65302656389911]
我々は,知識伝達可能性と敵対的伝達可能性の関連性を分析し,実証する。
我々の理論的研究は、対向移動可能性は知識伝達可能性を示し、その逆であることを示している。
多様なデータセットの様々なシナリオに対する広範な実験を行い、対向移動可能性と知識伝達可能性との正の相関を示す。
論文 参考訳(メタデータ) (2020-06-25T16:04:47Z) - Inter- and Intra-domain Knowledge Transfer for Related Tasks in Deep
Character Recognition [2.320417845168326]
ImageNetデータセットでディープニューラルネットワークを事前トレーニングすることは、ディープラーニングモデルをトレーニングするための一般的なプラクティスである。
1つのタスクで事前トレーニングを行い、新しいタスクで再トレーニングするテクニックは、トランスファーラーニング(transfer learning)と呼ばれる。
本稿では,文字認識タスクにおけるDeep Transfer Learningの有効性について分析する。
論文 参考訳(メタデータ) (2020-01-02T14:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。