論文の概要: Uniform Priors for Data-Efficient Transfer
- arxiv url: http://arxiv.org/abs/2006.16524v2
- Date: Tue, 13 Oct 2020 12:21:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 04:27:26.730457
- Title: Uniform Priors for Data-Efficient Transfer
- Title(参考訳): データ効率的な転送のための一様優先度
- Authors: Samarth Sinha, Karsten Roth, Anirudh Goyal, Marzyeh Ghassemi, Hugo
Larochelle, Animesh Garg
- Abstract要約: もっとも移動可能な特徴は埋め込み空間において高い均一性を有することを示す。
我々は、未確認のタスクやデータへの適応を容易にする能力の正規化を評価する。
- 参考スコア(独自算出の注目度): 65.086680950871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks have shown great promise on a variety of downstream
applications; but their ability to adapt and generalize to new data and tasks
remains a challenge. However, the ability to perform few or zero-shot
adaptation to novel tasks is important for the scalability and deployment of
machine learning models. It is therefore crucial to understand what makes for
good, transfer-able features in deep networks that best allow for such
adaptation. In this paper, we shed light on this by showing that features that
are most transferable have high uniformity in the embedding space and propose a
uniformity regularization scheme that encourages better transfer and feature
reuse. We evaluate the regularization on its ability to facilitate adaptation
to unseen tasks and data, for which we conduct a thorough experimental study
covering four relevant, and distinct domains: few-shot Meta-Learning, Deep
Metric Learning, Zero-Shot Domain Adaptation, as well as Out-of-Distribution
classification. Across all experiments, we show that uniformity regularization
consistently offers benefits over baseline methods and is able to achieve
state-of-the-art performance in Deep Metric Learning and Meta-Learning.
- Abstract(参考訳): ディープニューラルネットワークは、下流のさまざまなアプリケーションに対して大きな期待を持っていますが、新しいデータやタスクに適応し、一般化する能力は依然として課題です。
しかし、機械学習モデルのスケーラビリティと展開には、新規タスクへのほとんどあるいはゼロショット適応を実行する能力が重要である。
したがって、ディープネットワークの優れた転送可能な機能に何をもたらすのかを理解することが不可欠である。
本稿では,最も転送性が高い特徴が埋め込み空間において高い均一性を持つことを示すとともに,より優れた移動と機能再利用を促進する一様性正規化スキームを提案する。
課題やデータへの適応を促進するためのレギュラー化能力について評価し、いくつかのメタラーニング、Deep Metric Learning、Zero-Shot Domain Adaptation、Out-of-Distribution Classificationの4つの領域を網羅した詳細な実験を行った。
すべての実験を通じて、統一性正規化はベースラインメソッドよりも常にメリットを提供し、ディープラーニングとメタラーニングにおいて最先端のパフォーマンスを達成できることを示しました。
関連論文リスト
- Features are fate: a theory of transfer learning in high-dimensional regression [23.840251319669907]
対象タスクが事前学習されたモデルの特徴空間で適切に表現されている場合、転送学習はスクラッチからトレーニングに優れることを示す。
本モデルでは, 音源と目標タスクの重なり合う特徴空間が十分に強い場合, 線形転送と微調整の両方で性能が向上することを確認した。
論文 参考訳(メタデータ) (2024-10-10T17:58:26Z) - Optimal transfer protocol by incremental layer defrosting [66.76153955485584]
トランスファーラーニングは、限られた量のデータでモデルトレーニングを可能にする強力なツールである。
最も単純な転送学習プロトコルは、データリッチなソースタスクで事前訓練されたネットワークの機能抽出層を凍結する。
このプロトコルは、しばしば準最適であり、事前学習されたネットワークの小さな部分を凍結したままにしておくと、最大の性能向上が達成される可能性がある。
論文 参考訳(メタデータ) (2023-03-02T17:32:11Z) - Transferability Estimation Based On Principal Gradient Expectation [68.97403769157117]
クロスタスク転送性は、自己整合性を維持しながら転送結果と互換性がある。
既存の転送可能性メトリクスは、ソースとターゲットタスクを会話することで、特定のモデルに基づいて推定される。
本稿では,タスク間の転送可能性を評価するための簡易かつ効果的な手法であるPGEを提案する。
論文 参考訳(メタデータ) (2022-11-29T15:33:02Z) - Omni-Training for Data-Efficient Deep Learning [80.28715182095975]
近年の進歩により、適切に訓練されたモデルが重要な特性であるトランスファービリティを持つことが明らかとなった。
事前訓練とメタトレーニングの厳密な組み合わせは、どちらの種類のトランスファー可能性も達成できない。
このことが提案されているOmni-Trainingフレームワークを,データ効率のよいディープラーニングに動機付けている。
論文 参考訳(メタデータ) (2021-10-14T16:30:36Z) - Meta-Learning with Variational Bayes [0.0]
生成メタ学習のより一般的な問題に対処する新しいアプローチを提案する。
我々の貢献は、AEVBフレームワークと平均場変動ベイズを活用し、高速適応潜在空間生成モデルを作成する。
我々の貢献の核心は新たな成果であり、広範囲の深層生成潜在変数モデルにおいて、関連するVB更新は生成ニューラルネットワークに依存しないことを示している。
論文 参考訳(メタデータ) (2021-03-03T09:02:01Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - ProtoDA: Efficient Transfer Learning for Few-Shot Intent Classification [21.933876113300897]
我々は,メタラーニングパラダイムの下で,原型ネットワークを用いた関連するタスクのアンサンブル上での伝達学習による代替的アプローチを採用する。
本研究は,意図分類を事例として,学習課題における多様性の増大が,分類性能を著しく向上させることを示した。
論文 参考訳(メタデータ) (2021-01-28T00:19:13Z) - Meta-learning Transferable Representations with a Single Target Domain [46.83481356352768]
微調整とジョイントトレーニングは、下流タスクの精度を常に向上させるわけではない。
伝達可能な特徴を学習するためのメタ表現学習(MeRLin)を提案する。
MeRLinは、様々な実世界のビジョンとNLP転送学習ベンチマークにおいて、従来の最先端のトランスファー学習アルゴリズムを実証的に上回っている。
論文 参考訳(メタデータ) (2020-11-03T01:57:37Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Inter- and Intra-domain Knowledge Transfer for Related Tasks in Deep
Character Recognition [2.320417845168326]
ImageNetデータセットでディープニューラルネットワークを事前トレーニングすることは、ディープラーニングモデルをトレーニングするための一般的なプラクティスである。
1つのタスクで事前トレーニングを行い、新しいタスクで再トレーニングするテクニックは、トランスファーラーニング(transfer learning)と呼ばれる。
本稿では,文字認識タスクにおけるDeep Transfer Learningの有効性について分析する。
論文 参考訳(メタデータ) (2020-01-02T14:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。