論文の概要: Contrastive Distillation Is a Sample-Efficient Self-Supervised Loss
Policy for Transfer Learning
- arxiv url: http://arxiv.org/abs/2212.11353v1
- Date: Wed, 21 Dec 2022 20:43:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 13:52:38.260543
- Title: Contrastive Distillation Is a Sample-Efficient Self-Supervised Loss
Policy for Transfer Learning
- Title(参考訳): コントラスト蒸留は、移動学習における自己超越的損失政策である
- Authors: Chris Lengerich, Gabriel Synnaeve, Amy Zhang, Hugh Leather, Kurt
Shuster, Fran\c{c}ois Charton, Charysse Redwood
- Abstract要約: 本研究では,高い相互情報を持つ潜伏変数を示すコントラスト蒸留と呼ばれる自己監督的損失ポリシーを提案する。
本稿では,この手法が伝達学習の一般的な手法より優れていることを示すとともに,オンライン転送の計算処理をトレードオフする有用な設計軸を提案する。
- 参考スコア(独自算出の注目度): 20.76863234714442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional approaches to RL have focused on learning decision policies
directly from episodic decisions, while slowly and implicitly learning the
semantics of compositional representations needed for generalization. While
some approaches have been adopted to refine representations via auxiliary
self-supervised losses while simultaneously learning decision policies,
learning compositional representations from hand-designed and
context-independent self-supervised losses (multi-view) still adapts relatively
slowly to the real world, which contains many non-IID subspaces requiring rapid
distribution shift in both time and spatial attention patterns at varying
levels of abstraction. In contrast, supervised language model cascades have
shown the flexibility to adapt to many diverse manifolds, and hints of
self-learning needed for autonomous task transfer. However, to date, transfer
methods for language models like few-shot learning and fine-tuning still
require human supervision and transfer learning using self-learning methods has
been underexplored. We propose a self-supervised loss policy called contrastive
distillation which manifests latent variables with high mutual information with
both source and target tasks from weights to tokens. We show how this
outperforms common methods of transfer learning and suggests a useful design
axis of trading off compute for generalizability for online transfer.
Contrastive distillation is improved through sampling from memory and suggests
a simple algorithm for more efficiently sampling negative examples for
contrastive losses than random sampling.
- Abstract(参考訳): 従来のRLのアプローチでは、エピソジックな決定から決定ポリシーを直接学習する一方で、一般化に必要な構成表現のセマンティクスをゆっくりと暗黙的に学習する。
意思決定方針を同時に学習しながら、補助的な自己監督的損失を通じて表現を洗練させるアプローチが採用されているが、手動設計と文脈に依存しない自己監督的損失からの構成的表現(マルチビュー)の学習は、多くの非IIDサブスペースを含む実世界への適応が比較的遅い。
対照的に、教師付き言語モデルカスケードは様々な多様体に適応する柔軟性を示し、自律的なタスク転送に必要な自己学習のヒントを示している。
しかし,これまでは,マイトショット学習や微調整といった言語モデルの転送手法は,自己学習を用いた人間の監督や転送学習が必要とされてきた。
本稿では,重みからトークンまでのソースおよびターゲットタスクの相互情報が高い潜在変数を示す,コントラスト蒸留と呼ばれる自己監督型損失ポリシを提案する。
提案手法は,転送学習の一般的な手法に勝ることを示すとともに,オンライン転送の汎用性のために計算をトレードオフする有用な設計軸を提案する。
コントラスト蒸留はメモリからのサンプリングにより改善され、ランダムサンプリングよりもより効率的に負のサンプルをサンプリングする簡単なアルゴリズムが提案される。
関連論文リスト
- Unlearning with Control: Assessing Real-world Utility for Large Language Model Unlearning [97.2995389188179]
最近の研究は、勾配上昇(GA)を通した大規模言語モデル(LLM)の未学習にアプローチし始めている。
その単純さと効率性にもかかわらず、我々はGAベースの手法が過剰な未学習の傾向に直面することを示唆している。
過剰な未学習の度合いを制御できるいくつかの制御手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Decentralized Learning Strategies for Estimation Error Minimization with Graph Neural Networks [94.2860766709971]
統計的に同一性を持つ無線ネットワークにおける自己回帰的マルコフ過程のサンプリングとリモート推定の課題に対処する。
我々のゴールは、分散化されたスケーラブルサンプリングおよび送信ポリシーを用いて、時間平均推定誤差と/または情報の年齢を最小化することである。
論文 参考訳(メタデータ) (2024-04-04T06:24:11Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - On minimal variations for unsupervised representation learning [19.055611167696238]
教師なし表現学習は、様々な下流タスクを解決するために、生データを効率的に記述することを目的としている。
教師なし表現学習の原則として最小限のバリエーションを考案することは、自己教師付き学習アルゴリズムの実践的ガイドラインを改善する道を開く。
論文 参考訳(メタデータ) (2022-11-07T18:57:20Z) - Weakly-supervised Temporal Path Representation Learning with Contrastive
Curriculum Learning -- Extended Version [35.86394282979721]
時間的情報、例えば出発時刻を含む時間的パス(TP)は、そのようなアプリケーションを可能にするために基本的なものである。
i) 教師付き手法ではトレーニング時に大量のタスク固有のラベルを必要とするため、既存の手法では目標達成に失敗し、得られたTPRを他のタスクに一般化することができない。
本稿では,時間的経路の空間的情報と時間的情報の両方をTPRにエンコードするWakly Supervised Contrastive (WSC)学習モデルを提案する。
論文 参考訳(メタデータ) (2022-03-30T07:36:20Z) - Learning from Heterogeneous Data Based on Social Interactions over
Graphs [58.34060409467834]
本研究では,個別のエージェントが異なる次元のストリーミング特徴を観察しながら分類問題の解決を目指す分散アーキテクチャを提案する。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
論文 参考訳(メタデータ) (2021-12-17T12:47:18Z) - Why Do Self-Supervised Models Transfer? Investigating the Impact of
Invariance on Downstream Tasks [79.13089902898848]
自己教師付き学習は、非競合画像上での表現学習の強力なパラダイムである。
コンピュータビジョンにおける異なるタスクは、異なる(不変の)分散を符号化する機能を必要とすることを示す。
論文 参考訳(メタデータ) (2021-11-22T18:16:35Z) - Episodic Self-Imitation Learning with Hindsight [7.743320290728377]
エピソード自己像学習は、軌道選択モジュールと適応的損失関数を備えた新しい自己像アルゴリズムである。
更新の各エピソードから不正なサンプルをフィルタリングするために選択モジュールが導入された。
エピソード自己イメージ学習は、連続的な行動空間を持つ実世界の問題に適用できる可能性がある。
論文 参考訳(メタデータ) (2020-11-26T20:36:42Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。