論文の概要: How Fine-Tuning Allows for Effective Meta-Learning
- arxiv url: http://arxiv.org/abs/2105.02221v1
- Date: Wed, 5 May 2021 17:56:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 12:55:21.158939
- Title: How Fine-Tuning Allows for Effective Meta-Learning
- Title(参考訳): 効果的なメタラーニングのためのファインチューニング
- Authors: Kurtland Chua, Qi Lei, Jason D. Lee
- Abstract要約: MAMLライクなアルゴリズムから派生した表現を解析するための理論的フレームワークを提案する。
我々は,勾配降下による微調整により得られる最良予測器のリスク境界を提示し,アルゴリズムが共有構造を有効活用できることを実証する。
この分離の結果、マイニングベースのメソッド、例えばmamlは、少数ショット学習における"frozen representation"目標を持つメソッドよりも優れている。
- 参考スコア(独自算出の注目度): 50.17896588738377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Representation learning has been widely studied in the context of
meta-learning, enabling rapid learning of new tasks through shared
representations. Recent works such as MAML have explored using
fine-tuning-based metrics, which measure the ease by which fine-tuning can
achieve good performance, as proxies for obtaining representations. We present
a theoretical framework for analyzing representations derived from a MAML-like
algorithm, assuming the available tasks use approximately the same underlying
representation. We then provide risk bounds on the best predictor found by
fine-tuning via gradient descent, demonstrating that the algorithm can provably
leverage the shared structure. The upper bound applies to general function
classes, which we demonstrate by instantiating the guarantees of our framework
in the logistic regression and neural network settings. In contrast, we
establish the existence of settings where any algorithm, using a representation
trained with no consideration for task-specific fine-tuning, performs as well
as a learner with no access to source tasks in the worst case. This separation
result underscores the benefit of fine-tuning-based methods, such as MAML, over
methods with "frozen representation" objectives in few-shot learning.
- Abstract(参考訳): 表現学習はメタ学習の文脈で広く研究されており、共有表現を通じて新しいタスクを素早く学習することができる。
MAMLなどの最近の研究は、微調整による指標を用いて、表現を得るプロキシとして、微調整が優れたパフォーマンスを達成するための容易さを計測している。
利用可能なタスクがほぼ同じ基礎的表現を使用すると仮定して,MAMLのようなアルゴリズムから導出される表現を解析するための理論的枠組みを提案する。
次に,勾配降下による微調整によって得られる最良予測器のリスク境界を提示し,アルゴリズムが共有構造を有効活用できることを実証する。
上界は一般的な関数クラスに適用され、ロジスティック回帰とニューラルネットワークの設定でフレームワークの保証をインスタンス化することで示します。
対照的に、タスク固有の微調整を考慮せずに訓練された表現を用い、最悪の場合、ソースタスクにアクセスできない学習者と同様に、任意のアルゴリズムが機能する設定が存在する。
この分離の結果、マイニングベースのメソッド、例えばmamlは、少数ショット学習における"frozen representation"目標を持つメソッドよりも優れている。
関連論文リスト
- Provably Efficient Representation Learning with Tractable Planning in
Low-Rank POMDP [81.00800920928621]
部分的に観測可能なマルコフ決定過程(POMDP)における表現学習の研究
まず,不確実性(OFU)に直面した最大推定(MLE)と楽観性を組み合わせた復調性POMDPのアルゴリズムを提案する。
次に、このアルゴリズムをより広範な$gamma$-observable POMDPのクラスで機能させる方法を示す。
論文 参考訳(メタデータ) (2023-06-21T16:04:03Z) - Proto-Value Networks: Scaling Representation Learning with Auxiliary
Tasks [33.98624423578388]
補助的なタスクは、深層強化学習エージェントによって学習された表現を改善する。
我々は、後継措置に基づく新しい補助業務のファミリーを導出する。
プロト値ネットワークは、確立されたアルゴリズムに匹敵する性能を得るために、リッチな特徴を生み出すことを示す。
論文 参考訳(メタデータ) (2023-04-25T04:25:08Z) - Self-Supervised Learning via Maximum Entropy Coding [57.56570417545023]
本稿では,表現の構造を明示的に最適化する原理的目的として,最大エントロピー符号化(MEC)を提案する。
MECは、特定のプリテキストタスクに基づいて、以前のメソッドよりもより一般化可能な表現を学ぶ。
ImageNetリニアプローブだけでなく、半教師付き分類、オブジェクト検出、インスタンスセグメンテーション、オブジェクトトラッキングなど、さまざまなダウンストリームタスクに対して一貫して最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-20T17:58:30Z) - An Empirical Investigation of Representation Learning for Imitation [76.48784376425911]
視覚、強化学習、NLPにおける最近の研究は、補助的な表現学習の目的が、高価なタスク固有の大量のデータの必要性を減らすことを示している。
本稿では,表現学習アルゴリズムを構築するためのモジュラーフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-16T11:23:42Z) - MAML is a Noisy Contrastive Learner [72.04430033118426]
モデルに依存しないメタラーニング(MAML)は、今日では最も人気があり広く採用されているメタラーニングアルゴリズムの1つである。
我々は、MAMLの動作メカニズムに対する新たな視点を提供し、以下に示すように、MAMLは、教師付きコントラスト目的関数を用いたメタラーナーに類似している。
このような干渉を軽減するため, 単純だが効果的な手法であるゼロ化手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:52:26Z) - Conditional Meta-Learning of Linear Representations [57.90025697492041]
表現学習のための標準メタラーニングは、複数のタスク間で共有される共通の表現を見つけることを目的とする。
本研究では,タスクの側情報を手作業に適した表現にマッピングし,条件付け関数を推定することで,この問題を克服する。
この利点を実用的に活用できるメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-30T12:02:14Z) - Improving Few-Shot Learning through Multi-task Representation Learning
Theory [14.8429503385929]
本稿では,MTR(Multi-task representation)学習の枠組みについて考察する。
MTR理論の最近の進歩は、このフレームワーク内で解析すると、一般的なメタ学習アルゴリズムに新しい洞察を与えることができることを示す。
これは、直近のMSR理論の学習境界を、数発の分類のタスクのために実践する最初の貢献である。
論文 参考訳(メタデータ) (2020-10-05T13:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。