論文の概要: The Advantage of Conditional Meta-Learning for Biased Regularization and
Fine-Tuning
- arxiv url: http://arxiv.org/abs/2008.10857v1
- Date: Tue, 25 Aug 2020 07:32:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 03:08:14.255076
- Title: The Advantage of Conditional Meta-Learning for Biased Regularization and
Fine-Tuning
- Title(参考訳): バイアス付き正則化と微調整における条件付きメタラーニングの利点
- Authors: Giulia Denevi, Massimiliano Pontil, Carlo Ciliberto
- Abstract要約: バイアスレギュラー化と微調整は、最近の2つのメタラーニングアプローチである。
本稿では,条件付き関数マッピングタスクの側情報をメタパラメータベクトルに推論する条件付きメタラーニングを提案する。
次に、実際には同等の利点をもたらす凸メタアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 50.21341246243422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Biased regularization and fine-tuning are two recent meta-learning
approaches. They have been shown to be effective to tackle distributions of
tasks, in which the tasks' target vectors are all close to a common
meta-parameter vector. However, these methods may perform poorly on
heterogeneous environments of tasks, where the complexity of the tasks'
distribution cannot be captured by a single meta-parameter vector. We address
this limitation by conditional meta-learning, inferring a conditioning function
mapping task's side information into a meta-parameter vector that is
appropriate for that task at hand. We characterize properties of the
environment under which the conditional approach brings a substantial advantage
over standard meta-learning and we highlight examples of environments, such as
those with multiple clusters, satisfying these properties. We then propose a
convex meta-algorithm providing a comparable advantage also in practice.
Numerical experiments confirm our theoretical findings.
- Abstract(参考訳): バイアスレギュラー化と微調整は、最近の2つのメタラーニングアプローチである。
これらは、タスクの目標ベクトルが共通のメタパラメータベクトルに近接しているタスクの分布に取り組むのに効果的であることが示されている。
しかし、これらの手法はタスクの不均一な環境では性能が悪く、タスクの分布の複雑さは単一のメタパラメータベクトルではキャプチャできない。
条件付きメタラーニングによってこの問題に対処し、タスクのサイド情報をそのタスクに適したメタパラメータベクトルにマッピングする条件付き関数を推定する。
我々は,条件付きアプローチが標準的なメタラーニングよりも大きな優位性をもたらす環境の特性を特徴付け,これらの特性を満たす複数のクラスタを持つ環境の例を強調した。
次に、実際には同等の利点をもたらす凸メタアルゴリズムを提案する。
数値実験により理論的な結果が確認された。
関連論文リスト
- MARS: Meta-Learning as Score Matching in the Function Space [79.73213540203389]
本稿では,一連の関連するデータセットから帰納バイアスを抽出する手法を提案する。
機能的ベイズニューラルネットワーク推論を用いて、前者をプロセスとみなし、関数空間で推論を行う。
本手法は,データ生成プロセスのスコア関数をメタラーニングすることにより,複雑な事前知識をシームレスに獲得し,表現することができる。
論文 参考訳(メタデータ) (2022-10-24T15:14:26Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.4236527774689]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - Transfer Bayesian Meta-learning via Weighted Free Energy Minimization [37.51664463278401]
重要な前提は、メタトレーニングタスクとして知られる補助タスクが、デプロイ時に遭遇するタスクと同じ生成分布を共有することである。
本稿では,トランスファーメタラーニングのための重み付き自由エネルギー最小化(WFEM)を提案する。
論文 参考訳(メタデータ) (2021-06-20T15:17:51Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - How Fine-Tuning Allows for Effective Meta-Learning [50.17896588738377]
MAMLライクなアルゴリズムから派生した表現を解析するための理論的フレームワークを提案する。
我々は,勾配降下による微調整により得られる最良予測器のリスク境界を提示し,アルゴリズムが共有構造を有効活用できることを実証する。
この分離の結果、マイニングベースのメソッド、例えばmamlは、少数ショット学習における"frozen representation"目標を持つメソッドよりも優れている。
論文 参考訳(メタデータ) (2021-05-05T17:56:00Z) - Conditional Meta-Learning of Linear Representations [57.90025697492041]
表現学習のための標準メタラーニングは、複数のタスク間で共有される共通の表現を見つけることを目的とする。
本研究では,タスクの側情報を手作業に適した表現にマッピングし,条件付け関数を推定することで,この問題を克服する。
この利点を実用的に活用できるメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-30T12:02:14Z) - An Information-Theoretic Analysis of the Impact of Task Similarity on
Meta-Learning [44.320945743871285]
メタ一般化ギャップの平均絶対値に対する新しい情報理論的境界を提示する。
私たちの境界は、タスク関連性、タスクの数、およびタスクごとのデータサンプルの数がメタ一般化ギャップに与える影響を明示的に捉えます。
論文 参考訳(メタデータ) (2021-01-21T01:38:16Z) - A Nested Bi-level Optimization Framework for Robust Few Shot Learning [10.147225934340877]
NestedMAMLはトレーニングタスクやインスタンスに重みを割り当てることを学ぶ。
合成および実世界のデータセットの実験では、NestedMAMLは「不要な」タスクやインスタンスの効果を効率的に緩和している。
論文 参考訳(メタデータ) (2020-11-13T06:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。