論文の概要: Generalization of Model-Agnostic Meta-Learning Algorithms: Recurring and
Unseen Tasks
- arxiv url: http://arxiv.org/abs/2102.03832v1
- Date: Sun, 7 Feb 2021 16:16:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 15:50:58.615459
- Title: Generalization of Model-Agnostic Meta-Learning Algorithms: Recurring and
Unseen Tasks
- Title(参考訳): モデル診断メタラーニングアルゴリズムの一般化:繰り返しおよび見えないタスク
- Authors: Alireza Fallah, Aryan Mokhtari, Asuman Ozdaglar
- Abstract要約: 教師付き学習問題に対するモデル非依存メタラーニング(MAML)アルゴリズムの一般化特性について検討する。
我々の証明手法はアルゴリズムの安定性と一般化境界との接続に依存している。
- 参考スコア(独自算出の注目度): 33.055672018805645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the generalization properties of Model-Agnostic
Meta-Learning (MAML) algorithms for supervised learning problems. We focus on
the setting in which we train the MAML model over $m$ tasks, each with $n$ data
points, and characterize its generalization error from two points of view:
First, we assume the new task at test time is one of the training tasks, and we
show that, for strongly convex objective functions, the expected excess
population loss is bounded by $\mathcal{O}(1/mn)$. Second, we consider the MAML
algorithm's generalization to an unseen task and show that the resulting
generalization error depends on the total variation distance between the
underlying distributions of the new task and the tasks observed during the
training process. Our proof techniques rely on the connections between
algorithmic stability and generalization bounds of algorithms. In particular,
we propose a new definition of stability for meta-learning algorithms, which
allows us to capture the role of both the number of tasks $m$ and number of
samples per task $n$ on the generalization error of MAML.
- Abstract(参考訳): 本稿では,教師付き学習問題に対するモデル診断メタラーニング(MAML)アルゴリズムの一般化特性について検討する。
まず、テスト時の新しいタスクはトレーニングタスクの1つであると仮定し、強く凸対的関数の場合、予想される過剰な人口減少は$\mathcal{O}(1/mn)$によってバインドされることを示します。
第2に,mamlアルゴリズムの一般化を未知のタスクに適用し,結果として生じる一般化誤差が,新しいタスクの基本分布とトレーニングプロセス中に観測されたタスクとの変動距離に依存することを示した。
我々の証明手法は,アルゴリズムの安定性と一般化境界の関係に依存する。
特に,メタ学習アルゴリズムの安定性の新たな定義を提案し,MAMLの一般化誤差におけるタスク数$m$とタスク毎のサンプル数$n$の両方の役割を捉える。
関連論文リスト
- On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
複数モーダルな)自己教師付き表現学習のための連続領域における識別確率モデル問題について検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - Interpetable Target-Feature Aggregation for Multi-Task Learning based on Bias-Variance Analysis [53.38518232934096]
マルチタスク学習(MTL)は、タスク間の共有知識を活用し、一般化とパフォーマンスを改善するために設計された強力な機械学習パラダイムである。
本稿では,タスククラスタリングと特徴変換の交点におけるMTL手法を提案する。
両段階において、鍵となる側面は減った目標と特徴の解釈可能性を維持することである。
論文 参考訳(メタデータ) (2024-06-12T08:30:16Z) - ST-MAML: A Stochastic-Task based Method for Task-Heterogeneous
Meta-Learning [12.215288736524268]
本稿では,モデルに依存しないメタラーニング(MAML)を複数のタスク分布から学習するための新しい手法ST-MAMLを提案する。
そこで本研究では,ST-MAMLが2つの画像分類タスク,1つの曲線評価ベンチマーク,1つの画像補完問題,および実世界の温度予測アプリケーションにおいて,最先端の映像分類タスクに適合または優れることを示す。
論文 参考訳(メタデータ) (2021-09-27T18:54:50Z) - Learning-to-learn non-convex piecewise-Lipschitz functions [44.6133187924678]
両機械学習アルゴリズムに適用可能な非タスクであるピースワイズ・リプシッツ関数に対するアルゴリズムのメタラーニングを分析する。
複数のオンライン学習タスクからアルゴリズムのステップサイズの両方を学習する実用的なメタ学習手法を提案する。
論文 参考訳(メタデータ) (2021-08-19T16:22:48Z) - MAML is a Noisy Contrastive Learner [72.04430033118426]
モデルに依存しないメタラーニング(MAML)は、今日では最も人気があり広く採用されているメタラーニングアルゴリズムの1つである。
我々は、MAMLの動作メカニズムに対する新たな視点を提供し、以下に示すように、MAMLは、教師付きコントラスト目的関数を用いたメタラーナーに類似している。
このような干渉を軽減するため, 単純だが効果的な手法であるゼロ化手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:52:26Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - Theoretical Convergence of Multi-Step Model-Agnostic Meta-Learning [63.64636047748605]
一般的なマルチステップMAMLアルゴリズムに対して収束保証を提供するための新しい理論フレームワークを開発する。
特に,本研究の結果は,収束を保証するためには,内部段階のステップを逆比例して$N$の内段ステップを選択する必要があることを示唆している。
論文 参考訳(メタデータ) (2020-02-18T19:17:54Z) - Task-Robust Model-Agnostic Meta-Learning [42.27488241647739]
本稿では,AML(Model Agnostic Meta-Learning)の目標を改訂することで,「タスク・ロバストネス(task-robustness)」の概念を導入する。
この新しい定式化の解決策は、最も難しいタスクや稀なタスクにも等しく重要となるという意味で、タスクロバストである。
論文 参考訳(メタデータ) (2020-02-12T02:20:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。