論文の概要: Theoretical Convergence of Multi-Step Model-Agnostic Meta-Learning
- arxiv url: http://arxiv.org/abs/2002.07836v3
- Date: Mon, 13 Jul 2020 04:03:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 19:51:35.257434
- Title: Theoretical Convergence of Multi-Step Model-Agnostic Meta-Learning
- Title(参考訳): 多段階モデル非依存メタラーニングの理論収束
- Authors: Kaiyi Ji, Junjie Yang, Yingbin Liang
- Abstract要約: 一般的なマルチステップMAMLアルゴリズムに対して収束保証を提供するための新しい理論フレームワークを開発する。
特に,本研究の結果は,収束を保証するためには,内部段階のステップを逆比例して$N$の内段ステップを選択する必要があることを示唆している。
- 参考スコア(独自算出の注目度): 63.64636047748605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a popular meta-learning approach, the model-agnostic meta-learning (MAML)
algorithm has been widely used due to its simplicity and effectiveness.
However, the convergence of the general multi-step MAML still remains
unexplored. In this paper, we develop a new theoretical framework to provide
such convergence guarantee for two types of objective functions that are of
interest in practice: (a) resampling case (e.g., reinforcement learning), where
loss functions take the form in expectation and new data are sampled as the
algorithm runs; and (b) finite-sum case (e.g., supervised learning), where loss
functions take the finite-sum form with given samples. For both cases, we
characterize the convergence rate and the computational complexity to attain an
$\epsilon$-accurate solution for multi-step MAML in the general nonconvex
setting. In particular, our results suggest that an inner-stage stepsize needs
to be chosen inversely proportional to the number $N$ of inner-stage steps in
order for $N$-step MAML to have guaranteed convergence. From the technical
perspective, we develop novel techniques to deal with the nested structure of
the meta gradient for multi-step MAML, which can be of independent interest.
- Abstract(参考訳): メタラーニングの手法として,モデルに依存しないメタラーニング(MAML)アルゴリズムが広く用いられている。
しかし、一般的な多段階MAMLの収束はいまだ未解明のままである。
本稿では, 実用的関心を持つ2種類の目的関数に対して, 収束保証を提供するための新しい理論的枠組みを考案する。
(a)再サンプリングケース(例:強化学習)では、損失関数が期待の形式をとり、アルゴリズムの実行時に新しいデータがサンプリングされる。
(b)有限サムの場合(例えば教師付き学習)、損失関数は与えられたサンプルで有限サム形式を取る。
どちらの場合も、収束率と計算複雑性を特徴付け、一般的な非凸設定における多段階MAMLに対する$\epsilon$-accurate解を得る。
特に,n$-step maml が収束を保証できるように,内段ステップ化は内段ステップの数 n$ に反比例して選択する必要があることが示唆された。
技術的な観点からは,マルチステップmamlにおけるメタ勾配のネスト構造を独立に扱う新しい手法を開発した。
関連論文リスト
- A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - MAML is a Noisy Contrastive Learner [72.04430033118426]
モデルに依存しないメタラーニング(MAML)は、今日では最も人気があり広く採用されているメタラーニングアルゴリズムの1つである。
我々は、MAMLの動作メカニズムに対する新たな視点を提供し、以下に示すように、MAMLは、教師付きコントラスト目的関数を用いたメタラーナーに類似している。
このような干渉を軽減するため, 単純だが効果的な手法であるゼロ化手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:52:26Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - Meta-Learning with Neural Tangent Kernels [58.06951624702086]
メタモデルのニューラルタンジェントカーネル(NTK)によって誘導される再生カーネルヒルベルト空間(RKHS)における最初のメタラーニングパラダイムを提案する。
このパラダイムでは,MAMLフレームワークのように,最適な反復内ループ適応を必要としない2つのメタ学習アルゴリズムを導入する。
本研究の目的は,1) 適応をRKHSの高速適応正則化器に置き換えること,2) NTK理論に基づいて解析的に適応を解くことである。
論文 参考訳(メタデータ) (2021-02-07T20:53:23Z) - B-SMALL: A Bayesian Neural Network approach to Sparse Model-Agnostic
Meta-Learning [2.9189409618561966]
本稿では,b-smallアルゴリズムと呼ぶベイズ型ニューラルネットワークに基づくmamlアルゴリズムを提案する。
分類タスクと回帰タスクを用いたB-MAMLのパフォーマンスを実証し、MDLを用いたスパーシファイングBNNのトレーニングがモデルのパラメータフットプリントを実際に改善することを強調した。
論文 参考訳(メタデータ) (2021-01-01T09:19:48Z) - Meta Learning in the Continuous Time Limit [36.23467808322093]
モデルAメタラーニング(MAML)の学習力学の基礎となる常微分方程式(ODE)を確立する。
本稿では,既存のMAMLトレーニング手法に関連する計算負担を大幅に軽減するBI-MAMLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-19T01:47:31Z) - Convergence of Meta-Learning with Task-Specific Adaptation over Partial
Parameters [152.03852111442114]
モデルに依存しないメタラーニング(MAML)は非常に成功したアルゴリズムメタラーニングの実践であるが、高い計算複雑性を持つ。
本稿では,その複雑さがANILの全体的な収束性能に大きく影響することを示す。
論文 参考訳(メタデータ) (2020-06-16T19:57:48Z) - On the Convergence Theory of Debiased Model-Agnostic Meta-Reinforcement
Learning [25.163423936635787]
強化学習(RL)問題に対するモデル非依存メタラーニング(MAML)手法を検討する。
我々は,SG-MRL(Gradient Meta-Reinforcement Learning)と呼ばれるMAML手法の変種を提案する。
我々はSG-MRLの反復とサンプルの複雑さを導出して$ilon$-first-orderの定常点を求める。
論文 参考訳(メタデータ) (2020-02-12T18:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。