論文の概要: Guarantees for Tuning the Step Size using a Learning-to-Learn Approach
- arxiv url: http://arxiv.org/abs/2006.16495v2
- Date: Fri, 11 Jun 2021 04:21:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 04:34:52.179143
- Title: Guarantees for Tuning the Step Size using a Learning-to-Learn Approach
- Title(参考訳): 学習から学習までのアプローチによるステップサイズ調整の保証
- Authors: Xiang Wang, Shuai Yuan, Chenwei Wu, Rong Ge
- Abstract要約: ステップサイズを2次的損失に調整する簡単な問題に対して、学習から学習までのアプローチに対してメタ最適化を保証する。
メタ・グラディエント・オブジェクトを設計してメタ・グラディエントを束縛したままにしておく方法はあるが、バックプロパゲーションを用いて直接メタ・グラディエントを計算すれば、数値的な問題が発生する。
また,メタオブジェクトを別個の検証セットで計算し,学習性能を確保する必要がある場合の特徴付けを行う。
- 参考スコア(独自算出の注目度): 18.838453594698166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Choosing the right parameters for optimization algorithms is often the key to
their success in practice. Solving this problem using a learning-to-learn
approach -- using meta-gradient descent on a meta-objective based on the
trajectory that the optimizer generates -- was recently shown to be effective.
However, the meta-optimization problem is difficult. In particular, the
meta-gradient can often explode/vanish, and the learned optimizer may not have
good generalization performance if the meta-objective is not chosen carefully.
In this paper we give meta-optimization guarantees for the learning-to-learn
approach on a simple problem of tuning the step size for quadratic loss. Our
results show that the na\"ive objective suffers from meta-gradient
explosion/vanishing problem. Although there is a way to design the
meta-objective so that the meta-gradient remains polynomially bounded,
computing the meta-gradient directly using backpropagation leads to numerical
issues. We also characterize when it is necessary to compute the meta-objective
on a separate validation set to ensure the generalization performance of the
learned optimizer. Finally, we verify our results empirically and show that a
similar phenomenon appears even for more complicated learned optimizers
parametrized by neural networks.
- Abstract(参考訳): 最適化アルゴリズムの適切なパラメータを選択することが、実際の成功の鍵となることが多い。
学習から学習へのアプローチ(最適化者が生成する軌道に基づくメタオブジェクトへのメタ段階的な降下)を用いてこの問題を解決することは、最近有効であることが示されている。
しかし、メタ最適化問題は難しい。
特に、メタグラディエントはしばしば爆発/消滅し、メタオブジェクトが慎重に選択されていない場合、学習したオプティマイザは優れた一般化性能を有しない。
本稿では,二次損失のステップサイズをチューニングする簡単な問題に対して,学習から学習へのアプローチにメタ最適化の保証を与える。
以上の結果から,na\"目標がメタグレードの爆発・破壊問題に苦しむことが示された。
メタグレードが多項式的に有界であるようにメタ目的を設計する方法があるが、バックプロパゲーションを使って直接メタグレードを計算すると数値的な問題が発生する。
また、学習したオプティマイザの一般化性能を確保するために、別個の検証セット上でメタオブジェクトを計算する必要がある場合の特徴付けを行う。
最後に,ニューラルネットワークによってパラメータ化されたより複雑な学習オプティマイザに対しても,同様の現象が現れることを示す。
関連論文リスト
- Fast Adaptation with Kernel and Gradient based Meta Leaning [4.763682200721131]
モデルAメタラーニング(MAML)の内輪と外輪の両方を改善するための2つのアルゴリズムを提案する。
最初のアルゴリズムは関数空間の最適化問題を再定義し、閉形式解を用いてモデルを更新する。
外ループでは、内ループの各タスクの損失に重みを割り当てることで、第2のアルゴリズムがメタラーナーの学習を調整する。
論文 参考訳(メタデータ) (2024-11-01T07:05:03Z) - Model-Agnostic Zeroth-Order Policy Optimization for Meta-Learning of Ergodic Linear Quadratic Regulators [13.343937277604892]
エルゴード線形二次規制器における不確実性と不均一性を扱うためにメタラーニングを用いることの問題点について検討する。
本稿では,不均一だが類似の線形力学系を学習するタスクに適用可能なポリシヘシアンの推定を省略するアルゴリズムを提案する。
メタオブジェクトの勾配の有界性と滑らかさを解析することにより、正確な勾配降下過程の収束結果を提供する。
論文 参考訳(メタデータ) (2024-05-27T17:26:36Z) - Scalable Bayesian Meta-Learning through Generalized Implicit Gradients [64.21628447579772]
Inlicit Bayesian Meta-learning (iBaML) 法は、学習可能な事前のスコープを広げるだけでなく、関連する不確実性も定量化する。
解析誤差境界は、明示的よりも一般化された暗黙的勾配の精度と効率を示すために確立される。
論文 参考訳(メタデータ) (2023-03-31T02:10:30Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - Meta Mirror Descent: Optimiser Learning for Fast Convergence [85.98034682899855]
我々は、勾配降下ではなくミラー降下から始まり、対応するブレグマン発散をメタラーニングする。
このパラダイム内では、後悔の限界を最小化するための新しいメタ学習目標を定式化する。
多くのメタ学習オプティマイザとは異なり、収束と一般化の保証もサポートしており、検証データを必要としない。
論文 参考訳(メタデータ) (2022-03-05T11:41:13Z) - Bootstrapped Meta-Learning [48.017607959109924]
本稿では,メタ学習者が自らを教えることによって,メタ最適化問題に挑戦するアルゴリズムを提案する。
アルゴリズムはまずメタラーナーからターゲットをブートストラップし、選択した(擬似)測度の下でそのターゲットまでの距離を最小化することでメタラーナーを最適化する。
我々は、Atari ALEベンチマークでモデルフリーエージェントの新たな最先端技術を実現し、数ショットの学習においてMAMLを改善し、我々のアプローチがいかに新しい可能性を開くかを実証する。
論文 参考訳(メタデータ) (2021-09-09T18:29:05Z) - Conservative Objective Models for Effective Offline Model-Based
Optimization [78.19085445065845]
計算設計の問題は、合成生物学からコンピュータアーキテクチャまで、様々な場面で発生している。
本研究では,分布外入力に対する接地的目標の実際の値を低くする目的関数のモデルを学習する手法を提案する。
COMは、様々なMBO問題に対して、既存のメソッドの実装と性能の面では単純である。
論文 参考訳(メタデータ) (2021-07-14T17:55:28Z) - Meta-Learning with Neural Tangent Kernels [58.06951624702086]
メタモデルのニューラルタンジェントカーネル(NTK)によって誘導される再生カーネルヒルベルト空間(RKHS)における最初のメタラーニングパラダイムを提案する。
このパラダイムでは,MAMLフレームワークのように,最適な反復内ループ適応を必要としない2つのメタ学習アルゴリズムを導入する。
本研究の目的は,1) 適応をRKHSの高速適応正則化器に置き換えること,2) NTK理論に基づいて解析的に適応を解くことである。
論文 参考訳(メタデータ) (2021-02-07T20:53:23Z) - Modeling and Optimization Trade-off in Meta-learning [23.381986209234164]
メタラーニングにおいて、正確なモデリングと容易さのトレードオフを導入し、厳密に定義する。
我々はMAMLを代表的メタラーニングアルゴリズムとして、一般的な非リスク関数と線形回帰のトレードオフを理論的に特徴づける。
また,メタ強化学習ベンチマークのトレードオフを実証的に解決する。
論文 参考訳(メタデータ) (2020-10-24T15:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。