論文の概要: Optimistic Meta-Gradients
- arxiv url: http://arxiv.org/abs/2301.03236v1
- Date: Mon, 9 Jan 2023 10:05:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 16:26:10.877943
- Title: Optimistic Meta-Gradients
- Title(参考訳): 最適メタグラディエント
- Authors: Sebastian Flennerhag and Tom Zahavy and Brendan O'Donoghue and Hado
van Hasselt and Andr\'as Gy\"orgy and Satinder Singh
- Abstract要約: 勾配に基づくメタラーニングと凸オプティマイゼーションの関連について検討する。
メタ学習における楽観性は,Bootstrapped Meta-Gradientsを通じて得られることを示す。
- 参考スコア(独自算出の注目度): 37.11276919046808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the connection between gradient-based meta-learning and convex
op-timisation. We observe that gradient descent with momentum is a special case
of meta-gradients, and building on recent results in optimisation, we prove
convergence rates for meta-learning in the single task setting. While a
meta-learned update rule can yield faster convergence up to constant factor, it
is not sufficient for acceleration. Instead, some form of optimism is required.
We show that optimism in meta-learning can be captured through Bootstrapped
Meta-Gradients (Flennerhag et al., 2022), providing deeper insight into its
underlying mechanics.
- Abstract(参考訳): 勾配に基づくメタラーニングと凸オプティマイゼーションの関連について検討する。
運動量のある勾配降下はメタ勾配の特別な場合であり、最適化の最近の結果に基づいて、1つのタスク設定でメタ学習の収束率を示す。
メタ学習更新規則は、定数係数までのより高速な収束をもたらすが、加速には不十分である。
代わりに、ある種の楽観主義が必要である。
メタラーニングにおける楽観性は,Bootstrapped Meta-Gradients (Flennerhag et al., 2022) を通じて捉えることができ,その基盤となる力学の深い洞察を提供する。
関連論文リスト
- Arbitrary Order Meta-Learning with Simple Population-Based Evolution [1.6114012813668934]
単純個体群に基づく進化は、任意に高次メタ-パラメータを暗黙的に最適化することを示す。
次に、任意順序メタ学習を可能にする最小の自己参照パラメータ化を導入する。
論文 参考訳(メタデータ) (2023-03-16T16:55:26Z) - Meta Mirror Descent: Optimiser Learning for Fast Convergence [85.98034682899855]
我々は、勾配降下ではなくミラー降下から始まり、対応するブレグマン発散をメタラーニングする。
このパラダイム内では、後悔の限界を最小化するための新しいメタ学習目標を定式化する。
多くのメタ学習オプティマイザとは異なり、収束と一般化の保証もサポートしており、検証データを必要としない。
論文 参考訳(メタデータ) (2022-03-05T11:41:13Z) - One Step at a Time: Pros and Cons of Multi-Step Meta-Gradient
Reinforcement Learning [61.662504399411695]
より正確でロバストなメタ勾配信号を持つ複数の内部ステップを混合する新しい手法を提案する。
Snakeゲームに適用した場合、混合メタグラディエントアルゴリズムは、類似または高い性能を達成しつつ、その分散を3倍に削減することができる。
論文 参考訳(メタデータ) (2021-10-30T08:36:52Z) - Bootstrapped Meta-Learning [48.017607959109924]
本稿では,メタ学習者が自らを教えることによって,メタ最適化問題に挑戦するアルゴリズムを提案する。
アルゴリズムはまずメタラーナーからターゲットをブートストラップし、選択した(擬似)測度の下でそのターゲットまでの距離を最小化することでメタラーナーを最適化する。
我々は、Atari ALEベンチマークでモデルフリーエージェントの新たな最先端技術を実現し、数ショットの学習においてMAMLを改善し、我々のアプローチがいかに新しい可能性を開くかを実証する。
論文 参考訳(メタデータ) (2021-09-09T18:29:05Z) - Faster Meta Update Strategy for Noise-Robust Deep Learning [62.08964100618873]
我々は,メタグラデーションの最も高価なステップをより高速なレイヤワイズ近似に置き換えるために,新しいファMUS(Faster Meta Update Strategy)を導入する。
本手法は,同等あるいはさらに優れた一般化性能を維持しつつ,トレーニング時間の3分の2を節約できることを示す。
論文 参考訳(メタデータ) (2021-04-30T16:19:07Z) - Large-Scale Meta-Learning with Continual Trajectory Shifting [76.29017270864308]
メタリアナーがより多くの内部勾配ステップをとれるようにすることで、ヘテロジニアスタスクや大規模タスクの構造をよりよく把握できることを示す。
メタ更新の頻度を増やすために、タスク固有のパラメータの必要なシフトを推定することを提案する。
このアルゴリズムは, 一般化性能と収束性の両方において, 先行する一階メタ学習法を大きく上回っていることを示す。
論文 参考訳(メタデータ) (2021-02-14T18:36:33Z) - Guarantees for Tuning the Step Size using a Learning-to-Learn Approach [18.838453594698166]
ステップサイズを2次的損失に調整する簡単な問題に対して、学習から学習までのアプローチに対してメタ最適化を保証する。
メタ・グラディエント・オブジェクトを設計してメタ・グラディエントを束縛したままにしておく方法はあるが、バックプロパゲーションを用いて直接メタ・グラディエントを計算すれば、数値的な問題が発生する。
また,メタオブジェクトを別個の検証セットで計算し,学習性能を確保する必要がある場合の特徴付けを行う。
論文 参考訳(メタデータ) (2020-06-30T02:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。