論文の概要: Bootstrapped Meta-Learning
- arxiv url: http://arxiv.org/abs/2109.04504v1
- Date: Thu, 9 Sep 2021 18:29:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 04:55:25.704674
- Title: Bootstrapped Meta-Learning
- Title(参考訳): ブートストラップ型メタラーニング
- Authors: Sebastian Flennerhag and Yannick Schroecker and Tom Zahavy and Hado
van Hasselt and David Silver and Satinder Singh
- Abstract要約: 本稿では,メタ学習者が自らを教えることによって,メタ最適化問題に挑戦するアルゴリズムを提案する。
アルゴリズムはまずメタラーナーからターゲットをブートストラップし、選択した(擬似)測度の下でそのターゲットまでの距離を最小化することでメタラーナーを最適化する。
我々は、Atari ALEベンチマークでモデルフリーエージェントの新たな最先端技術を実現し、数ショットの学習においてMAMLを改善し、我々のアプローチがいかに新しい可能性を開くかを実証する。
- 参考スコア(独自算出の注目度): 48.017607959109924
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Meta-learning empowers artificial intelligence to increase its efficiency by
learning how to learn. Unlocking this potential involves overcoming a
challenging meta-optimisation problem that often exhibits ill-conditioning, and
myopic meta-objectives. We propose an algorithm that tackles these issues by
letting the meta-learner teach itself. The algorithm first bootstraps a target
from the meta-learner, then optimises the meta-learner by minimising the
distance to that target under a chosen (pseudo-)metric. Focusing on
meta-learning with gradients, we establish conditions that guarantee
performance improvements and show that the improvement is related to the target
distance. Thus, by controlling curvature, the distance measure can be used to
ease meta-optimization, for instance by reducing ill-conditioning. Further, the
bootstrapping mechanism can extend the effective meta-learning horizon without
requiring backpropagation through all updates. The algorithm is versatile and
easy to implement. We achieve a new state-of-the art for model-free agents on
the Atari ALE benchmark, improve upon MAML in few-shot learning, and
demonstrate how our approach opens up new possibilities by meta-learning
efficient exploration in a Q-learning agent.
- Abstract(参考訳): メタ学習は、人工知能が学習方法を学ぶことによって、その効率を高める力を与える。
この可能性を解き明かすには、しばしば条件の悪いメタ最適化問題や、筋電図のメタオブジェクトを克服する必要がある。
本稿では,メタ学習者が自身に教えることによって,これらの問題に取り組むアルゴリズムを提案する。
アルゴリズムはまずメタラーナーからターゲットをブートストラップし、選択した(擬似)測定値の下でそのターゲットまでの距離を最小化することでメタラーナーを最適化する。
グラデーションによるメタラーニングに着目し,性能向上を保証し,目標距離に改善が関係していることを示す。
したがって、曲率を制御することで、例えば条件の悪さを減らしてメタ最適化を容易にすることができる。
さらに、ブートストラップ機構は、すべての更新をバックプロパゲーションすることなく、効果的なメタラーニング水平線を拡張することができる。
このアルゴリズムは多用途で実装が容易である。
我々は,Atari ALEベンチマークにおけるモデルフリーエージェントの新たな最先端技術の実現,数ショット学習におけるMAMLの改善,Qラーニングエージェントのメタラーニング効率向上による新たな可能性の開放を実証する。
関連論文リスト
- ConML: A Universal Meta-Learning Framework with Task-Level Contrastive Learning [49.447777286862994]
ConMLは、さまざまなメタ学習アルゴリズムに適用可能な、普遍的なメタ学習フレームワークである。
我々は、ConMLが最適化ベース、メートル法ベース、およびアモータイズベースメタ学習アルゴリズムとシームレスに統合できることを実証した。
論文 参考訳(メタデータ) (2024-10-08T12:22:10Z) - Eliminating Meta Optimization Through Self-Referential Meta Learning [5.584060970507506]
明示的なメタ最適化を必要とせずに自己修正を行う自己参照メタ学習システムについて検討する。
ニューラルネットワークは、帯域幅と古典的な制御タスクを解決するために自己修正を行い、自己修正を改善し、学習方法を学ぶ。
論文 参考訳(メタデータ) (2022-12-29T17:53:40Z) - Meta-Learning with Self-Improving Momentum Target [72.98879709228981]
メタラーナーの性能を向上させるために,SiMT(Self-improving Momentum Target)を提案する。
SiMTはメタラーナーの時間アンサンブルから適応してターゲットモデルを生成する。
我々は、SiMTが幅広いメタ学習手法と組み合わせることで、大きなパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-10-11T06:45:15Z) - Meta Mirror Descent: Optimiser Learning for Fast Convergence [85.98034682899855]
我々は、勾配降下ではなくミラー降下から始まり、対応するブレグマン発散をメタラーニングする。
このパラダイム内では、後悔の限界を最小化するための新しいメタ学習目標を定式化する。
多くのメタ学習オプティマイザとは異なり、収束と一般化の保証もサポートしており、検証データを必要としない。
論文 参考訳(メタデータ) (2022-03-05T11:41:13Z) - Accelerating Gradient-based Meta Learner [2.1349209400003932]
我々は,MAML (Model Agnostic Meta Learning) などのメタ学習アルゴリズムを高速化する様々なアクセラレーション手法を提案する。
本稿では,メタ学習プロセスの高速化だけでなく,モデルの精度向上にも寄与する,クラスタ内でのトレーニングタスクの新たな方法を提案する。
論文 参考訳(メタデータ) (2021-10-27T14:27:36Z) - Meta-Gradient Reinforcement Learning with an Objective Discovered Online [54.15180335046361]
本稿では,深層ニューラルネットワークによって柔軟にパラメータ化される,自己目的のメタ段階的降下に基づくアルゴリズムを提案する。
目的はオンラインで発見されるため、時間とともに変化に適応することができる。
Atari Learning Environmentでは、メタグラディエントアルゴリズムが時間とともに適応して、より効率よく学習する。
論文 参考訳(メタデータ) (2020-07-16T16:17:09Z) - Guarantees for Tuning the Step Size using a Learning-to-Learn Approach [18.838453594698166]
ステップサイズを2次的損失に調整する簡単な問題に対して、学習から学習までのアプローチに対してメタ最適化を保証する。
メタ・グラディエント・オブジェクトを設計してメタ・グラディエントを束縛したままにしておく方法はあるが、バックプロパゲーションを用いて直接メタ・グラディエントを計算すれば、数値的な問題が発生する。
また,メタオブジェクトを別個の検証セットで計算し,学習性能を確保する必要がある場合の特徴付けを行う。
論文 参考訳(メタデータ) (2020-06-30T02:59:35Z) - A Comprehensive Overview and Survey of Recent Advances in Meta-Learning [0.0]
メタラーニングはラーニング・トゥ・ラーン(Learning-to-Lern)とも呼ばれる。
メタラーニング手法は,ブラックボックスメタラーニング,メトリックベースメタラーニング,階層型メタラーニング,ベイズ的メタラーニングフレームワークである。
論文 参考訳(メタデータ) (2020-04-17T03:11:08Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。