論文の概要: Dynamic Regret Analysis for Online Meta-Learning
- arxiv url: http://arxiv.org/abs/2109.14375v1
- Date: Wed, 29 Sep 2021 12:12:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 15:00:27.116825
- Title: Dynamic Regret Analysis for Online Meta-Learning
- Title(参考訳): オンラインメタ学習における動的回帰分析
- Authors: Parvin Nazari, Esmaile Khorram
- Abstract要約: オンラインメタ学習フレームワークは、継続的な生涯学習設定のための強力なツールとして生まれてきた。
この定式化には、メタラーナーを学ぶ外部レベルと、タスク固有のモデルを学ぶ内部レベルという2つのレベルが含まれる。
グローバルな予測から環境の変化を扱う動的な後悔という観点から、パフォーマンスを確立します。
本稿では,本分析を1つの設定で実施し,各イテレーションの総数に依存する局所的局所的後悔の対数論的証明を期待する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The online meta-learning framework has arisen as a powerful tool for the
continual lifelong learning setting. The goal for an agent is to quickly learn
new tasks by drawing on prior experience, while it faces with tasks one after
another. This formulation involves two levels: outer level which learns
meta-learners and inner level which learns task-specific models, with only a
small amount of data from the current task. While existing methods provide
static regret analysis for the online meta-learning framework, we establish
performance in terms of dynamic regret which handles changing environments from
a global prospective. We also build off of a generalized version of the
adaptive gradient methods that covers both ADAM and ADAGRAD to learn
meta-learners in the outer level. We carry out our analyses in a stochastic
setting, and in expectation prove a logarithmic local dynamic regret which
depends explicitly on the total number of iterations T and parameters of the
learner. Apart from, we also indicate high probability bounds on the
convergence rates of proposed algorithm with appropriate selection of
parameters, which have not been argued before.
- Abstract(参考訳): オンラインメタラーニングフレームワークは、継続的な生涯学習設定のための強力なツールとして生まれました。
エージェントの目標は、タスクが次々に直面する間に、事前の経験に基づいて新しいタスクをすばやく学習することだ。
この定式化には2つのレベルがある: メタリアナーを学習する外部レベルと、現在のタスクから少量のデータしか持たないタスク固有のモデルを学ぶ内部レベルである。
既存の手法はオンラインメタラーニングフレームワークに対して静的な後悔分析を提供するが、グローバルな予測から環境の変化を扱う動的後悔の観点からパフォーマンスを確立する。
また,adam と adagrad の両方をカバーする適応勾配法(adaptive gradient method)の一般化版を構築し,外部レベルでメタリアナーを学ぶ。
我々は統計的に解析を行い, 期待する中で, 反復数tと学習者のパラメータに明示的に依存する局所的局所的後悔を証明した。
また,パラメータの適切な選択による提案アルゴリズムの収束率に高い確率境界を示す。
関連論文リスト
- Meta-Learning via Classifier(-free) Guidance [5.812784742024491]
最先端のメタ学習技術は、目に見えないタスクへのゼロショット適応を最適化しない。
本稿では,自然言語指導によるゼロショット性能向上のためのメタ学習手法を提案する。
論文 参考訳(メタデータ) (2022-10-17T11:09:35Z) - Meta-Learning with Self-Improving Momentum Target [72.98879709228981]
メタラーナーの性能を向上させるために,SiMT(Self-improving Momentum Target)を提案する。
SiMTはメタラーナーの時間アンサンブルから適応してターゲットモデルを生成する。
我々は、SiMTが幅広いメタ学習手法と組み合わせることで、大きなパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-10-11T06:45:15Z) - Fully Online Meta-Learning Without Task Boundaries [80.09124768759564]
この性質のオンライン問題にメタラーニングを適用する方法について検討する。
タスク境界に関する基礎的な真理知識を必要としない完全オンラインメタラーニング(FOML)アルゴリズムを提案する。
実験の結果,FOMLは最先端のオンライン学習手法よりも高速に新しいタスクを学習できることがわかった。
論文 参考訳(メタデータ) (2022-02-01T07:51:24Z) - Learning an Explicit Hyperparameter Prediction Function Conditioned on
Tasks [62.63852372239708]
メタ学習は、観察されたタスクから機械学習の学習方法論を学び、新しいクエリタスクに一般化することを目的としている。
我々は、これらの学習手法を、全てのトレーニングタスクで共有される明示的なハイパーパラメータ予測関数の学習として解釈する。
このような設定は、メタ学習方法論が多様なクエリタスクに柔軟に適合できることを保証する。
論文 参考訳(メタデータ) (2021-07-06T04:05:08Z) - Meta-Reinforcement Learning by Tracking Task Non-stationarity [45.90345116853823]
本稿では,タスクの時間的進化を明示的に追跡することで,将来に向けて最適化する新しいアルゴリズム(TRIO)を提案する。
既存のほとんどの方法とは異なり、TRIOはマルコフのタスク進化過程を想定していない。
我々は,異なるシミュレーション問題に対するアルゴリズムの評価を行い,競争ベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-05-18T21:19:41Z) - A contrastive rule for meta-learning [1.3124513975412255]
メタ学習アルゴリズムは、一連のタスクに存在する正規性を活用して、補助学習プロセスのパフォーマンスを高速化し改善する。
平衡伝播に基づく勾配に基づくメタラーニングアルゴリズムを提案する。
我々は、その性能に関する理論的境界を確立し、標準ベンチマークとニューラルネットワークアーキテクチャのセットで実験を行う。
論文 参考訳(メタデータ) (2021-04-04T19:45:41Z) - Variable-Shot Adaptation for Online Meta-Learning [123.47725004094472]
従来のタスクから静的データにまたがるメタラーニングによって,少数の固定された例から新しいタスクを学習する問題について検討する。
メタラーニングは,従来の教師付き手法に比べて,ラベルの総数が少なく,累積性能も高いタスクセットを解く。
これらの結果から,メタラーニングは,一連の問題を継続的に学習し,改善する学習システムを構築する上で重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2020-12-14T18:05:24Z) - Meta-learning the Learning Trends Shared Across Tasks [123.10294801296926]
グラディエントベースのメタ学習アルゴリズムは、限られたデータで新しいタスクに素早く適応する。
既存のメタ学習アプローチは、適応中の現在のタスク情報にのみ依存する。
パターン認識型メタラーニング手法を提案する。
論文 参考訳(メタデータ) (2020-10-19T08:06:47Z) - Meta Reinforcement Learning with Autonomous Inference of Subtask
Dependencies [57.27944046925876]
本稿では,タスクがサブタスクグラフによって特徴づけられるような,新しい数発のRL問題を提案し,対処する。
メタ政治を直接学習する代わりに、Subtask Graph Inferenceを使ったメタラーナーを開発した。
実験の結果,2つのグリッドワールド領域とStarCraft II環境において,提案手法が潜在タスクパラメータを正確に推定できることが確認された。
論文 参考訳(メタデータ) (2020-01-01T17:34:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。