論文の概要: Fully Online Meta-Learning Without Task Boundaries
- arxiv url: http://arxiv.org/abs/2202.00263v1
- Date: Tue, 1 Feb 2022 07:51:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 13:56:10.656960
- Title: Fully Online Meta-Learning Without Task Boundaries
- Title(参考訳): タスク境界のないオンラインメタ学習
- Authors: Jathushan Rajasegaran, Chesea Finn, Sergey Levine
- Abstract要約: この性質のオンライン問題にメタラーニングを適用する方法について検討する。
タスク境界に関する基礎的な真理知識を必要としない完全オンラインメタラーニング(FOML)アルゴリズムを提案する。
実験の結果,FOMLは最先端のオンライン学習手法よりも高速に新しいタスクを学習できることがわかった。
- 参考スコア(独自算出の注目度): 80.09124768759564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep networks can learn complex functions such as classifiers,
detectors, and trackers, many applications require models that continually
adapt to changing input distributions, changing tasks, and changing
environmental conditions. Indeed, this ability to continuously accrue knowledge
and use past experience to learn new tasks quickly in continual settings is one
of the key properties of an intelligent system. For complex and
high-dimensional problems, simply updating the model continually with standard
learning algorithms such as gradient descent may result in slow adaptation.
Meta-learning can provide a powerful tool to accelerate adaptation yet is
conventionally studied in batch settings. In this paper, we study how
meta-learning can be applied to tackle online problems of this nature,
simultaneously adapting to changing tasks and input distributions and
meta-training the model in order to adapt more quickly in the future. Extending
meta-learning into the online setting presents its own challenges, and although
several prior methods have studied related problems, they generally require a
discrete notion of tasks, with known ground-truth task boundaries. Such methods
typically adapt to each task in sequence, resetting the model between tasks,
rather than adapting continuously across tasks. In many real-world settings,
such discrete boundaries are unavailable, and may not even exist. To address
these settings, we propose a Fully Online Meta-Learning (FOML) algorithm, which
does not require any ground truth knowledge about the task boundaries and stays
fully online without resetting back to pre-trained weights. Our experiments
show that FOML was able to learn new tasks faster than the state-of-the-art
online learning methods on Rainbow-MNIST, CIFAR100 and CELEBA datasets.
- Abstract(参考訳): ディープネットワークは分類器、検出器、トラッカーなどの複雑な機能を学ぶことができるが、多くのアプリケーションは入力分布の変化、タスクの変化、環境条件の変化に継続的に適応するモデルを必要とする。
実際、知識を継続的に探求し、過去の経験を使って継続的に新しいタスクを素早く学習する能力は、インテリジェントシステムの重要な特性の1つです。
複雑で高次元の問題は、勾配降下のような標準的な学習アルゴリズムでモデルを継続的に更新するだけで、適応が遅くなる可能性がある。
メタラーニングは適応を加速する強力なツールを提供するが、従来はバッチ設定で研究されている。
本稿では,この性質のオンライン問題にメタラーニングを適用し,タスクや入力分布の変化に適応し,モデルにメタトレーニングを施して,より迅速な適応を実現する方法について検討する。
メタラーニングをオンライン環境に拡張することは、独自の課題を示し、いくつかの先行した手法が関連する問題を研究してきたが、一般にはタスクの離散的な概念を必要とする。
このようなメソッドは通常、タスク間で連続的に適応するのではなく、タスク間でモデルをリセットする。
多くの現実世界では、そのような離散境界は利用できず、存在すらしない。
これらの設定に対処するために、タスク境界に関する基礎的な真理知識を必要とせず、トレーニング済みの重みに戻すことなく完全にオンラインに留まる完全オンラインメタラーニング(FOML)アルゴリズムを提案する。
我々の実験によると、FOMLはRainbow-MNIST、CIFAR100、CELEBAデータセットの最先端のオンライン学習手法よりも早く新しいタスクを学習できた。
関連論文リスト
- MetaModulation: Learning Variational Feature Hierarchies for Few-Shot
Learning with Fewer Tasks [63.016244188951696]
本稿では,タスクを減らした少数ショット学習手法を提案する。
メタトレーニングタスクを増やすために、さまざまなバッチレベルでパラメータを変更します。
また,変分法を取り入れた学習的変分特徴階層も導入する。
論文 参考訳(メタデータ) (2023-05-17T15:47:47Z) - Algorithm Design for Online Meta-Learning with Task Boundary Detection [57.07616532337541]
非定常環境におけるタスクに依存しないオンラインメタ学習のための新しいアルゴリズムを提案する。
まず,タスクスイッチと分散シフトの簡易かつ効果的な2つの検出機構を提案する。
軽度条件下では,線形タスク平均的後悔がアルゴリズムに対して達成可能であることを示す。
論文 参考訳(メタデータ) (2023-02-02T04:02:49Z) - Dynamic Regret Analysis for Online Meta-Learning [0.0]
オンラインメタ学習フレームワークは、継続的な生涯学習設定のための強力なツールとして生まれてきた。
この定式化には、メタラーナーを学ぶ外部レベルと、タスク固有のモデルを学ぶ内部レベルという2つのレベルが含まれる。
グローバルな予測から環境の変化を扱う動的な後悔という観点から、パフォーマンスを確立します。
本稿では,本分析を1つの設定で実施し,各イテレーションの総数に依存する局所的局所的後悔の対数論的証明を期待する。
論文 参考訳(メタデータ) (2021-09-29T12:12:59Z) - Meta-Reinforcement Learning by Tracking Task Non-stationarity [45.90345116853823]
本稿では,タスクの時間的進化を明示的に追跡することで,将来に向けて最適化する新しいアルゴリズム(TRIO)を提案する。
既存のほとんどの方法とは異なり、TRIOはマルコフのタスク進化過程を想定していない。
我々は,異なるシミュレーション問題に対するアルゴリズムの評価を行い,競争ベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-05-18T21:19:41Z) - Variable-Shot Adaptation for Online Meta-Learning [123.47725004094472]
従来のタスクから静的データにまたがるメタラーニングによって,少数の固定された例から新しいタスクを学習する問題について検討する。
メタラーニングは,従来の教師付き手法に比べて,ラベルの総数が少なく,累積性能も高いタスクセットを解く。
これらの結果から,メタラーニングは,一連の問題を継続的に学習し,改善する学習システムを構築する上で重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2020-12-14T18:05:24Z) - Meta Automatic Curriculum Learning [35.13646854355393]
メタACLの概念を導入し,それをブラックボックスRL学習者の文脈で形式化する。
本稿では,メタACLの初回インスタンス化であるAGAINについて述べる。
論文 参考訳(メタデータ) (2020-11-16T14:56:42Z) - Online Structured Meta-learning [137.48138166279313]
現在のオンラインメタ学習アルゴリズムは、グローバルに共有されたメタラーナーを学ぶために限られている。
この制限を克服するオンライン構造化メタラーニング(OSML)フレームワークを提案する。
3つのデータセットの実験は、提案フレームワークの有効性と解釈可能性を示している。
論文 参考訳(メタデータ) (2020-10-22T09:10:31Z) - Meta-learning the Learning Trends Shared Across Tasks [123.10294801296926]
グラディエントベースのメタ学習アルゴリズムは、限られたデータで新しいタスクに素早く適応する。
既存のメタ学習アプローチは、適応中の現在のタスク情報にのみ依存する。
パターン認識型メタラーニング手法を提案する。
論文 参考訳(メタデータ) (2020-10-19T08:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。