論文の概要: Meta Cyclical Annealing Schedule: A Simple Approach to Avoiding
Meta-Amortization Error
- arxiv url: http://arxiv.org/abs/2003.01889v1
- Date: Wed, 4 Mar 2020 04:43:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 12:14:01.149191
- Title: Meta Cyclical Annealing Schedule: A Simple Approach to Avoiding
Meta-Amortization Error
- Title(参考訳): Meta Cyclical Annealing Schedule: Meta-Amortization Error の簡単なアプローチ
- Authors: Yusuke Hayashi and Taiji Suzuki
- Abstract要約: 循環型アニーリングスケジュールとMMD基準を用いた新しいメタレギュラー化目標を構築した。
実験の結果,本手法は標準的なメタ学習アルゴリズムよりもかなり優れていることがわかった。
- 参考スコア(独自算出の注目度): 50.83356836818667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to learn new concepts with small amounts of data is a crucial
aspect of intelligence that has proven challenging for deep learning methods.
Meta-learning for few-shot learning offers a potential solution to this
problem: by learning to learn across data from many previous tasks, few-shot
learning algorithms can discover the structure among tasks to enable fast
learning of new tasks. However, a critical challenge in few-shot learning is
task ambiguity: even when a powerful prior can be meta-learned from a large
number of prior tasks, a small dataset for a new task can simply be very
ambiguous to acquire a single model for that task. The Bayesian meta-learning
models can naturally resolve this problem by putting a sophisticated prior
distribution and let the posterior well regularized through Bayesian decision
theory. However, currently known Bayesian meta-learning procedures such as
VERSA suffer from the so-called {\it information preference problem}, that is,
the posterior distribution is degenerated to one point and is far from the
exact one. To address this challenge, we design a novel meta-regularization
objective using {\it cyclical annealing schedule} and {\it maximum mean
discrepancy} (MMD) criterion. The cyclical annealing schedule is quite
effective at avoiding such degenerate solutions. This procedure includes a
difficult KL-divergence estimation, but we resolve the issue by employing MMD
instead of KL-divergence. The experimental results show that our approach
substantially outperforms standard meta-learning algorithms.
- Abstract(参考訳): 少量のデータで新しい概念を学習する能力は、深層学習の方法に挑戦することが証明された知性の重要な側面である。
それまでの多くのタスクからデータを通して学習するために学習することで、少数の学習アルゴリズムはタスク間の構造を発見し、新しいタスクの迅速な学習を可能にする。
しかし、少数ショット学習における重要な課題はタスクのあいまいさである: 強力な先行タスクが多数の先行タスクからメタ学習可能であったとしても、新しいタスクのための小さなデータセットは、そのタスクの単一のモデルを取得するために非常に曖昧である。
ベイズメタラーニングモデルは、洗練された事前分布を配置し、ベイズ決定理論を通じて後部を正則化することで、自然にこの問題を解決できる。
しかしながら、現在知られているベイジアンメタラーニング手順、例えばversaはいわゆる「it情報選好問題」、すなわち後方分布が一点に縮退し、正確なものとは程遠い問題に苦しむ。
この課題に対処するために, {\it cyclical annealing schedule} と {\it maximum mean discrepancy} (MMD) を用いた新しいメタ規則化目標を設計する。
環状アニールスケジュールは、そのような縮退した解を避けるのに非常に効果的である。
本手法では,KL偏差推定が難しいが,KL偏差ではなくMDDを用いて解決する。
実験の結果,本手法は標準的なメタラーニングアルゴリズムを実質的に上回っていることがわかった。
関連論文リスト
- Rethinking Meta-Learning from a Learning Lens [17.00587250127854]
我々は、メタ学習の戦略を学ぶためのより基本的な学習に焦点を当て、環境を変えることなく、エラーの原因とこれらのエラーの除去方法を探る。
本稿では,メタ学習の最適化プロセスに対するタスク関係の利用を提案し,その目的を達成するために,TRLearner(Task Relation Learner)と呼ばれるプラグアンドプレイ手法を提案する。
論文 参考訳(メタデータ) (2024-09-13T02:00:16Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Clustering-based Domain-Incremental Learning [4.835091081509403]
連続学習における鍵となる課題は、いわゆる「破滅的な忘れ問題」である。
動的に更新されたサンプルや勾配の有限プールに対するオンラインクラスタリングに基づくアプローチを提案する。
提案手法の有効性と将来性を示す。
論文 参考訳(メタデータ) (2023-09-21T13:49:05Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Algorithm Design for Online Meta-Learning with Task Boundary Detection [63.284263611646]
非定常環境におけるタスクに依存しないオンラインメタ学習のための新しいアルゴリズムを提案する。
まず,タスクスイッチと分散シフトの簡易かつ効果的な2つの検出機構を提案する。
軽度条件下では,線形タスク平均的後悔がアルゴリズムに対して達成可能であることを示す。
論文 参考訳(メタデータ) (2023-02-02T04:02:49Z) - Gradient-Based Meta-Learning Using Uncertainty to Weigh Loss for
Few-Shot Learning [5.691930884128995]
Model-Agnostic Meta-Learning (MAML)は、数発の学習において最も成功したメタラーニング手法の1つである。
タスク固有の学習者に対して,タスクの損失を最小限に抑えるパラメータの選択を適応的に学習する手法を提案する。
メソッド1はメタロス差を比較して重みを生成し、クラスが少ない場合の精度を向上させる。
方法2は、各タスクの相補的不確実性を導入し、元の勾配降下に基づいて複数の損失を重み付けする。
論文 参考訳(メタデータ) (2022-08-17T08:11:51Z) - On the Effectiveness of Fine-tuning Versus Meta-reinforcement Learning [71.55412580325743]
本稿では,新しいタスクを微調整したマルチタスク事前学習がメタテスト時間適応によるメタ事前学習と同等かそれ以上に機能することを示す。
マルチタスク事前学習はメタRLよりもシンプルで計算的に安価である傾向があるため、これは将来の研究を奨励している。
論文 参考訳(メタデータ) (2022-06-07T13:24:00Z) - Variable-Shot Adaptation for Online Meta-Learning [123.47725004094472]
従来のタスクから静的データにまたがるメタラーニングによって,少数の固定された例から新しいタスクを学習する問題について検討する。
メタラーニングは,従来の教師付き手法に比べて,ラベルの総数が少なく,累積性能も高いタスクセットを解く。
これらの結果から,メタラーニングは,一連の問題を継続的に学習し,改善する学習システムを構築する上で重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2020-12-14T18:05:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。