論文の概要: MetaMix: Improved Meta-Learning with Interpolation-based Consistency
Regularization
- arxiv url: http://arxiv.org/abs/2009.13735v2
- Date: Sat, 10 Oct 2020 05:36:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 06:27:26.172989
- Title: MetaMix: Improved Meta-Learning with Interpolation-based Consistency
Regularization
- Title(参考訳): MetaMix: 補間に基づく一貫性規則化によるメタラーニングの改善
- Authors: Yangbin Chen, Yun Ma, Tom Ko, Jianping Wang, Qing Li
- Abstract要約: バックボーンモデルを正規化するためのMetaMixという手法を提案する。
各エピソード内で仮想フィーチャとターゲットのペアを生成し、バックボーンモデルを標準化する。
任意のMAMLベースのアルゴリズムと統合でき、新しいタスクをより一般化した決定境界を学ぶことができる。
- 参考スコア(独自算出の注目度): 14.531741503372764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model-Agnostic Meta-Learning (MAML) and its variants are popular few-shot
classification methods. They train an initializer across a variety of sampled
learning tasks (also known as episodes) such that the initialized model can
adapt quickly to new tasks. However, current MAML-based algorithms have
limitations in forming generalizable decision boundaries. In this paper, we
propose an approach called MetaMix. It generates virtual feature-target pairs
within each episode to regularize the backbone models. MetaMix can be
integrated with any of the MAML-based algorithms and learn the decision
boundaries generalizing better to new tasks. Experiments on the mini-ImageNet,
CUB, and FC100 datasets show that MetaMix improves the performance of
MAML-based algorithms and achieves state-of-the-art result when integrated with
Meta-Transfer Learning.
- Abstract(参考訳): Model-Agnostic Meta-Learning (MAML)とその変種は、数ショット分類法として人気がある。
彼らは、初期化モデルが新しいタスクに迅速に適応できるように、様々なサンプル学習タスク(エピソードとしても知られる)でイニシャライザを訓練する。
しかし、現在のmamlベースのアルゴリズムは、一般化可能な決定境界の形成に制限がある。
本稿ではMetaMixと呼ばれるアプローチを提案する。
各エピソード内で仮想フィーチャーターゲットペアを生成し、バックボーンモデルを規則化する。
MetaMixは、MAMLベースのアルゴリズムと統合することができ、新しいタスクをより一般化した決定境界を学ぶことができる。
mini-ImageNet, CUB, FC100データセットの実験では、MetaMixはMAMLベースのアルゴリズムの性能を改善し、Meta-Transfer Learningと統合した場合に最先端の結果が得られる。
関連論文リスト
- How to Train Your MAML to Excel in Few-Shot Classification [26.51244463209443]
そこで本研究では,MAMLの訓練方法について紹介する。
我々のアプローチはUNICORN-MAMLと呼ばれ、最先端のアルゴリズムに匹敵する、あるいは性能に優れる。
論文 参考訳(メタデータ) (2021-06-30T17:56:15Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - MetaDelta: A Meta-Learning System for Few-shot Image Classification [71.06324527247423]
数ショット画像分類のための新しいメタ学習システムであるMetaDeltaを提案する。
MetaDeltaの各メタラーナーは、バッチトレーニングによって微調整された独自の事前訓練エンコーダと、予測に使用されるパラメータフリーデコーダで構成されている。
論文 参考訳(メタデータ) (2021-02-22T02:57:22Z) - Learning to Generalize Unseen Domains via Memory-based Multi-Source
Meta-Learning for Person Re-Identification [59.326456778057384]
本稿では,メモリベースのマルチソースメタラーニングフレームワークを提案する。
また,メタテスト機能を多様化するメタバッチ正規化層(MetaBN)を提案する。
実験により、M$3$Lは、目に見えない領域に対するモデルの一般化能力を効果的に向上できることが示された。
論文 参考訳(メタデータ) (2020-12-01T11:38:16Z) - A Nested Bi-level Optimization Framework for Robust Few Shot Learning [10.147225934340877]
NestedMAMLはトレーニングタスクやインスタンスに重みを割り当てることを学ぶ。
合成および実世界のデータセットの実験では、NestedMAMLは「不要な」タスクやインスタンスの効果を効率的に緩和している。
論文 参考訳(メタデータ) (2020-11-13T06:41:22Z) - BOML: A Modularized Bilevel Optimization Library in Python for Meta
Learning [52.90643948602659]
BOMLはモジュール化された最適化ライブラリで、いくつかのメタ学習アルゴリズムを共通の双方向最適化フレームワークに統合する。
さまざまなイテレーションモジュールとともに階層的な最適化パイプラインを提供し、メタ学習メソッドの主流カテゴリを解決するために使用できる。
論文 参考訳(メタデータ) (2020-09-28T14:21:55Z) - La-MAML: Look-ahead Meta Learning for Continual Learning [14.405620521842621]
オンライン連続学習のための高速最適化に基づくメタ学習アルゴリズムであるLook-ahead MAML(La-MAML)を提案する。
La-MAMLは他のリプレイベース、事前ベース、メタラーニングベースアプローチよりも優れたパフォーマンスを実現し、実世界の視覚分類ベンチマークで連続学習を行う。
論文 参考訳(メタデータ) (2020-07-27T23:07:01Z) - Improving Generalization in Meta-learning via Task Augmentation [69.83677015207527]
本稿ではMetaMixとChannel Shuffleの2つのタスク拡張手法を提案する。
MetaMixとChannel Shuffleはどちらも、多くのデータセットにまたがる大きなマージンによって、最先端の結果を上回っている。
論文 参考訳(メタデータ) (2020-07-26T01:50:42Z) - Weighted Meta-Learning [21.522768804834616]
モデルに依存しないメタラーニング(MAML)のような多くの一般的なメタラーニングアルゴリズムは、微調整のためにターゲットサンプルへのアクセスのみを前提としている。
本研究では、異なるソースタスクの損失の重み付けに基づくメタ学習のための一般的なフレームワークを提供する。
重み付きMAMLアルゴリズムを含む経験的IPMに関する誤差を最小化する学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-20T19:00:42Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。