論文の概要: Meta-Regularization by Enforcing Mutual-Exclusiveness
- arxiv url: http://arxiv.org/abs/2101.09819v1
- Date: Sun, 24 Jan 2021 22:57:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 09:19:34.834067
- Title: Meta-Regularization by Enforcing Mutual-Exclusiveness
- Title(参考訳): 相互排他性強化によるメタレギュライゼーション
- Authors: Edwin Pan and Pankaj Rajak and Shubham Shrivastava
- Abstract要約: 本稿では,メタ学習時の情報フローをモデル設計者が制御できるように,メタ学習モデルの正規化手法を提案する。
提案した正規化関数は,Omniglotデータセット上で$sim$$36%の精度向上を示す。
- 参考スコア(独自算出の注目度): 0.8057006406834467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-learning models have two objectives. First, they need to be able to make
predictions over a range of task distributions while utilizing only a small
amount of training data. Second, they also need to adapt to new novel unseen
tasks at meta-test time again by using only a small amount of training data
from that task. It is the second objective where meta-learning models fail for
non-mutually exclusive tasks due to task overfitting. Given that guaranteeing
mutually exclusive tasks is often difficult, there is a significant need for
regularization methods that can help reduce the impact of task-memorization in
meta-learning. For example, in the case of N-way, K-shot classification
problems, tasks becomes non-mutually exclusive when the labels associated with
each task is fixed. Under this design, the model will simply memorize the class
labels of all the training tasks, and thus will fail to recognize a new task
(class) at meta-test time. A direct observable consequence of this memorization
is that the meta-learning model simply ignores the task-specific training data
in favor of directly classifying based on the test-data input. In our work, we
propose a regularization technique for meta-learning models that gives the
model designer more control over the information flow during meta-training. Our
method consists of a regularization function that is constructed by maximizing
the distance between task-summary statistics, in the case of black-box models
and task specific network parameters in the case of optimization based models
during meta-training. Our proposed regularization function shows an accuracy
boost of $\sim$ $36\%$ on the Omniglot dataset for 5-way, 1-shot classification
using black-box method and for 20-way, 1-shot classification problem using
optimization-based method.
- Abstract(参考訳): メタ学習モデルには2つの目的がある。
まず、少量のトレーニングデータを利用して、さまざまなタスクの分布を予測できるようにする必要があります。
第二に、そのタスクから少量のトレーニングデータを使用することで、メタテスト時に新しい未知のタスクに再び適応する必要がある。
これは、メタ学習モデルがタスク過度に適合するため、非相互排他的なタスクで失敗する2番目の目的である。
相互排他的タスクの保証がしばしば困難であることを考えると,メタ学習におけるタスク記憶の影響を低減する上で有効な正規化手法が不可欠である。
例えば、Nウェイ、Kショットの分類問題の場合、各タスクに関連するラベルが固定されると、タスクは非ミューチュアルに排他的になる。
この設計の下では、モデルは単にすべてのトレーニングタスクのクラスラベルを記憶し、メタテスト時に新しいタスク(クラス)を認識するのに失敗する。
この記憶の直接的な観察可能な結果は、メタラーニングモデルが単にタスク固有のトレーニングデータを無視し、テストデータ入力に基づいて直接分類することである。
本研究では,メタトレーニング中の情報フローをモデル設計者が制御できるように,メタ学習モデルのための正規化手法を提案する。
メタトレーニング中の最適化モデルの場合、ブラックボックスモデルとタスク固有のネットワークパラメータの場合、タスクサマリー統計間の距離を最大化することによって構築された正規化関数からなる。
提案する正則化関数は,ブラックボックス法による5ウェイ1ショット分類と最適化に基づく20ウェイ1ショット分類問題に対して,Omniglotデータセット上で$36\%の精度向上を示す。
関連論文リスト
- Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Architecture, Dataset and Model-Scale Agnostic Data-free Meta-Learning [119.70303730341938]
データフリーメタトレーニングにおけるePisode cUrriculum inversion(ECI)と、内部ループ後のinvErsion calibRation(ICFIL)を提案する。
ECIは、メタモデルのリアルタイムフィードバックに応じて、擬似エピソードの難易度を適応的に増加させる。
本稿では,ECIを用いたメタトレーニングの最適化過程を,エンド・ツー・エンド方式で近似形式として定式化する。
論文 参考訳(メタデータ) (2023-03-20T15:10:41Z) - TIDo: Source-free Task Incremental Learning in Non-stationary
Environments [0.0]
モデルベースのエージェントを更新して新しいターゲットタスクを学習するには、過去のトレーニングデータを格納する必要があります。
ラベル付きターゲットデータセットの制限を克服するタスクインクリメンタル学習手法はほとんどない。
本研究では,非定常的および目標的タスクに適応可能なワンショットタスクインクリメンタル学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-28T02:19:45Z) - Gradient-Based Meta-Learning Using Uncertainty to Weigh Loss for
Few-Shot Learning [5.691930884128995]
Model-Agnostic Meta-Learning (MAML)は、数発の学習において最も成功したメタラーニング手法の1つである。
タスク固有の学習者に対して,タスクの損失を最小限に抑えるパラメータの選択を適応的に学習する手法を提案する。
メソッド1はメタロス差を比較して重みを生成し、クラスが少ない場合の精度を向上させる。
方法2は、各タスクの相補的不確実性を導入し、元の勾配降下に基づいて複数の損失を重み付けする。
論文 参考訳(メタデータ) (2022-08-17T08:11:51Z) - MetaICL: Learning to Learn In Context [87.23056864536613]
そこで我々は,メタICLというメタトレーニングフレームワークを紹介した。このフレームワークでは,事前学習された言語モデルが,大量のトレーニングタスクに対してコンテキスト内学習を行うように調整されている。
その結果,MetaICLは,目標タスクトレーニングデータに対して完全に微調整されたモデルの性能にアプローチ(時には打ち負かす)し,ほぼ8倍のパラメータを持つモデルよりも優れた性能を示すことがわかった。
論文 参考訳(メタデータ) (2021-10-29T17:42:08Z) - Task Attended Meta-Learning for Few-Shot Learning [3.0724051098062097]
そこで我々は,タスクアサートメタトレーニングと呼ばれる,人間の選択的な焦点を動機とする学習カリキュラムを紹介し,タスクをバッチで重み付けする。
複雑なデータセットに対する非タスク付きモデルとの比較は、その有効性を検証する。
論文 参考訳(メタデータ) (2021-06-20T07:34:37Z) - Self-Supervised Meta-Learning for Few-Shot Natural Language
Classification Tasks [40.97125791174191]
ラベルのないテキストから大規模でリッチなメタ学習タスク分布を生成するための自己教師型手法を提案する。
このメタトレーニングは、言語モデル事前学習の後に微調整を行うよりも、数ショットの一般化に繋がることを示す。
論文 参考訳(メタデータ) (2020-09-17T17:53:59Z) - Improving Generalization in Meta-learning via Task Augmentation [69.83677015207527]
本稿ではMetaMixとChannel Shuffleの2つのタスク拡張手法を提案する。
MetaMixとChannel Shuffleはどちらも、多くのデータセットにまたがる大きなマージンによって、最先端の結果を上回っている。
論文 参考訳(メタデータ) (2020-07-26T01:50:42Z) - Adaptive Task Sampling for Meta-Learning [79.61146834134459]
数ショットの分類のためのメタラーニングの鍵となるアイデアは、テスト時に直面した数ショットの状況を模倣することである。
一般化性能を向上させるための適応型タスクサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T03:15:53Z) - Few Is Enough: Task-Augmented Active Meta-Learning for Brain Cell
Classification [8.998976678920236]
本稿では,Deep Neural Networks を新しいタスクに効率的に適応する tAsk-auGmented actIve meta-LEarning (AGILE) 手法を提案する。
AGILEはメタ学習アルゴリズムと,初期適応モデルを生成するための新しいタスク拡張手法を組み合わせる。
提案するタスク強化メタラーニングフレームワークは,1段階の段階を経て,新たな細胞タイプを分類することができることを示す。
論文 参考訳(メタデータ) (2020-07-09T18:03:12Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。