論文の概要: Meta-Meta Classification for One-Shot Learning
- arxiv url: http://arxiv.org/abs/2004.08083v4
- Date: Sun, 14 Jun 2020 01:02:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 10:05:16.398069
- Title: Meta-Meta Classification for One-Shot Learning
- Title(参考訳): ワンショット学習のためのメタメタ分類
- Authors: Arkabandhu Chowdhury, Dipak Chaudhari, Swarat Chaudhuri, Chris
Jermaine
- Abstract要約: メタメタ分類(メタメタ分類)と呼ばれる,小さなデータ設定で学習する新しい手法を提案する。
このアプローチでは、学習者の集合を設計するために大量の学習問題を使用し、各学習者は高いバイアスと低い分散を持つ。
本研究では,一対一で一対一の分類課題に対するアプローチの評価を行い,従来のメタラーニングやアンサンブルアプローチよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 11.27833234287093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new approach, called meta-meta classification, to learning in
small-data settings. In this approach, one uses a large set of learning
problems to design an ensemble of learners, where each learner has high bias
and low variance and is skilled at solving a specific type of learning problem.
The meta-meta classifier learns how to examine a given learning problem and
combine the various learners to solve the problem. The meta-meta learning
approach is especially suited to solving few-shot learning tasks, as it is
easier to learn to classify a new learning problem with little data than it is
to apply a learning algorithm to a small data set. We evaluate the approach on
a one-shot, one-class-versus-all classification task and show that it is able
to outperform traditional meta-learning as well as ensembling approaches.
- Abstract(参考訳): 我々は,小データ環境での学習にメタメタ分類と呼ばれる新しいアプローチを提案する。
このアプローチでは,学習者の集合を設計するために,学習者が偏見が高く,分散度が低く,特定の学習問題の解法に熟練した学習者が多数存在する。
メタメタ分類器は、与えられた学習問題の検証方法を学び、様々な学習者を組み合わせて問題解決を行う。
メタメタ学習アプローチは、学習アルゴリズムを小さなデータセットに適用することよりも、少ないデータで新しい学習問題を分類することを学ぶのが容易であるため、特に少ないショット学習タスクの解決に向いている。
提案手法は,単発・単発・全分類タスクで評価し,従来のメタラーニングよりも優れており,センセーブアプローチも優れていることを示す。
関連論文リスト
- On the Efficiency of Integrating Self-supervised Learning and
Meta-learning for User-defined Few-shot Keyword Spotting [51.41426141283203]
ユーザ定義キーワードスポッティングは、ユーザが定義する新しい音声用語を検出するタスクである。
これまでの研究は、自己教師付き学習モデルを取り入れたり、メタ学習アルゴリズムを適用しようとするものだった。
この結果から,HuBERTとMatching Networkを組み合わせることで,最適な結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-04-01T10:59:39Z) - Learning where to learn: Gradient sparsity in meta and continual
learning [4.845285139609619]
学習アルゴリズムがどの重みを変えるかを決定することによって、メタ学習を改善することができることを示す。
このプロセスからパターン化されたスパーシリティが出現し、そのパターンは問題ごとの確率に基づいて変化する。
その結果、メタ学習が適応可能な特徴を発見できるかどうかの議論が進行中であり、疎勾配降下による学習がメタ学習システムにとって強力な帰納的バイアスであることを示唆している。
論文 参考訳(メタデータ) (2021-10-27T12:54:36Z) - Learning an Explicit Hyperparameter Prediction Function Conditioned on
Tasks [62.63852372239708]
メタ学習は、観察されたタスクから機械学習の学習方法論を学び、新しいクエリタスクに一般化することを目的としている。
我々は、これらの学習手法を、全てのトレーニングタスクで共有される明示的なハイパーパラメータ予測関数の学習として解釈する。
このような設定は、メタ学習方法論が多様なクエリタスクに柔軟に適合できることを保証する。
論文 参考訳(メタデータ) (2021-07-06T04:05:08Z) - Variable-Shot Adaptation for Online Meta-Learning [123.47725004094472]
従来のタスクから静的データにまたがるメタラーニングによって,少数の固定された例から新しいタスクを学習する問題について検討する。
メタラーニングは,従来の教師付き手法に比べて,ラベルの総数が少なく,累積性能も高いタスクセットを解く。
これらの結果から,メタラーニングは,一連の問題を継続的に学習し,改善する学習システムを構築する上で重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2020-12-14T18:05:24Z) - Is Support Set Diversity Necessary for Meta-Learning? [14.231486872262531]
本稿では,タスク間のサポートセットを固定し,タスクの多様性を低減させる,従来のメタ学習手法の修正を提案する。
驚いたことに、この修正は悪影響をもたらすだけでなく、さまざまなデータセットやメタ学習手法のパフォーマンスをほぼ常に向上させる。
論文 参考訳(メタデータ) (2020-11-28T02:28:42Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Meta-Baseline: Exploring Simple Meta-Learning for Few-Shot Learning [79.25478727351604]
評価基準に基づいて,分類済みモデル全体に対するメタラーニング(メタラーニング)を提案する。
我々は,この単純な手法が標準ベンチマークにおける最先端手法との競合性能を達成するのを観察する。
論文 参考訳(メタデータ) (2020-03-09T20:06:36Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。