論文の概要: Is Support Set Diversity Necessary for Meta-Learning?
- arxiv url: http://arxiv.org/abs/2011.14048v2
- Date: Thu, 7 Oct 2021 17:28:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 19:21:43.931982
- Title: Is Support Set Diversity Necessary for Meta-Learning?
- Title(参考訳): メタ学習には多様性が必要か?
- Authors: Amrith Setlur, Oscar Li, Virginia Smith
- Abstract要約: 本稿では,タスク間のサポートセットを固定し,タスクの多様性を低減させる,従来のメタ学習手法の修正を提案する。
驚いたことに、この修正は悪影響をもたらすだけでなく、さまざまなデータセットやメタ学習手法のパフォーマンスをほぼ常に向上させる。
- 参考スコア(独自算出の注目度): 14.231486872262531
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Meta-learning is a popular framework for learning with limited data in which
an algorithm is produced by training over multiple few-shot learning tasks. For
classification problems, these tasks are typically constructed by sampling a
small number of support and query examples from a subset of the classes. While
conventional wisdom is that task diversity should improve the performance of
meta-learning, in this work we find evidence to the contrary: we propose a
modification to traditional meta-learning approaches in which we keep the
support sets fixed across tasks, thus reducing task diversity. Surprisingly, we
find that not only does this modification not result in adverse effects, it
almost always improves the performance for a variety of datasets and
meta-learning methods. We also provide several initial analyses to understand
this phenomenon. Our work serves to: (i) more closely investigate the effect of
support set construction for the problem of meta-learning, and (ii) suggest a
simple, general, and competitive baseline for few-shot learning.
- Abstract(参考訳): メタラーニングは、数発の学習タスクをトレーニングすることでアルゴリズムが生成される限られたデータで学習するための一般的なフレームワークである。
分類問題の場合、これらのタスクは典型的には、クラスの一部から少数のサポートとクエリ例をサンプリングすることによって構築される。
従来の知恵では、タスクの多様性はメタラーニングのパフォーマンスを改善するべきであるが、この研究では、従来のメタラーニングアプローチの修正を提案し、タスク間でサポートセットを固定し、タスクの多様性を減少させる。
驚いたことに、この修正は悪影響をもたらすだけでなく、さまざまなデータセットやメタ学習手法のパフォーマンスをほぼ常に向上させる。
また、この現象を理解するためにいくつかの初期分析を行った。
私たちの仕事は
(i)メタラーニング問題に対する支援セット構築の効果をより詳しく調べ、
(ii) 単発学習のための単純で汎用的で競争力のあるベースラインを提案する。
関連論文リスト
- MetaModulation: Learning Variational Feature Hierarchies for Few-Shot
Learning with Fewer Tasks [63.016244188951696]
本稿では,タスクを減らした少数ショット学習手法を提案する。
メタトレーニングタスクを増やすために、さまざまなバッチレベルでパラメータを変更します。
また,変分法を取り入れた学習的変分特徴階層も導入する。
論文 参考訳(メタデータ) (2023-05-17T15:47:47Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.4236527774689]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - The Effect of Diversity in Meta-Learning [79.56118674435844]
少ないショット学習は、少数の例から見れば、新しいタスクに対処できる表現を学習することを目的としている。
近年の研究では,タスク分布がモデルの性能に重要な役割を担っていることが示されている。
タスクの多様性がメタ学習アルゴリズムに与える影響を評価するために,多種多様なモデルとデータセットのタスク分布について検討する。
論文 参考訳(メタデータ) (2022-01-27T19:39:07Z) - A Channel Coding Benchmark for Meta-Learning [21.2424398453955]
メタラーニングにおけるいくつかの重要な問題は、これまでのところ研究が困難であることが証明されている。
メタ学習のベンチマークとしてチャネル符号化問題を提案する。
このベンチマークは、コミュニティがメタ学習の能力と限界を研究するためのツールを提供する。
論文 参考訳(メタデータ) (2021-07-15T19:37:43Z) - Variable-Shot Adaptation for Online Meta-Learning [123.47725004094472]
従来のタスクから静的データにまたがるメタラーニングによって,少数の固定された例から新しいタスクを学習する問題について検討する。
メタラーニングは,従来の教師付き手法に比べて,ラベルの総数が少なく,累積性能も高いタスクセットを解く。
これらの結果から,メタラーニングは,一連の問題を継続的に学習し,改善する学習システムを構築する上で重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2020-12-14T18:05:24Z) - Meta-Meta Classification for One-Shot Learning [11.27833234287093]
メタメタ分類(メタメタ分類)と呼ばれる,小さなデータ設定で学習する新しい手法を提案する。
このアプローチでは、学習者の集合を設計するために大量の学習問題を使用し、各学習者は高いバイアスと低い分散を持つ。
本研究では,一対一で一対一の分類課題に対するアプローチの評価を行い,従来のメタラーニングやアンサンブルアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-17T07:05:03Z) - Meta-Baseline: Exploring Simple Meta-Learning for Few-Shot Learning [79.25478727351604]
評価基準に基づいて,分類済みモデル全体に対するメタラーニング(メタラーニング)を提案する。
我々は,この単純な手法が標準ベンチマークにおける最先端手法との競合性能を達成するのを観察する。
論文 参考訳(メタデータ) (2020-03-09T20:06:36Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。