論文の概要: Meta-learning Amidst Heterogeneity and Ambiguity
- arxiv url: http://arxiv.org/abs/2107.02228v1
- Date: Mon, 5 Jul 2021 18:54:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 14:00:50.161827
- Title: Meta-learning Amidst Heterogeneity and Ambiguity
- Title(参考訳): 不均一性とあいまいさにおけるメタラーニング
- Authors: Kyeongryeol Go, Seyoung Yun
- Abstract要約: 我々は異質性・曖昧性(MAHA)の中でメタラーニングと呼ばれる新しいメタラーニングフレームワークを考案する。
回帰と分類のいくつかの実験を広範囲に実施することにより、モデルの有効性を実証する。
- 参考スコア(独自算出の注目度): 11.061517140668961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-learning aims to learn a model that can handle multiple tasks generated
from an unknown but shared distribution. However, typical meta-learning
algorithms have assumed the tasks to be similar such that a single meta-learner
is sufficient to aggregate the variations in all aspects. In addition, there
has been less consideration on uncertainty when limited information is given as
context. In this paper, we devise a novel meta-learning framework, called
Meta-learning Amidst Heterogeneity and Ambiguity (MAHA), that outperforms
previous works in terms of prediction based on its ability on task
identification. By extensively conducting several experiments in regression and
classification, we demonstrate the validity of our model, which turns out to be
robust to both task heterogeneity and ambiguity.
- Abstract(参考訳): メタラーニングは、未知だが共有分布から生成される複数のタスクを扱えるモデルを学ぶことを目的としている。
しかし、典型的なメタ学習アルゴリズムは、一つのメタラーナーが全ての側面のバリエーションを集約するのに十分なタスクを仮定している。
さらに、限られた情報がコンテキストとして与えられる場合の不確実性については考慮されていない。
本稿では, タスク識別能力に基づく予測の面で, 先行研究よりも優れるメタラーニングフレームワークであるmaha(meta-learning amidst heterogeneity and ambiguity)を考案する。
回帰と分類のいくつかの実験を広範囲に実施することにより、タスクの不均一性と曖昧性の両方に頑健なモデルの有効性を実証する。
関連論文リスト
- Meta-Learning with Heterogeneous Tasks [42.695853959923625]
HeTRoM(Heterogeneous Tasks Robust Meta-learning)
双方向最適化に基づく効率的な反復最適化アルゴリズム
その結果,提案手法の柔軟性が示され,多様なタスク設定に適応できることがわかった。
論文 参考訳(メタデータ) (2024-10-24T16:32:23Z) - MetaModulation: Learning Variational Feature Hierarchies for Few-Shot
Learning with Fewer Tasks [63.016244188951696]
本稿では,タスクを減らした少数ショット学習手法を提案する。
メタトレーニングタスクを増やすために、さまざまなバッチレベルでパラメータを変更します。
また,変分法を取り入れた学習的変分特徴階層も導入する。
論文 参考訳(メタデータ) (2023-05-17T15:47:47Z) - Contrastive Knowledge-Augmented Meta-Learning for Few-Shot
Classification [28.38744876121834]
本稿では,知識向上のための新しいアプローチであるCAML(Contrastive Knowledge-Augmented Meta Learning)を紹介する。
そこで我々は,CAMLの性能を,様々な場面で評価した。
論文 参考訳(メタデータ) (2022-07-25T17:01:29Z) - Multidimensional Belief Quantification for Label-Efficient Meta-Learning [7.257751371276488]
ラベル付きメタ学習のための新しい不確実性を考慮したタスク選択モデルを提案する。
提案したモデルは、既知の不確実性を定量化し、与えられたタスクの未知の不確実性を低くする多次元的信念尺度を定式化する。
複数の実世界の複数ショット画像分類タスクに対して行われた実験は、提案モデルの有効性を実証する。
論文 参考訳(メタデータ) (2022-03-23T23:37:16Z) - The Effect of Diversity in Meta-Learning [79.56118674435844]
少ないショット学習は、少数の例から見れば、新しいタスクに対処できる表現を学習することを目的としている。
近年の研究では,タスク分布がモデルの性能に重要な役割を担っていることが示されている。
タスクの多様性がメタ学習アルゴリズムに与える影響を評価するために,多種多様なモデルとデータセットのタスク分布について検討する。
論文 参考訳(メタデータ) (2022-01-27T19:39:07Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - Is Support Set Diversity Necessary for Meta-Learning? [14.231486872262531]
本稿では,タスク間のサポートセットを固定し,タスクの多様性を低減させる,従来のメタ学習手法の修正を提案する。
驚いたことに、この修正は悪影響をもたらすだけでなく、さまざまなデータセットやメタ学習手法のパフォーマンスをほぼ常に向上させる。
論文 参考訳(メタデータ) (2020-11-28T02:28:42Z) - Adaptive Task Sampling for Meta-Learning [79.61146834134459]
数ショットの分類のためのメタラーニングの鍵となるアイデアは、テスト時に直面した数ショットの状況を模倣することである。
一般化性能を向上させるための適応型タスクサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T03:15:53Z) - Meta-Baseline: Exploring Simple Meta-Learning for Few-Shot Learning [79.25478727351604]
評価基準に基づいて,分類済みモデル全体に対するメタラーニング(メタラーニング)を提案する。
我々は,この単純な手法が標準ベンチマークにおける最先端手法との競合性能を達成するのを観察する。
論文 参考訳(メタデータ) (2020-03-09T20:06:36Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。