論文の概要: Is Meta-Learning Out? Rethinking Unsupervised Few-Shot Classification with Limited Entropy
- arxiv url: http://arxiv.org/abs/2509.13185v1
- Date: Tue, 16 Sep 2025 15:39:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.155233
- Title: Is Meta-Learning Out? Rethinking Unsupervised Few-Shot Classification with Limited Entropy
- Title(参考訳): メタラーニングアウトは可能か? 限定エントロピーによる教師なしフットショット分類の再考
- Authors: Yunchuan Guan, Yu Liu, Ke Zhou, Zhiqi Shen, Jenq-Neng Hwang, Serge Belongie, Lei Li,
- Abstract要約: メタラーニングは限られたエントロピーでより効率的であり、ノイズや異種タスクのラベル付けがより堅牢であることを示す。
教師なし性能向上を目的としたメタラーニングフレームワークであるMINOを提案する。
- 参考スコア(独自算出の注目度): 32.59271703559131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-learning is a powerful paradigm for tackling few-shot tasks. However, recent studies indicate that models trained with the whole-class training strategy can achieve comparable performance to those trained with meta-learning in few-shot classification tasks. To demonstrate the value of meta-learning, we establish an entropy-limited supervised setting for fair comparisons. Through both theoretical analysis and experimental validation, we establish that meta-learning has a tighter generalization bound compared to whole-class training. We unravel that meta-learning is more efficient with limited entropy and is more robust to label noise and heterogeneous tasks, making it well-suited for unsupervised tasks. Based on these insights, We propose MINO, a meta-learning framework designed to enhance unsupervised performance. MINO utilizes the adaptive clustering algorithm DBSCAN with a dynamic head for unsupervised task construction and a stability-based meta-scaler for robustness against label noise. Extensive experiments confirm its effectiveness in multiple unsupervised few-shot and zero-shot tasks.
- Abstract(参考訳): メタラーニングは、数発のタスクに取り組むための強力なパラダイムです。
しかし、最近の研究では、クラス全体のトレーニング戦略で訓練されたモデルが、数ショットの分類タスクで訓練されたメタラーニングに匹敵する性能を達成できることが示されている。
メタラーニングの価値を示すために,フェアな比較のためのエントロピー制限付き教師付き設定を確立する。
理論的解析と実験的検証により、メタラーニングは、クラス全体の学習と比較してより厳密な一般化を有することが確かめられる。
メタ学習は、限られたエントロピーでより効率的で、ノイズや異種タスクのラベル付けに頑健であり、教師なしタスクに適している、ということがわかりました。
これらの知見に基づき,教師なし性能向上を目的としたメタラーニングフレームワークであるMINOを提案する。
MINOは適応クラスタリングアルゴリズムDBSCANを、教師なしタスク構築のための動的ヘッドと、ラベルノイズに対する堅牢性のための安定性ベースのメタスケーラに利用している。
広範囲な実験により、非教師なしの複数ショットとゼロショットのタスクでその効果が確認された。
関連論文リスト
- ConML: A Universal Meta-Learning Framework with Task-Level Contrastive Learning [49.447777286862994]
ConMLは、さまざまなメタ学習アルゴリズムに適用可能な、普遍的なメタ学習フレームワークである。
我々は、ConMLが最適化ベース、メートル法ベース、およびアモータイズベースメタ学習アルゴリズムとシームレスに統合できることを実証した。
論文 参考訳(メタデータ) (2024-10-08T12:22:10Z) - Unsupervised Meta-Learning via Dynamic Head and Heterogeneous Task Construction for Few-Shot Classification [8.167963214348203]
教師なし不均一なタスク構成を持つ動的ヘッドメタ学習アルゴリズムDHM-UHTを提案する。
いくつかの教師なしゼロショットと少数ショットデータセットでは、DHM-UHTは最先端のパフォーマンスを得る。
論文 参考訳(メタデータ) (2024-10-03T07:35:03Z) - Unsupervised Meta-Learning via Few-shot Pseudo-supervised Contrastive
Learning [72.3506897990639]
本稿では,Pseudo-supervised Contrast (PsCo) という,シンプルだが効果的なメタ学習フレームワークを提案する。
PsCoは、さまざまなドメイン内およびクロスドメインのいくつかのショット分類ベンチマークの下で、既存の教師なしメタラーニングメソッドより優れています。
論文 参考訳(メタデータ) (2023-03-02T06:10:13Z) - Meta-Learning with Self-Improving Momentum Target [72.98879709228981]
メタラーナーの性能を向上させるために,SiMT(Self-improving Momentum Target)を提案する。
SiMTはメタラーナーの時間アンサンブルから適応してターゲットモデルを生成する。
我々は、SiMTが幅広いメタ学習手法と組み合わせることで、大きなパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-10-11T06:45:15Z) - On the Effectiveness of Fine-tuning Versus Meta-reinforcement Learning [71.55412580325743]
本稿では,新しいタスクを微調整したマルチタスク事前学習がメタテスト時間適応によるメタ事前学習と同等かそれ以上に機能することを示す。
マルチタスク事前学習はメタRLよりもシンプルで計算的に安価である傾向があるため、これは将来の研究を奨励している。
論文 参考訳(メタデータ) (2022-06-07T13:24:00Z) - Meta-learning with an Adaptive Task Scheduler [93.63502984214918]
既存のメタ学習アルゴリズムは、一様確率でランダムにメタトレーニングタスクをサンプリングする。
タスクは、限られた数のメタトレーニングタスクを考えると、ノイズや不均衡に有害である可能性が高い。
メタトレーニングプロセスのための適応タスクスケジューラ(ATS)を提案する。
論文 参考訳(メタデータ) (2021-10-26T22:16:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。