論文の概要: Hybrid Consistency Training with Prototype Adaptation for Few-Shot
Learning
- arxiv url: http://arxiv.org/abs/2011.10082v1
- Date: Thu, 19 Nov 2020 19:51:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 21:16:18.119844
- Title: Hybrid Consistency Training with Prototype Adaptation for Few-Shot
Learning
- Title(参考訳): 少数ショット学習のためのプロトタイプ適応型ハイブリッド一貫性トレーニング
- Authors: Meng Ye, Xiao Lin, Giedrius Burachas, Ajay Divakaran, Yi Yao
- Abstract要約: Few-Shot Learningは、低データ構造におけるモデルの一般化能力を改善することを目的としている。
近年のFSL研究は,メートル法学習,メタラーニング,表現学習などを通じて着実に進展している。
- 参考スコア(独自算出の注目度): 11.873143649261362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-Shot Learning (FSL) aims to improve a model's generalization capability
in low data regimes. Recent FSL works have made steady progress via metric
learning, meta learning, representation learning, etc. However, FSL remains
challenging due to the following longstanding difficulties. 1) The seen and
unseen classes are disjoint, resulting in a distribution shift between training
and testing. 2) During testing, labeled data of previously unseen classes is
sparse, making it difficult to reliably extrapolate from labeled support
examples to unlabeled query examples. To tackle the first challenge, we
introduce Hybrid Consistency Training to jointly leverage interpolation
consistency, including interpolating hidden features, that imposes linear
behavior locally and data augmentation consistency that learns robust
embeddings against sample variations. As for the second challenge, we use
unlabeled examples to iteratively normalize features and adapt prototypes, as
opposed to commonly used one-time update, for more reliable prototype-based
transductive inference. We show that our method generates a 2% to 5%
improvement over the state-of-the-art methods with similar backbones on five
FSL datasets and, more notably, a 7% to 8% improvement for more challenging
cross-domain FSL.
- Abstract(参考訳): FSL(Few-Shot Learning)は、低データ状態におけるモデルの一般化能力を改善することを目的としている。
近年のFSL研究は,メートル法学習,メタラーニング,表現学習などを通じて着実に進展している。
しかし、FSLは以下の長期にわたる困難のため、依然として挑戦的である。
1)見学クラスと見学クラスは相容れないため、トレーニングとテストの間に分散シフトが生じます。
2) テスト中は,ラベル付きサポート例からラベル付きクエリ例まで,ラベル付きサポート例を確実に外挿することが困難になる。
最初の課題に取り組むために、リニアな振る舞いを局所的に課する補間機能や、サンプルのバリエーションに対する堅牢な埋め込みを学習するデータ拡張一貫性など、補間一貫性を併用するハイブリッド一貫性トレーニングを導入する。
第2の課題は、プロトタイプベースのトランスダクティブ推論をより信頼性の高いものにするため、未ラベルの例を使用して機能を反復的に正規化し、プロトタイプに適応することです。
提案手法は,5つのFSLデータセットに類似したバックボーンを持つ最先端の手法よりも2%から5%改善し,さらに,より難易度の高いドメイン間FSLでは7%から8%改善した。
関連論文リスト
- Decoupled Federated Learning on Long-Tailed and Non-IID data with
Feature Statistics [20.781607752797445]
特徴統計量(DFL-FS)を用いた2段階分離型フェデレーション学習フレームワークを提案する。
最初の段階では、サーバは、マスキングされたローカル特徴統計クラスタリングによってクライアントのクラスカバレッジ分布を推定する。
第2段階では、DFL-FSは、グローバルな特徴統計に基づくフェデレーションされた特徴再生を使用して、長い尾を持つデータ分布へのモデルの適応性を高める。
論文 参考訳(メタデータ) (2024-03-13T09:24:59Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - FSL-Rectifier: Rectify Outliers in Few-Shot Learning via Test-Time Augmentation [7.477118370563593]
FSL(Few-shot-learning)は通常、トレーニング中に目に見えないクラスに属する画像(クエリ)を識別するモデルを必要とする。
生成画像コンバインダを用いて、原サンプルと適切な列車クラスサンプルを組み合わせることで、追加のテストクラスサンプルを生成する。
我々は、平均化によってより典型的な表現をもたらす拡張子を介して平均化された特徴を得る。
論文 参考訳(メタデータ) (2024-02-28T12:37:30Z) - An Adaptive Plug-and-Play Network for Few-Shot Learning [12.023266104119289]
少数のサンプルから学んだ後、新しいサンプルを分類するモデルが必要である。
ディープネットワークと複雑なメトリクスはオーバーフィッティングを引き起こす傾向があり、パフォーマンスをさらに改善することは困難である。
プラグアンドプレイ型モデル適応型リサイザ (MAR) とアダプティブ類似度測定器 (ASM) をその他の損失なく提案する。
論文 参考訳(メタデータ) (2023-02-18T13:25:04Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Adaptive Memory Networks with Self-supervised Learning for Unsupervised
Anomaly Detection [54.76993389109327]
教師なし異常検出は、通常のデータのみをトレーニングすることで、目に見えない異常を検出するモデルを構築することを目的としている。
本稿では,これらの課題に対処するために,自己教師付き学習(AMSL)を用いた適応記憶ネットワーク(Adaptive Memory Network)を提案する。
AMSLには、一般的な正規パターンを学ぶための自己教師付き学習モジュールと、リッチな特徴表現を学ぶための適応型メモリ融合モジュールが組み込まれている。
論文 参考訳(メタデータ) (2022-01-03T03:40:21Z) - A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning [54.617688468341704]
少ないショット学習は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新クラスのあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとラベルなしデータを用いて基礎知識を保ちながら,新クラスの識別的特徴を学習するモデル適応機構を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:25:52Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Boosting Few-Shot Learning With Adaptive Margin Loss [109.03665126222619]
本稿では,数ショット学習問題に対するメートル法に基づくメタラーニング手法の一般化能力を改善するための適応的マージン原理を提案する。
大規模な実験により,提案手法は,現在のメートル法に基づくメタラーニング手法の性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2020-05-28T07:58:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。