論文の概要: Few-Shot Learning with Intra-Class Knowledge Transfer
- arxiv url: http://arxiv.org/abs/2008.09892v1
- Date: Sat, 22 Aug 2020 18:15:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 08:12:58.142424
- Title: Few-Shot Learning with Intra-Class Knowledge Transfer
- Title(参考訳): クラス内知識伝達を用いたFew-Shot Learning
- Authors: Vivek Roy, Yan Xu, Yu-Xiong Wang, Kris Kitani, Ruslan Salakhutdinov,
and Martial Hebert
- Abstract要約: アンバランスなデータセットを用いた数発の分類タスクについて検討する。
近年の研究では、生成モデルを用いて数発の授業のトレーニングデータを増やすことで、この課題を解決することが提案されている。
本稿では,近隣クラスが類似した統計情報を共有するという直感で,近隣クラスからのクラス内知識を活用することを提案する。
- 参考スコア(独自算出の注目度): 100.87659529592223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the few-shot classification task with an unbalanced dataset, in
which some classes have sufficient training samples while other classes only
have limited training samples. Recent works have proposed to solve this task by
augmenting the training data of the few-shot classes using generative models
with the few-shot training samples as the seeds. However, due to the limited
number of the few-shot seeds, the generated samples usually have small
diversity, making it difficult to train a discriminative classifier for the
few-shot classes. To enrich the diversity of the generated samples, we propose
to leverage the intra-class knowledge from the neighbor many-shot classes with
the intuition that neighbor classes share similar statistical information. Such
intra-class information is obtained with a two-step mechanism. First, a
regressor trained only on the many-shot classes is used to evaluate the
few-shot class means from only a few samples. Second, superclasses are
clustered, and the statistical mean and feature variance of each superclass are
used as transferable knowledge inherited by the children few-shot classes. Such
knowledge is then used by a generator to augment the sparse training data to
help the downstream classification tasks. Extensive experiments show that our
method achieves state-of-the-art across different datasets and $n$-shot
settings.
- Abstract(参考訳): いくつかのクラスは十分なトレーニングサンプルを持ち、他のクラスは限られたトレーニングサンプルしか持たない。
近年の研究では, 種子を種子とする生成モデルを用いて, 少数ショットクラスのトレーニングデータを強化し, 課題を解決するための提案を行っている。
しかしながら、少数芽の種子の数が限られているため、生成したサンプルは通常、多様性が小さく、少数芽クラスの識別分類器の訓練が困難である。
生成したサンプルの多様性を高めるために,近隣クラスが類似した統計情報を共有するという直感をもって,近隣クラスからのクラス内知識を活用することを提案する。
このようなクラス内情報は2段階のメカニズムで得られる。
まず、複数ショットクラスでのみトレーニングされたレグレッシャを使用して、少数のサンプルから少数ショットクラス平均を評価する。
第二に、スーパークラスはクラスタ化され、各スーパークラスの統計平均と特徴分散は、子供の数ショットクラスによって継承される伝達可能な知識として使用される。
このような知識は、下流の分類タスクを支援するためにスパーストレーニングデータを増強するためにジェネレータによって使用される。
広範な実験により、異なるデータセットと$n$-shot設定にまたがる最先端の手法が得られた。
関連論文リスト
- Liberating Seen Classes: Boosting Few-Shot and Zero-Shot Text Classification via Anchor Generation and Classification Reframing [38.84431954053434]
短いショットとゼロショットのテキスト分類は、ラベル付きサンプルやラベル付きサンプルが全くない新しいクラスからのサンプルを認識することを目的としている。
少数ショットとゼロショットのテキスト分類のためのシンプルで効果的な戦略を提案する。
論文 参考訳(メタデータ) (2024-05-06T15:38:32Z) - Calibrating Higher-Order Statistics for Few-Shot Class-Incremental Learning with Pre-trained Vision Transformers [12.590571371294729]
FSCIL(Few-shot class-incremental Learning)は、学習済みのクラスを忘れずに、非常に少ないデータ(5つのサンプル)から新しいクラスにモデルを適応することを目的としている。
マルチショットCIL(MSCIL)の最近の研究は、事前訓練されたモデルを利用して、忘れを減らし、より優れた可塑性を実現する。
私たちは、大規模なデータセットで事前トレーニングされたViTモデルを数ショット設定で使用しています。
論文 参考訳(メタデータ) (2024-04-09T21:12:31Z) - Less is More: On the Feature Redundancy of Pretrained Models When
Transferring to Few-shot Tasks [120.23328563831704]
事前訓練されたモデルを下流タスクに転送することは、ターゲットデータと線形探索を行うのと同じくらい簡単である。
線形探索では, 下流データが少ない場合に, 事前学習した特徴が極めて冗長であることを示す。
論文 参考訳(メタデータ) (2023-10-05T19:00:49Z) - Generalization Bounds for Few-Shot Transfer Learning with Pretrained
Classifiers [26.844410679685424]
本研究では,新しいクラスに移動可能な分類の表現を基礎モデルで学習する能力について検討する。
クラス-機能-変数の崩壊の場合,新しいクラスで学習した特徴マップのわずかな誤差が小さいことを示す。
論文 参考訳(メタデータ) (2022-12-23T18:46:05Z) - GDC- Generalized Distribution Calibration for Few-Shot Learning [5.076419064097734]
大規模なラベル付きデータセットを組み立てるのにかなりの時間と労力を要するため、機械学習において重要な問題となるショットラーニングはほとんどない。
ほとんどの少数ショット学習アルゴリズムは、2つの制限の1つに悩まされている。
そこで本研究では,全大クラスの重み付きランダム変数として分類する際,少数ショット分布を推定する一般サンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-04-11T16:22:53Z) - Multi-Class Classification from Single-Class Data with Confidences [90.48669386745361]
本稿では,損失/モデル/最適化非依存のリスク最小化フレームワークを提案する。
提案手法は, 与えられた信頼度が高ノイズであっても, 簡易な修正でベイズ整合性を示す。
論文 参考訳(メタデータ) (2021-06-16T15:38:13Z) - Are Fewer Labels Possible for Few-shot Learning? [81.89996465197392]
ごく限られたデータとラベルのため、わずかなショット学習は難しい。
近年のBiT (Big Transfer) 研究は、異なる領域における大規模ラベル付きデータセットの事前トレーニングによって、少数ショット学習が大きな恩恵を受けることを示した。
本稿では,ファインチューニングにおけるクラスタリングと固有サンプルの共進化を活かし,ショット学習の削減を図る。
論文 参考訳(メタデータ) (2020-12-10T18:59:29Z) - Few-Shot Image Classification via Contrastive Self-Supervised Learning [5.878021051195956]
本稿では,欠陥を修復するための教師なし数発学習の新たなパラダイムを提案する。
我々は2つのフェーズでいくつかの課題を解決した: 対照的な自己教師付き学習を通して、伝達可能な特徴抽出器をメタトレーニングする。
本手法は,標準的な数ショットの視覚的分類データセット上で,多数の確立された数ショットタスクにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-08-23T02:24:31Z) - Cooperative Bi-path Metric for Few-shot Learning [50.98891758059389]
数発の分類問題の調査に2つの貢献をしている。
本稿では,従来の教師あり学習法において,ベースクラスで訓練されたシンプルで効果的なベースラインについて報告する。
本稿では, 基礎クラスと新しいクラス間の相関を利用して, 精度の向上を図る, 分類のための協調的二経路計量を提案する。
論文 参考訳(メタデータ) (2020-08-10T11:28:52Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。