論文の概要: Confusable Learning for Large-class Few-Shot Classification
- arxiv url: http://arxiv.org/abs/2011.03154v1
- Date: Fri, 6 Nov 2020 01:44:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 04:58:28.323836
- Title: Confusable Learning for Large-class Few-Shot Classification
- Title(参考訳): 大規模Few-Shot分類における難易度学習
- Authors: Bingcong Li, Bo Han, Zhuowei Wang, Jing Jiang, Guodong Long
- Abstract要約: 本稿では、より難解なクラスに焦点を当てた「難解学習」というバイアス学習パラダイムを提案する。
我々の手法は主流のメタ学習アルゴリズムに適用できる。
- 参考スコア(独自算出の注目度): 40.92885536190169
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot image classification is challenging due to the lack of ample samples
in each class. Such a challenge becomes even tougher when the number of classes
is very large, i.e., the large-class few-shot scenario. In this novel scenario,
existing approaches do not perform well because they ignore confusable classes,
namely similar classes that are difficult to distinguish from each other. These
classes carry more information. In this paper, we propose a biased learning
paradigm called Confusable Learning, which focuses more on confusable classes.
Our method can be applied to mainstream meta-learning algorithms. Specifically,
our method maintains a dynamically updating confusion matrix, which analyzes
confusable classes in the dataset. Such a confusion matrix helps meta learners
to emphasize on confusable classes. Comprehensive experiments on Omniglot,
Fungi, and ImageNet demonstrate the efficacy of our method over
state-of-the-art baselines.
- Abstract(参考訳): 各クラスに十分なサンプルがないため、わずかなショット画像の分類は困難である。
このような課題は、クラス数が非常に大きい場合、すなわち、大きなクラスの少数ショットシナリオの場合、さらに難しくなります。
この斬新なシナリオでは、既存のアプローチは、相互に区別が難しい類似クラスである共用クラスを無視しているため、うまく機能しない。
これらのクラスにはより多くの情報がある。
本稿では,より難解なクラスに焦点を当てた「難解学習」というバイアス学習パラダイムを提案する。
本手法は主流のメタ学習アルゴリズムに適用できる。
具体的には,データセット内の不整合クラスを動的に解析する混乱行列を動的に更新する。
このような混乱行列はメタ学習者が難解なクラスを強調するのに役立つ。
Omniglot, Fungi, ImageNetの総合実験により, 最先端のベースラインに対する本手法の有効性が示された。
関連論文リスト
- Multi-Label Knowledge Distillation [86.03990467785312]
本稿では,新しい多ラベル知識蒸留法を提案する。
一方、マルチラベル学習問題をバイナリ分類問題に分割することにより、ロジットからの情報的意味知識を利用する。
一方,ラベルワイド埋め込みの構造情報を活用することにより,学習した特徴表現の識別性を向上する。
論文 参考訳(メタデータ) (2023-08-12T03:19:08Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - Review of Methods for Handling Class-Imbalanced in Classification
Problems [0.0]
場合によっては、あるクラスはほとんどの例を含むが、他方はより重要なクラスであり、しかしながら、少数の例で表される。
本稿では、データレベル、アルゴリズムレベル、ハイブリッド、コスト感受性学習、ディープラーニングを含む、クラス不均衡による学習の問題に対処する最も広く使われている手法について検討する。
論文 参考訳(メタデータ) (2022-11-10T10:07:10Z) - Contrastive Learning for OOD in Object detection [0.0]
コントラスト学習は、一般的に自己指導型学習に適用される。
大規模なバッチサイズとメモリバンクは、トレーニングを難しく、遅くしました。
その結果,画像分類とオブジェクト検出において,教師付きコントラスト学習に匹敵する結果が得られた。
論文 参考訳(メタデータ) (2022-08-12T01:51:50Z) - Class-Difficulty Based Methods for Long-Tailed Visual Recognition [6.875312133832079]
ロングテールデータセットは、クラスやカテゴリが他のクラスよりも多くのデータサンプルを持つ実際のユースケースで頻繁に発生する。
そこで本研究では,モデルの学習段階における各クラスの瞬時難易度を動的に測定する手法を提案する。
また,各学級の難易度尺度を用いて,学級難易度ベース重み付けと呼ばれる新しい学級難易度ベース重み付け手法と,学級難易度ベースサンプリングと呼ばれる新学級データサンプリング手法を設計する。
論文 参考訳(メタデータ) (2022-07-29T06:33:22Z) - Do Deep Networks Transfer Invariances Across Classes? [123.84237389985236]
ニュアンス変換を学習するための生成的アプローチが、クラス間での不変性の伝達にどのように役立つかを示す。
この結果から,不均衡分布や細長い分布に対して分類器が不規則に一般化する理由が示唆された。
論文 参考訳(メタデータ) (2022-03-18T04:38:18Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Many-Class Few-Shot Learning on Multi-Granularity Class Hierarchy [57.68486382473194]
我々は,教師付き学習とメタ学習の両方において,MCFS(Multi-class few-shot)問題について検討した。
本稿では,クラス階層を事前知識として活用し,粗大な分類器を訓練する。
モデル「メモリ拡張階層分類ネットワーク(MahiNet)」は、各粗いクラスが複数の細かなクラスをカバーできる粗い粒度分類を行う。
論文 参考訳(メタデータ) (2020-06-28T01:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。