論文の概要: Many-Class Few-Shot Learning on Multi-Granularity Class Hierarchy
- arxiv url: http://arxiv.org/abs/2006.15479v1
- Date: Sun, 28 Jun 2020 01:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 02:06:39.313284
- Title: Many-Class Few-Shot Learning on Multi-Granularity Class Hierarchy
- Title(参考訳): 多次元クラス階層による多クラス少数ショット学習
- Authors: Lu Liu, Tianyi Zhou, Guodong Long, Jing Jiang and Chengqi Zhang
- Abstract要約: 我々は,教師付き学習とメタ学習の両方において,MCFS(Multi-class few-shot)問題について検討した。
本稿では,クラス階層を事前知識として活用し,粗大な分類器を訓練する。
モデル「メモリ拡張階層分類ネットワーク(MahiNet)」は、各粗いクラスが複数の細かなクラスをカバーできる粗い粒度分類を行う。
- 参考スコア(独自算出の注目度): 57.68486382473194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study many-class few-shot (MCFS) problem in both supervised learning and
meta-learning settings. Compared to the well-studied many-class many-shot and
few-class few-shot problems, the MCFS problem commonly occurs in practical
applications but has been rarely studied in previous literature. It brings new
challenges of distinguishing between many classes given only a few training
samples per class. In this paper, we leverage the class hierarchy as a prior
knowledge to train a coarse-to-fine classifier that can produce accurate
predictions for MCFS problem in both settings. The propose model,
"memory-augmented hierarchical-classification network (MahiNet)", performs
coarse-to-fine classification where each coarse class can cover multiple fine
classes. Since it is challenging to directly distinguish a variety of fine
classes given few-shot data per class, MahiNet starts from learning a
classifier over coarse-classes with more training data whose labels are much
cheaper to obtain. The coarse classifier reduces the searching range over the
fine classes and thus alleviates the challenges from "many classes". On
architecture, MahiNet firstly deploys a convolutional neural network (CNN) to
extract features. It then integrates a memory-augmented attention module and a
multi-layer perceptron (MLP) together to produce the probabilities over coarse
and fine classes. While the MLP extends the linear classifier, the attention
module extends the KNN classifier, both together targeting the "few-shot"
problem. We design several training strategies of MahiNet for supervised
learning and meta-learning. In addition, we propose two novel benchmark
datasets "mcfsImageNet" and "mcfsOmniglot" specially designed for MCFS problem.
In experiments, we show that MahiNet outperforms several state-of-the-art
models on MCFS problems in both supervised learning and meta-learning.
- Abstract(参考訳): 教師付き学習とメタ学習の両方において,MCFS問題について検討した。
良く研究された多段階多発問題や少数級小発問題と比較すると、mcfs問題は一般的に実用的応用において発生するが、以前の文献で研究されることは稀である。
クラス毎に少数のトレーニングサンプルしか与えられていない多くのクラスを区別する、新たな課題がもたらされる。
本稿では,クラス階層を事前知識として活用して,MCFS問題の正確な予測を両設定で生成できる粗大な分類器を訓練する。
提案モデルである"メモリ拡張階層分類ネットワーク(MahiNet)"は、各粗いクラスが複数の細かなクラスをカバーできる粗粒度分類を行う。
MahiNetは、クラスごとに数ショットのデータが与えられた様々なファインクラスを直接区別することは難しいため、ラベルがより安価に取得できるトレーニングデータを持つ粗いクラスよりも、分類器を学習することから始める。
粗い分類器は、細かなクラスに対する探索範囲を減らし、「多くのクラス」から課題を緩和する。
アーキテクチャに関して、MahiNetはまず、機能抽出のために畳み込みニューラルネットワーク(CNN)をデプロイする。
その後、メモリ拡張されたアテンションモジュールと多層パーセプトロン(MLP)を統合し、粗いクラスや細かいクラスに対する確率を生成する。
mlp は線形分類器を拡張するが、アテンションモジュールは knn 分類器を拡張し、どちらも "few-shot" 問題をターゲットにしている。
教師付き学習とメタ学習のためのMahiNetのトレーニング戦略を設計する。
さらに,MCFS問題に特化して設計された2つの新しいベンチマークデータセット"mcfsImageNet"と"mcfsOmniglot"を提案する。
実験の結果,MahiNetは教師付き学習とメタ学習の両方において,MCFS問題における最先端モデルよりも優れていることがわかった。
関連論文リスト
- Knowledge Adaptation Network for Few-Shot Class-Incremental Learning [23.90555521006653]
クラス増分学習(class-incremental learning)は、いくつかのサンプルを使用して、新しいクラスを段階的に認識することを目的としている。
この問題を解決する効果的な方法の1つは、原型進化分類器を構築することである。
新しいクラスの表現は弱で偏りがあるので、そのような戦略は準最適であると主張する。
論文 参考訳(メタデータ) (2024-09-18T07:51:38Z) - How to Train Your MAML to Excel in Few-Shot Classification [26.51244463209443]
そこで本研究では,MAMLの訓練方法について紹介する。
我々のアプローチはUNICORN-MAMLと呼ばれ、最先端のアルゴリズムに匹敵する、あるいは性能に優れる。
論文 参考訳(メタデータ) (2021-06-30T17:56:15Z) - Multi-Class Classification from Single-Class Data with Confidences [90.48669386745361]
本稿では,損失/モデル/最適化非依存のリスク最小化フレームワークを提案する。
提案手法は, 与えられた信頼度が高ノイズであっても, 簡易な修正でベイズ整合性を示す。
論文 参考訳(メタデータ) (2021-06-16T15:38:13Z) - Dynamic Class Queue for Large Scale Face Recognition In the Wild [45.3063075576461]
本研究は資源制約と長期クラス分布の計算に焦点をあてる。
これら2つの問題に対処するための動的クラスキュー(DCQ)を提案する。
大規模なデータセットでは、クラスのうち10%がすべてのクラスと同様のパフォーマンスを達成するのに十分であることを実証的に検証する。
論文 参考訳(メタデータ) (2021-05-24T06:31:10Z) - GistNet: a Geometric Structure Transfer Network for Long-Tailed
Recognition [95.93760490301395]
長い尾の認識は、クラスごとのサンプル数が非常にアンバランスである問題です。
GistNetは、クラスジオメトリをエンコードするために分類パラメータのコンステレーションを使用して、この目標をサポートするように提案されている。
新しい学習アルゴリズムがGeometrIc Structure Transfer (GIST) に提案され、クラスバランスとランダムサンプリングを組み合わせた損失関数の組み合わせにより、一般的なクラスに過度に適合することは幾何パラメータに制限されるが、人気クラスから少数ショットクラスへのクラス幾何学の転送に利用される。
論文 参考訳(メタデータ) (2021-05-01T00:37:42Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Fine-grained Angular Contrastive Learning with Coarse Labels [72.80126601230447]
教師付きおよび自己監督型コントラスト前訓練を効果的に組み合わせることができる新しい「Angularの正規化」モジュールを紹介します。
この研究は、C2FS分類のこの新しい、挑戦的で、非常に実用的なトピックに関する将来の研究の道を開くのに役立ちます。
論文 参考訳(メタデータ) (2020-12-07T08:09:02Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。