論文の概要: Hyperspherical embedding for novel class classification
- arxiv url: http://arxiv.org/abs/2102.03243v1
- Date: Fri, 5 Feb 2021 15:42:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 21:12:18.255104
- Title: Hyperspherical embedding for novel class classification
- Title(参考訳): 新規クラス分類のための超球面埋め込み
- Authors: Rafael S. Pereira, Alexis Joly, Patrick Valduriez, Fabio Porto
- Abstract要約: 本稿では,正規化ソフトマックス損失下での潜在空間の表現に制約に基づくアプローチを提案する。
本研究では,メトリクス学習と正規化ソフトマックス損失の両方を用いて,異なるデータセット上の未知のクラスを分類するための提案手法を実験的に検証した。
この結果から,提案した戦略は,ペアワイズ学習を必要とせず,メトリック学習戦略よりも優れた分類結果を提供するため,より大規模なクラスで効率的に学習可能であることが示唆された。
- 参考スコア(独自算出の注目度): 1.5952956981784217
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models have become increasingly useful in many different
industries. On the domain of image classification, convolutional neural
networks proved the ability to learn robust features for the closed set
problem, as shown in many different datasets, such as MNIST FASHIONMNIST,
CIFAR10, CIFAR100, and IMAGENET. These approaches use deep neural networks with
dense layers with softmax activation functions in order to learn features that
can separate classes in a latent space. However, this traditional approach is
not useful for identifying classes unseen on the training set, known as the
open set problem. A similar problem occurs in scenarios involving learning on
small data. To tackle both problems, few-shot learning has been proposed. In
particular, metric learning learns features that obey constraints of a metric
distance in the latent space in order to perform classification. However, while
this approach proves to be useful for the open set problem, current
implementation requires pair-wise training, where both positive and negative
examples of similar images are presented during the training phase, which
limits the applicability of these approaches in large data or large class
scenarios given the combinatorial nature of the possible inputs.In this paper,
we present a constraint-based approach applied to the representations in the
latent space under the normalized softmax loss, proposed by[18]. We
experimentally validate the proposed approach for the classification of unseen
classes on different datasets using both metric learning and the normalized
softmax loss, on disjoint and joint scenarios. Our results show that not only
our proposed strategy can be efficiently trained on larger set of classes, as
it does not require pairwise learning, but also present better classification
results than the metric learning strategies surpassing its accuracy by a
significant margin.
- Abstract(参考訳): ディープラーニングモデルは、多くの異なる業界でますます有用になっている。
画像分類の領域では、畳み込みニューラルネットワークは、MNIST FASHIONMNIST、CIFAR10、CIFAR100、IMAGENETなどの多くの異なるデータセットで示されているように、閉集合問題のための堅牢な機能を学ぶ能力を示した。
これらのアプローチは、潜伏空間でクラスを分離できる特徴を学ぶために、ソフトマックスアクティベーション機能を持つ密集層を持つディープニューラルネットワークを使用する。
しかし、この伝統的なアプローチは、オープンセット問題として知られるトレーニングセットにないクラスを特定するのに役に立ちません。
同様の問題は、小さなデータに関する学習を含むシナリオで発生します。
両方の問題に対処するために、数発学習が提案されている。
特に、測度学習は、分類を行うために、潜在空間における測度距離の制約に従う特徴を学習する。
However, while this approach proves to be useful for the open set problem, current implementation requires pair-wise training, where both positive and negative examples of similar images are presented during the training phase, which limits the applicability of these approaches in large data or large class scenarios given the combinatorial nature of the possible inputs.In this paper, we present a constraint-based approach applied to the representations in the latent space under the normalized softmax loss, proposed by[18].
距離学習と正規化ソフトマックス損失の両方を用いて,異なるデータセット上の未知のクラスを分類するための提案手法を,解離シナリオと関節シナリオにおいて実験的に検証した。
以上の結果から,提案手法は,ペア学習を必要とせず,より大きなクラスで効率的に学習できるだけでなく,その精度をはるかに超えたメトリック学習戦略よりも優れた分類結果が得られることが示された。
関連論文リスト
- Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Maximally Compact and Separated Features with Regular Polytope Networks [22.376196701232388]
本稿では, CNN から抽出する方法として, クラス間分離性とクラス間圧縮性の特性について述べる。
我々は、よく知られた citewen2016discriminative や他の類似したアプローチで得られる特徴と類似した特徴を得る。
論文 参考訳(メタデータ) (2023-01-15T15:20:57Z) - Dominant Set-based Active Learning for Text Classification and its
Application to Online Social Media [0.0]
本稿では,最小限のアノテーションコストで大規模未ラベルコーパスのトレーニングを行うための,プールベースのアクティブラーニング手法を提案する。
提案手法には調整すべきパラメータが一切ないため,データセットに依存しない。
本手法は,最先端のアクティブラーニング戦略と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2022-01-28T19:19:03Z) - MCDAL: Maximum Classifier Discrepancy for Active Learning [74.73133545019877]
近年の最先端のアクティブラーニング手法は, 主にGAN(Generative Adversarial Networks)をサンプル取得に活用している。
本稿では,MCDAL(Maximum Discrepancy for Active Learning)と呼ぶ新しいアクティブラーニングフレームワークを提案する。
特に,両者の差分を最大化することにより,より厳密な決定境界を学習する2つの補助的分類層を利用する。
論文 参考訳(メタデータ) (2021-07-23T06:57:08Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Beyond cross-entropy: learning highly separable feature distributions
for robust and accurate classification [22.806324361016863]
本稿では, 対角的ロバスト性を提供する, ディープロバストなマルチクラス分類器を訓練するための新しい手法を提案する。
提案手法に基づく潜在空間の正則化は,優れた分類精度が得られることを示す。
論文 参考訳(メタデータ) (2020-10-29T11:15:17Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z) - Few-Shot Open-Set Recognition using Meta-Learning [72.15940446408824]
オープンセット認識の問題点を考察する。
新しいoPen sEt mEta LEaRning (PEELER)アルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-05-27T23:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。