論文の概要: Learning Prototype Classifiers for Long-Tailed Recognition
- arxiv url: http://arxiv.org/abs/2302.00491v3
- Date: Mon, 26 Jun 2023 05:42:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-06-27 23:49:49.449344
- Title: Learning Prototype Classifiers for Long-Tailed Recognition
- Title(参考訳): 長期音声認識のための学習プロトタイプ分類器
- Authors: Saurabh Sharma, Yongqin Xian, Ning Yu, Ambuj Singh
- Abstract要約: 学習プロトタイプの分類器は,長鎖認識におけるバイアス付きソフトマックス問題に対処することを示した。
本稿では,表現空間におけるプロトタイプからの距離を分類のためのロジットスコアとして利用して,プロトタイプを共同で学習することを提案する。
本分析は,プロトタイプ分類器で学習したプロトタイプが経験的セントロイドよりも分離されていることを示す。
- 参考スコア(独自算出の注目度): 18.36167187657728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of long-tailed recognition (LTR) has received attention in recent
years due to the fundamental power-law distribution of objects in the
real-world. Most recent works in LTR use softmax classifiers that are biased in
that they correlate classifier norm with the amount of training data for a
given class. In this work, we show that learning prototype classifiers
addresses the biased softmax problem in LTR. Prototype classifiers can deliver
promising results simply using Nearest-Class- Mean (NCM), a special case where
prototypes are empirical centroids. We go one step further and propose to
jointly learn prototypes by using distances to prototypes in representation
space as the logit scores for classification. Further, we theoretically analyze
the properties of Euclidean distance based prototype classifiers that lead to
stable gradient-based optimization which is robust to outliers. To enable
independent distance scales along each channel, we enhance Prototype
classifiers by learning channel-dependent temperature parameters. Our analysis
shows that prototypes learned by Prototype classifiers are better separated
than empirical centroids. Results on four LTR benchmarks show that Prototype
classifier outperforms or is comparable to state-of-the-art methods. Our code
is made available at
https://github.com/saurabhsharma1993/prototype-classifier-ltr.
- Abstract(参考訳): ロングテール認識(ltr、long-tailed recognition)の問題は、現実の世界における物体の基本的なパワーロー分布のために近年注目を集めている。
LTRの最近の研究は、あるクラスに対するトレーニングデータの量と分類器ノルムを関連付けることに偏ったソフトマックス分類器を使用している。
本研究では,学習プロトタイプの分類器がltrのバイアスドソフトマックス問題に対処していることを示す。
プロトタイプ分類器は、プロトタイプが経験的なセントロイドである特別なケースであるNearest-Class-Mean (NCM)を使って、期待できる結果を提供できる。
さらに,分類のためのロジットスコアとして,表現空間におけるプロトタイプとの距離を用いてプロトタイプを共同学習することを提案する。
さらに, ユークリッド距離に基づくプロトタイプ分類器の特性を理論的に解析し, 安定な勾配に基づく最適化を実現する。
各チャネルに沿って独立した距離スケールを実現するために,チャネル依存温度パラメータを学習することで,プロトタイプ分類器を強化する。
本分析は,プロトタイプ分類器で学習したプロトタイプが経験的セントロイドよりも分離されていることを示す。
4つのLTRベンチマークの結果、プロトタイプ分類器は最先端の手法に匹敵する性能を示した。
私たちのコードはhttps://github.com/saurabhsharma1993/prototype-classifier-ltrで利用可能です。
関連論文リスト
- Rethinking Few-shot 3D Point Cloud Semantic Segmentation [62.80639841429669]
本稿では,FS-PCSによる3Dポイント・クラウドセマンティックセマンティックセグメンテーションについて再検討する。
我々は、最先端の2つの重要な問題、前景の漏洩とスパースポイントの分布に焦点をあてる。
これらの問題に対処するために、新しいベンチマークを構築するための標準化されたFS-PCS設定を導入する。
論文 参考訳(メタデータ) (2024-03-01T15:14:47Z) - Beyond Prototypes: Semantic Anchor Regularization for Better
Representation Learning [82.29761875805369]
表現学習の最終的な目標の1つは、クラス内のコンパクトさとクラス間の十分な分離性を達成することである。
本稿では,機能セントロイドとして機能する事前定義されたクラスアンカーを用いて,特徴学習を一方向ガイドする新しい視点を提案する。
提案したSemantic Anchor Regularization (SAR) は,既存モデルのプラグアンドプレイ方式で使用することができる。
論文 参考訳(メタデータ) (2023-12-19T05:52:38Z) - FeCAM: Exploiting the Heterogeneity of Class Distributions in
Exemplar-Free Continual Learning [21.088762527081883]
Exemplar-free class-incremental learning (CIL)は、以前のタスクからのデータのリハーサルを禁止しているため、いくつかの課題がある。
第1タスクの後に特徴抽出器を凍結して分類器を漸進的に学習する手法が注目されている。
凍結した特徴抽出器を用いて新しいクラスプロトタイプを生成するCILのプロトタイプネットワークを探索し,プロトタイプとのユークリッド距離に基づいて特徴を分類する。
論文 参考訳(メタデータ) (2023-09-25T11:54:33Z) - Rethinking Person Re-identification from a Projection-on-Prototypes
Perspective [84.24742313520811]
検索タスクとしてのPerson Re-IDentification(Re-ID)は,過去10年間で大きな発展を遂げてきた。
本稿では,新しいベースライン ProNet を提案する。
4つのベンチマークの実験では、提案したProNetは単純だが有効であり、以前のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2023-08-21T13:38:10Z) - Fantastic DNN Classifiers and How to Identify them without Data [0.685316573653194]
トレーニング済みのDNN分類器の品質をサンプルデータなしで評価できることを示す。
1つはプロトタイプの特徴を用いており、もう1つはプロトタイプに対応する逆例を用いている。
実験により, 試験例から得られた精度は, 提案した指標から得られた品質指標と直接的に比例することを示した。
論文 参考訳(メタデータ) (2023-05-24T20:54:48Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - A Closer Look at Prototype Classifier for Few-shot Image Classification [28.821731837776593]
プロトタイプの分類器は微調整やメタラーニングを伴わずに等しく機能することを示す。
本稿では, 特徴ベクトルのノルムの分散に着目し, 性能を向上できることを示す。
論文 参考訳(メタデータ) (2021-10-11T08:28:43Z) - Minimum Variance Embedded Auto-associative Kernel Extreme Learning
Machine for One-class Classification [1.4146420810689422]
VAAKELMは、自己連想型カーネル極端学習マシンの拡張である。
アーキテクチャ内に最小分散情報を埋め込んで、クラス内の分散を減らす。
これは、一級分類に対する再構成に基づくアプローチに従い、再構成エラーを最小限にする。
論文 参考訳(メタデータ) (2020-11-24T17:00:30Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Predicting Classification Accuracy When Adding New Unobserved Classes [8.325327265120283]
そこで本研究では,より大規模で未観測のクラスに対して,期待する精度を推定するために,分類器の性能をどのように利用することができるかを検討する。
ニューラルネットワークに基づく頑健なアルゴリズム "CleaneX" を定式化し,任意のサイズのクラスに対して,そのような分類器の精度を推定する。
論文 参考訳(メタデータ) (2020-10-28T14:37:25Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。