論文の概要: The Fixed Sub-Center: A Better Way to Capture Data Complexity
- arxiv url: http://arxiv.org/abs/2203.12928v1
- Date: Thu, 24 Mar 2022 08:21:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 14:35:24.551229
- Title: The Fixed Sub-Center: A Better Way to Capture Data Complexity
- Title(参考訳): 固定サブセンター: データの複雑さを捉えるためのより良い方法
- Authors: Zhemin Zhang, Xun Gong
- Abstract要約: 我々は、F-SC(Fixed Sub-Center)を用いて、より離散的なサブセンターを構築することを提案する。
実験の結果,F-SCは画像分類と微粒化処理の精度を著しく向上させることがわかった。
- 参考スコア(独自算出の注目度): 1.583842747998493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Treating class with a single center may hardly capture data distribution
complexities. Using multiple sub-centers is an alternative way to address this
problem. However, highly correlated sub-classes, the classifier's parameters
grow linearly with the number of classes, and lack of intra-class compactness
are three typical issues that need to be addressed in existing multi-subclass
methods. To this end, we propose to use Fixed Sub-Center (F-SC), which allows
the model to create more discrepant sub-centers while saving memory and cutting
computational costs considerably. The F-SC specifically, first samples a class
center Ui for each class from a uniform distribution, and then generates a
normal distribution for each class, where the mean is equal to Ui. Finally, the
sub-centers are sampled based on the normal distribution corresponding to each
class, and the sub-centers are fixed during the training process avoiding the
overhead of gradient calculation. Moreover, F-SC penalizes the Euclidean
distance between the samples and their corresponding sub-centers, it helps
remain intra-compactness. The experimental results show that F-SC significantly
improves the accuracy of both image classification and fine-grained recognition
tasks.
- Abstract(参考訳): 単一の中心を持つクラスを扱うことは、データ分散の複雑さをほとんど捉えない。
複数のサブセンターを使用することは、この問題に対処する別の方法である。
しかし、高度に相関したサブクラスでは、分類器のパラメータはクラス数と線形に成長し、クラス内コンパクト性の欠如は、既存のマルチサブクラスメソッドで対処する必要がある3つの典型的な問題である。
そこで本研究では,メモリを節約し計算コストを大幅に削減しながら,より離散的なサブセンタを作成できる固定サブセンタ(f-sc)を提案する。
F-SCは、まず一様分布から各クラスのクラス中心 Ui をサンプリングし、平均が Ui に等しい各クラスに対して正規分布を生成する。
最後に、各クラスに対応する正規分布に基づいてサブセンタをサンプリングし、勾配計算のオーバーヘッドを回避するためにトレーニングプロセス中にサブセンタを固定する。
さらに、F-SCはサンプルとそれに対応する部分中心の間のユークリッド距離をペナル化する。
実験の結果,f-scは画像分類と細粒度認識タスクの両方の精度を大幅に向上させた。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Rethinking Few-shot 3D Point Cloud Semantic Segmentation [62.80639841429669]
本稿では,FS-PCSによる3Dポイント・クラウドセマンティックセマンティックセグメンテーションについて再検討する。
我々は、最先端の2つの重要な問題、前景の漏洩とスパースポイントの分布に焦点をあてる。
これらの問題に対処するために、新しいベンチマークを構築するための標準化されたFS-PCS設定を導入する。
論文 参考訳(メタデータ) (2024-03-01T15:14:47Z) - Generating Multi-Center Classifier via Conditional Gaussian Distribution [7.77615886942767]
実世界のデータでは、1つのクラスは複数の局所的なクラスタ(例えば異なるポーズの鳥)を含むことができる。
各クラスに対して条件付きガウス分布を作成し、次に複数のサブセンターをサンプリングする。
このアプローチにより、モデルがクラス内の局所構造をより効率的にキャプチャできる。
論文 参考訳(メタデータ) (2024-01-29T08:06:33Z) - Feature Selection using Sparse Adaptive Bottleneck Centroid-Encoder [1.2487990897680423]
2つ以上のクラスで識別される特徴を決定するために,新しい非線形モデル SABCE (Sparse Adaptive Bottleneckid-Encoder) を導入する。
このアルゴリズムは、高次元生物学的、画像、音声、加速度センサデータなど、様々な実世界のデータセットに適用される。
論文 参考訳(メタデータ) (2023-06-07T21:37:21Z) - Latent Distribution Adjusting for Face Anti-Spoofing [29.204168516602568]
フェース・アンチ・スプーフィング(FAS)モデルの堅牢性を改善するため,LDA(Latent Distribution Adjusting)と呼ばれる統一フレームワークを提案する。
クラス内コンパクト性とクラス間不一致性を高めるため,プロトタイプ学習のための分布制約を提供するためのマージンベース損失を提案する。
筆者らのフレームワークは,1)クラス内コンパクトおよびクラス間分離性の両方を最終表現空間とし,2)複数の標準FASベンチマークにおける最先端手法より優れる。
論文 参考訳(メタデータ) (2023-05-16T08:43:14Z) - Semantic Segmentation via Pixel-to-Center Similarity Calculation [40.62804702162577]
まず、ピクセルとクラスセンターの類似性の観点から、セマンティックセグメンテーションを再考する。
本稿では,上記の課題に対処するクラスセンター類似層(CCS層)を提案する。
我々のモデルは最先端のCNNベースの手法に対して好適に機能する。
論文 参考訳(メタデータ) (2023-01-12T08:36:59Z) - Overlapping oriented imbalanced ensemble learning method based on
projective clustering and stagewise hybrid sampling [22.32930261633615]
本稿では、二重クラスタリングとステージワイドハイブリッドサンプリング(DCSHS)に基づくアンサンブル学習アルゴリズムを提案する。
我々のアルゴリズムの大きな利点は、重なり合う多数サンプルのソフトな除去を実現するためにCSの交叉性を利用することができることである。
論文 参考訳(メタデータ) (2022-11-30T01:49:06Z) - Prediction Calibration for Generalized Few-shot Semantic Segmentation [101.69940565204816]
汎用Few-shot Semantic (GFSS) は、各画像ピクセルを、豊富なトレーニング例を持つベースクラスか、クラスごとにわずかに(例: 1-5)のトレーニングイメージを持つ新しいクラスのいずれかに分割することを目的としている。
我々は、融合したマルチレベル機能を用いて、分類器の最終予測をガイドするクロスアテンションモジュールを構築する。
私たちのPCNは、最先端の代替品よりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2022-10-15T13:30:12Z) - Learnable Distribution Calibration for Few-Shot Class-Incremental
Learning [122.2241120474278]
FSCIL(Few-shot class-incremental Learning)は、古いクラス分布を記憶し、少数のトレーニングサンプルから新しいクラス分布を推定するという課題に直面している。
本稿では,これら2つの課題を統一フレームワークを用いて体系的に解決することを目的とした,学習可能な分布校正手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:40:26Z) - Unbiased Subclass Regularization for Semi-Supervised Semantic
Segmentation [47.533612505477535]
半教師付きセマンティックセグメンテーションは、少量のラベル付き画像と大量の未ラベル画像から学習する。
本稿では、クラス不均衡問題を緩和する非バイアス付きサブクラス正規化ネットワーク(USRN)を提案する。
論文 参考訳(メタデータ) (2022-03-18T15:53:18Z) - Generalized Zero-Shot Learning Via Over-Complete Distribution [79.5140590952889]
そこで本稿では,CVAE (Conditional Variational Autoencoder) を用いたOCD(Over-Complete Distribution) の生成を提案する。
フレームワークの有効性は,Zero-Shot LearningプロトコルとGeneralized Zero-Shot Learningプロトコルの両方を用いて評価する。
論文 参考訳(メタデータ) (2020-04-01T19:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。