論文の概要: Deep Simplex Classifier for Maximizing the Margin in Both Euclidean and
Angular Spaces
- arxiv url: http://arxiv.org/abs/2212.11747v1
- Date: Thu, 22 Dec 2022 14:37:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 14:52:57.576438
- Title: Deep Simplex Classifier for Maximizing the Margin in Both Euclidean and
Angular Spaces
- Title(参考訳): ユークリッド空間と角空間のマージンを最大化するDeep Simplex Classifier
- Authors: Hakan Cevikalp, Hasan Saribas
- Abstract要約: 本稿では,ユークリッド空間と角空間の両辺を同時に最大化する新しい分類損失を提案する。
提案手法は,その単純さに拘わらず,オープンセット認識における最先端の精度を実現する。
- 参考スコア(独自算出の注目度): 18.309720578916146
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The classification loss functions used in deep neural network classifiers can
be grouped into two categories based on maximizing the margin in either
Euclidean or angular spaces. Euclidean distances between sample vectors are
used during classification for the methods maximizing the margin in Euclidean
spaces whereas the Cosine similarity distance is used during the testing stage
for the methods maximizing margin in the angular spaces. This paper introduces
a novel classification loss that maximizes the margin in both the Euclidean and
angular spaces at the same time. This way, the Euclidean and Cosine distances
will produce similar and consistent results and complement each other, which
will in turn improve the accuracies. The proposed loss function enforces the
samples of classes to cluster around the centers that represent them. The
centers approximating classes are chosen from the boundary of a hypersphere,
and the pairwise distances between class centers are always equivalent. This
restriction corresponds to choosing centers from the vertices of a regular
simplex. There is not any hyperparameter that must be set by the user in the
proposed loss function, therefore the use of the proposed method is extremely
easy for classical classification problems. Moreover, since the class samples
are compactly clustered around their corresponding means, the proposed
classifier is also very suitable for open set recognition problems where test
samples can come from the unknown classes that are not seen in the training
phase. Experimental studies show that the proposed method achieves the
state-of-the-art accuracies on open set recognition despite its simplicity.
- Abstract(参考訳): ディープニューラルネットワーク分類器で使用される分類損失関数は、ユークリッド空間または角空間のマージンの最大化に基づいて2つのカテゴリに分類することができる。
サンプルベクトル間のユークリッド距離はユークリッド空間のマージンを最大化する方法の分類に使われ、一方コサイン類似度距離は角空間のマージンを最大化する方法のテスト段階で用いられる。
本稿では,ユークリッド空間と角空間の両辺を同時に最大化する新しい分類損失を提案する。
このようにして、ユークリッド距離とコサイン距離は類似した一貫した結果を生み出し、互いに補完し合い、結果として精度が向上する。
提案された損失関数は、それらを表す中心を囲むクラスタにクラスのサンプルを強制する。
クラスを近似する中心は超球面の境界から選択され、クラス中心間の対距離は常に同値である。
この制限は、正則単純体の頂点から中心を選ぶことに対応する。
提案する損失関数にユーザが設定しなければならないハイパーパラメータは存在せず,古典的分類問題に対して,提案手法の使用が極めて容易である。
さらに, クラスサンプルは, 対応する手段を中心にコンパクトにクラスタリングされているため, 提案する分類器は, 学習段階にない未知のクラスからテストサンプルを抽出できる開集合認識問題にも非常に適している。
実験により,提案手法は単純さに拘わらず,オープンセット認識における最先端の精度を実現することを示す。
関連論文リスト
- A Generic Method for Fine-grained Category Discovery in Natural Language Texts [38.297873969795546]
そこで本研究では,新たな目的関数によって導かれる意味的類似テキストの微細なクラスタをうまく検出する手法を提案する。
この方法は対数空間における意味的類似性を利用してユークリッド空間のサンプル分布を導く。
また,リアルタイムアプリケーションをサポートするセントロイド推論機構を提案する。
論文 参考訳(メタデータ) (2024-06-18T23:27:46Z) - Canonical Variates in Wasserstein Metric Space [16.668946904062032]
We use the Wasserstein metric to measure distances between distributions, then used by distance-based classification algorithm。
我々の研究の中心は、分類精度を高めるために、ワッサーシュタイン計量空間内の次元の減少である。
本稿では,クラス間変動からクラス内変動への商として定義されたフィッシャー比を最大化する原理に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-24T17:59:21Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Feature Selection using Sparse Adaptive Bottleneck Centroid-Encoder [1.2487990897680423]
2つ以上のクラスで識別される特徴を決定するために,新しい非線形モデル SABCE (Sparse Adaptive Bottleneckid-Encoder) を導入する。
このアルゴリズムは、高次元生物学的、画像、音声、加速度センサデータなど、様々な実世界のデータセットに適用される。
論文 参考訳(メタデータ) (2023-06-07T21:37:21Z) - Gradient Based Clustering [72.15857783681658]
本稿では,クラスタリングの品質を計測するコスト関数の勾配を用いて,距離に基づくクラスタリングの一般的な手法を提案する。
アプローチは反復的な2段階の手順(クラスタ割り当てとクラスタセンターのアップデートの代替)であり、幅広い機能に適用できる。
論文 参考訳(メタデータ) (2022-02-01T19:31:15Z) - Anomaly Clustering: Grouping Images into Coherent Clusters of Anomaly
Types [60.45942774425782]
我々は異常クラスタリングを導入し、その目標はデータを異常型の一貫性のあるクラスタにまとめることである。
これは異常検出とは違い、その目標は異常を通常のデータから分割することである。
パッチベースの事前訓練されたディープ埋め込みとオフザシェルフクラスタリング手法を用いた,単純で効果的なクラスタリングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-21T23:11:33Z) - Hyperdimensional Computing for Efficient Distributed Classification with
Randomized Neural Networks [5.942847925681103]
本研究では,データを中央に保存することも共有することもできない状況下で利用できる分散分類について検討する。
ローカルな分類器を他のエージェントと共有する場合に、ロッキーな圧縮アプローチを適用することにより、分散分類のためのより効率的な解を提案する。
論文 参考訳(メタデータ) (2021-06-02T01:33:56Z) - Deep Compact Polyhedral Conic Classifier for Open and Closed Set
Recognition [17.86376652494798]
提案手法は多面体円錐関数幾何を用いた優れた解釈を持つ。
実験の結果,提案手法は他の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-02-24T21:38:31Z) - A Boundary Based Out-of-Distribution Classifier for Generalized
Zero-Shot Learning [83.1490247844899]
Generalized Zero-Shot Learning (GZSL)は多くの現実的なシナリオにおいて有望な見通しを持つ挑戦的なトピックである。
本研究では,見知らぬ領域を学習用サンプルのみを用いて分類する境界に基づくアウト・オブ・ディストリビューション(OOD)分類器を提案する。
我々は、AWA1、AWA2、CUB、FLO、SUNを含む5つの人気のあるベンチマークデータセットに対して、我々のアプローチを広範囲に検証する。
論文 参考訳(メタデータ) (2020-08-09T11:27:19Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z) - Rethinking preventing class-collapsing in metric learning with
margin-based losses [81.22825616879936]
メトリクス学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離した埋め込みを求める。
マージンベースの損失は、クラスの全サンプルを埋め込み空間の単一点に投影する傾向がある。
そこで本研究では,各サンプルが最寄りの同一クラスをバッチで選択するように,埋め込み損失の簡易な修正を提案する。
論文 参考訳(メタデータ) (2020-06-09T09:59:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。