論文の概要: Classification Using Global and Local Mahalanobis Distances
- arxiv url: http://arxiv.org/abs/2402.08283v1
- Date: Tue, 13 Feb 2024 08:22:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 16:05:26.240947
- Title: Classification Using Global and Local Mahalanobis Distances
- Title(参考訳): グローバル・マハラノビス距離を用いた分類
- Authors: Annesha Ghosh, Anil K. Ghosh, Rita SahaRay, and Soham Sarkar
- Abstract要約: 競合クラスからの観測のマハラノビス距離に基づく新しい半パラメトリック分類器を提案する。
我々のツールは、これらの距離を異なるクラスの後部確率を推定する特徴として利用するロジスティックリンク関数を持つ一般化加法モデルである。
- 参考スコア(独自算出の注目度): 1.7811840395202345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel semi-parametric classifier based on Mahalanobis distances
of an observation from the competing classes. Our tool is a generalized
additive model with the logistic link function that uses these distances as
features to estimate the posterior probabilities of the different classes.
While popular parametric classifiers like linear and quadratic discriminant
analyses are mainly motivated by the normality of the underlying distributions,
the proposed classifier is more flexible and free from such parametric
assumptions. Since the densities of elliptic distributions are functions of
Mahalanobis distances, this classifier works well when the competing classes
are (nearly) elliptic. In such cases, it often outperforms popular
nonparametric classifiers, especially when the sample size is small compared to
the dimension of the data. To cope with non-elliptic and possibly multimodal
distributions, we propose a local version of the Mahalanobis distance.
Subsequently, we propose another classifier based on a generalized additive
model that uses the local Mahalanobis distances as features. This nonparametric
classifier usually performs like the Mahalanobis distance based semiparametric
classifier when the underlying distributions are elliptic, but outperforms it
for several non-elliptic and multimodal distributions. We also investigate the
behaviour of these two classifiers in high dimension, low sample size
situations. A thorough numerical study involving several simulated and real
datasets demonstrate the usefulness of the proposed classifiers in comparison
to many state-of-the-art methods.
- Abstract(参考訳): 競合クラスからの観測のマハラノビス距離に基づく新しい半パラメトリック分類器を提案する。
我々のツールは、これらの距離を異なるクラスの後部確率を推定する特徴として利用するロジスティックリンク関数を持つ一般化加法モデルである。
線形および二次判別分析のような一般的なパラメトリック分類器は、主に基底分布の正規性によって動機づけられるが、提案された分類器はより柔軟で、そのようなパラメトリックな仮定を含まない。
楕円分布の密度はマハラノビス距離の関数であるため、この分類器は競合するクラスが(ほぼ)楕円的である場合によく機能する。
このような場合、特にサンプルサイズがデータ次元よりも小さい場合、一般的な非パラメトリック分類器よりも優れている。
非楕円型およびおそらく多重モード分布に対処するために、マハラノビス距離の局所バージョンを提案する。
次に,局所マハラノビス距離を特徴量とする一般化加法モデルに基づく別の分類器を提案する。
この非パラメトリック分類器は、基底分布が楕円型であるとき、通常、マハラノビス距離に基づく半パラメトリック分類器のように機能するが、いくつかの非楕円型およびマルチモーダル分布に対してより優れる。
また,この2つの分類器の挙動を高次元,低試料サイズで検討した。
いくつかのシミュレーションおよび実データを含む徹底的な数値研究は、多くの最先端手法と比較して提案した分類器の有用性を示している。
関連論文リスト
- FeCAM: Exploiting the Heterogeneity of Class Distributions in
Exemplar-Free Continual Learning [21.088762527081883]
Exemplar-free class-incremental learning (CIL)は、以前のタスクからのデータのリハーサルを禁止しているため、いくつかの課題がある。
第1タスクの後に特徴抽出器を凍結して分類器を漸進的に学習する手法が注目されている。
凍結した特徴抽出器を用いて新しいクラスプロトタイプを生成するCILのプロトタイプネットワークを探索し,プロトタイプとのユークリッド距離に基づいて特徴を分類する。
論文 参考訳(メタデータ) (2023-09-25T11:54:33Z) - Counting Like Human: Anthropoid Crowd Counting on Modeling the
Similarity of Objects [92.80955339180119]
メインストリームの群衆計数法は 密度マップを補強して 計数結果を得るために統合する。
これに触発された我々は,合理的かつ人為的な集団カウントフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-02T07:00:53Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - Soft-margin classification of object manifolds [0.0]
単一対象の複数の出現に対応する神経集団は、神経応答空間における多様体を定義する。
そのような多様体を分類する能力は、オブジェクト認識やその他の計算タスクは多様体内の変数に無関心な応答を必要とするため、興味がある。
ソフトマージン分類器は、より大きなアルゴリズムのクラスであり、トレーニングセット外のパフォーマンスを最適化するためにアプリケーションで使われる追加の正規化パラメータを提供する。
論文 参考訳(メタデータ) (2022-03-14T12:23:36Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Optimality and complexity of classification by random projection [1.5229257192293197]
分類器の一般化誤差は、分類器が選択される関数の集合の複雑さに関連している。
このタイプの分類器は、任意の精度を近似する可能性が高いため、非常に柔軟であることを示す。
特に、クラス条件密度の完全な知識が与えられたとき、これらの低複素度分類器の誤差は k と n が無限大になるときの最適(ベイズ)誤差に収束する。
論文 参考訳(メタデータ) (2021-08-11T23:14:46Z) - Large scale analysis of generalization error in learning using margin
based classification methods [2.436681150766912]
サンプルサイズ$n$と次元$p$の両方の極限で、大マルジン分類器の族を一般化誤差とする式を導出する。
2層ニューラルネットワークでは、最近開発された2重降下現象をいくつかの分類モデルで再現する。
論文 参考訳(メタデータ) (2020-07-16T20:31:26Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Asymptotic Analysis of an Ensemble of Randomly Projected Linear
Discriminants [94.46276668068327]
[1]では、ランダムに投影された線形判別式のアンサンブルを用いてデータセットを分類する。
我々は,計算コストのかかるクロスバリデーション推定器の代替として,誤分類確率の一貫した推定器を開発する。
また、実データと合成データの両方で投影次元を調整するための推定器の使用を実証する。
論文 参考訳(メタデータ) (2020-04-17T12:47:04Z) - On a Generalization of the Average Distance Classifier [2.578242050187029]
この問題に対処するために,平均距離分類器の簡単な変換を提案する。
結果として得られる分類器は、下層の集団が同じ位置と規模を持つ場合でも、非常によく機能する。
シミュレーションおよび実データを用いた数値実験により,提案手法の有用性が示された。
論文 参考訳(メタデータ) (2020-01-08T10:00:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。