論文の概要: GO-LDA: Generalised Optimal Linear Discriminant Analysis
- arxiv url: http://arxiv.org/abs/2305.14568v1
- Date: Tue, 23 May 2023 23:11:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 21:15:49.457668
- Title: GO-LDA: Generalised Optimal Linear Discriminant Analysis
- Title(参考訳): GO-LDA: 一般化された最適線形判別分析
- Authors: Jiahui Liu, Xiaohao Cai, and Mahesan Niranjan
- Abstract要約: 線形判別分析はパターン認識やデータ解析の研究、実践において有用なツールである。
多クラスLDAに対する一般化固有解析解は、直交判別方向を導出したり、それに沿った投影データの識別を最大化したりしないことを示す。
- 参考スコア(独自算出の注目度): 6.644357197885522
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Linear discriminant analysis (LDA) has been a useful tool in pattern
recognition and data analysis research and practice. While linearity of class
boundaries cannot always be expected, nonlinear projections through pre-trained
deep neural networks have served to map complex data onto feature spaces in
which linear discrimination has served well. The solution to binary LDA is
obtained by eigenvalue analysis of within-class and between-class scatter
matrices. It is well known that the multiclass LDA is solved by an extension to
the binary LDA, a generalised eigenvalue problem, from which the largest
subspace that can be extracted is of dimension one lower than the number of
classes in the given problem. In this paper, we show that, apart from the first
of the discriminant directions, the generalised eigenanalysis solution to
multiclass LDA does neither yield orthogonal discriminant directions nor
maximise discrimination of projected data along them. Surprisingly, to the best
of our knowledge, this has not been noted in decades of literature on LDA. To
overcome this drawback, we present a derivation with a strict theoretical
support for sequentially obtaining discriminant directions that are orthogonal
to previously computed ones and maximise in each step the Fisher criterion. We
show distributions of projections along these axes and demonstrate that
discrimination of data projected onto these discriminant directions has optimal
separation, which is much higher than those from the generalised eigenvectors
of the multiclass LDA. Using a wide range of benchmark tasks, we present a
comprehensive empirical demonstration that on a number of pattern recognition
and classification problems, the optimal discriminant subspaces obtained by the
proposed method, referred to as GO-LDA (Generalised Optimal LDA), can offer
superior accuracy.
- Abstract(参考訳): 線形識別分析(LDA)はパターン認識やデータ解析の研究や実践において有用なツールである。
クラス境界の線形性は常に期待できないが、事前訓練されたディープニューラルネットワークによる非線形投影は、線形識別がうまく機能する特徴空間に複雑なデータをマッピングするのに役立っている。
2値LDAの解は、クラス内およびクラス間散乱行列の固有値解析によって得られる。
多クラス LDA は一般化固有値問題である二項 LDA の拡張によって解かれることがよく知られており、そこから抽出できる最大の部分空間は与えられた問題のクラスの数よりも1次元低い。
本稿では, 識別方向の第一点とは別に, 多クラスLDAに対する一般化固有解析法は直交判別方向を導出せず, 投影データの識別を最大化しないことを示す。
驚いたことに、私たちの知る限りでは、このことはLDAに関する数十年にわたる文献では言及されていない。
この欠点を克服するために,本論文では,前述した方法と直交する判別方向を順次取得し,各ステップで最大化するための厳密な理論的支援を提示する。
これらの軸に沿った投影の分布を示し、これらの識別方向に投影されるデータの識別が最適分離であることを示し、これは多クラスLDAの一般化固有ベクトルよりもはるかに高い。
幅広いベンチマークタスクを用いて、パターン認識と分類の問題に対して、GO-LDA(Generalized Optimal LDA)と呼ばれる提案手法によって得られた最適な識別部分空間は、より優れた精度を提供できることを示す。
関連論文リスト
- Synergistic eigenanalysis of covariance and Hessian matrices for
enhanced binary classification [75.90957645766676]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
我々のアプローチは、クラス間の平均距離を最大化し、クラス内の分散を最小化する能力を確立する形式的な証明によって裏付けられている。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - Minimally Informed Linear Discriminant Analysis: training an LDA model
with unlabelled data [51.673443581397954]
本研究では,LDAモデルからの正確な射影ベクトルを,ラベルのないデータに基づいて計算可能であることを示す。
MILDA投影ベクトルはLDAに匹敵する計算コストで閉じた形で計算可能であることを示す。
論文 参考訳(メタデータ) (2023-10-17T09:50:31Z) - A Bi-level Nonlinear Eigenvector Algorithm for Wasserstein Discriminant
Analysis [3.4806267677524896]
ワッサーシュタイン判別分析(Wasserstein discriminant analysis, WDA)は線形次元減少法である。
WDAは、データクラス間のグローバルとローカルの相互接続の両方を説明できる。
2レベル非線形固有ベクトルアルゴリズム(WDA-nepv)を示す。
論文 参考訳(メタデータ) (2022-11-21T22:40:43Z) - Spectrally-Corrected and Regularized Linear Discriminant Analysis for
Spiked Covariance Model [2.517838307493912]
本稿では、スペクトル補正および正規化LDA(SRLDA)と呼ばれる線形判別分析の改善を提案する。
SRLDAはスパイクモデル仮定の下で線形分類大域最適解を持つことが証明された。
異なるデータセットに対する実験により、SRLDAアルゴリズムは、現在使われているツールよりも分類と次元の削減が優れていることが示された。
論文 参考訳(メタデータ) (2022-10-08T00:47:50Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Regularized Deep Linear Discriminant Analysis [26.08062442399418]
古典的な線形判別解析(LDA)の非線形拡張として、Deep Linear Discriminant Analysis(DLDA)は元のCategorical Cross Entropy(CCE)損失関数を置き換える。
各次元の識別能力を高めるために, クラス内散乱行列の正則化法を提案する。
論文 参考訳(メタデータ) (2021-05-15T03:54:32Z) - Riemannian-based Discriminant Analysis for Feature Extraction and
Classification [2.1485350418225244]
識別分析は、高次元データから低次元特徴を抽出する機械学習において広く用いられている手法である。
従来のeuclidean-based algorithms for discriminant analysisは、スプリアス局所ミニマに容易に収束する。
RDA(Riemannian-based Discriminant Analysis)と呼ばれる新しい手法を提案し、従来のユークリッド法をリーマン多様体空間へ変換する。
論文 参考訳(メタデータ) (2021-01-20T09:13:34Z) - Self-Weighted Robust LDA for Multiclass Classification with Edge Classes [111.5515086563592]
SWRLDAと呼ばれる,l21ノルムを基準とした新しい自己重み付き頑健なLDAを提案する。
提案するSWRLDAは実装が容易で,実際に高速に収束する。
論文 参考訳(メタデータ) (2020-09-24T12:32:55Z) - High-Dimensional Quadratic Discriminant Analysis under Spiked Covariance
Model [101.74172837046382]
そこで本研究では,魚の識別比を最大化する2次分類手法を提案する。
数値シミュレーションにより,提案した分類器は,合成データと実データの両方において古典的R-QDAよりも優れるだけでなく,計算量の削減も要求されることがわかった。
論文 参考訳(メタデータ) (2020-06-25T12:00:26Z) - Saliency-based Weighted Multi-label Linear Discriminant Analysis [101.12909759844946]
複数ラベルの分類課題を解決するために,LDA(Linear Discriminant Analysis)の新たな変種を提案する。
提案手法は,個々の試料の重量を定義する確率モデルに基づく。
サリエンシに基づく重み付きマルチラベル LDA アプローチは,様々なマルチラベル分類問題の性能改善につながることが示されている。
論文 参考訳(メタデータ) (2020-04-08T19:40:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。