論文の概要: Structural Effect and Spectral Enhancement of High-Dimensional Regularized Linear Discriminant Analysis
- arxiv url: http://arxiv.org/abs/2507.16682v1
- Date: Tue, 22 Jul 2025 15:16:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:14.17717
- Title: Structural Effect and Spectral Enhancement of High-Dimensional Regularized Linear Discriminant Analysis
- Title(参考訳): 高次元正規化線形判別分析における構造効果とスペクトル強調
- Authors: Yonghan Zhang, Zhangni Pu, Lu Yan, Jiang Hu,
- Abstract要約: 正規化線形判別分析(RLDA)は、分類と次元減少のための広く使われているツールである。
既存のRLDAの理論分析では、データ構造が分類性能に与える影響についての明確な洞察が欠けていることが多い。
本稿では,より高度な分類精度と次元減少を実現するためのスペクトル拡張判別分析(SEDA)アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 3.0517619877113358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regularized linear discriminant analysis (RLDA) is a widely used tool for classification and dimensionality reduction, but its performance in high-dimensional scenarios is inconsistent. Existing theoretical analyses of RLDA often lack clear insight into how data structure affects classification performance. To address this issue, we derive a non-asymptotic approximation of the misclassification rate and thus analyze the structural effect and structural adjustment strategies of RLDA. Based on this, we propose the Spectral Enhanced Discriminant Analysis (SEDA) algorithm, which optimizes the data structure by adjusting the spiked eigenvalues of the population covariance matrix. By developing a new theoretical result on eigenvectors in random matrix theory, we derive an asymptotic approximation on the misclassification rate of SEDA. The bias correction algorithm and parameter selection strategy are then obtained. Experiments on synthetic and real datasets show that SEDA achieves higher classification accuracy and dimensionality reduction compared to existing LDA methods.
- Abstract(参考訳): 正規化線形判別分析(RLDA)は分類と次元の低減に広く用いられているツールであるが、高次元シナリオにおけるその性能は矛盾している。
既存のRLDAの理論分析では、データ構造が分類性能に与える影響についての明確な洞察が欠けていることが多い。
この問題に対処するために、誤分類率の非漸近近似を導出し、RLDAの構造的効果と構造的調整戦略を解析する。
これに基づいて,人口共分散行列のスパイク固有値を調整することにより,データ構造を最適化するスペクトル拡張識別分析(SEDA)アルゴリズムを提案する。
確率行列理論における固有ベクトルに関する新しい理論結果を開発することにより、SEDAの誤分類率に関する漸近近似を導出する。
そして、バイアス補正アルゴリズムとパラメータ選択戦略を得る。
合成および実データを用いた実験により,SEDAは既存のLDA法よりも高い分類精度と次元性低下を達成することが示された。
関連論文リスト
- Nonparametric Linear Discriminant Analysis for High Dimensional Matrix-Valued Data [0.0]
本稿では,行列値観測に適したフィッシャーの線形判別分析(LDA)の新たな拡張を提案する。
我々は、NPMLE(Non Maximum Likelihood Estimation)に基づく非パラメトリック経験的ベイズフレームワークを採用する。
本手法は,行列設定に効果的に一般化され,分類性能が向上する。
論文 参考訳(メタデータ) (2025-07-25T07:30:24Z) - Linear Discriminant Analysis with Gradient Optimization on Covariance Inverse [4.872570541276082]
線形識別分析(LDA)は統計的パターン認識と分類の基本的な方法である。
本研究では,勾配降下による逆共分散行列を直接最適化する手法である勾配最適化付きLDA(LDA-GO)を提案する。
このアルゴリズムは、コレスキー分解を通じて逆共分散行列をパラメータ化し、計算複雑性を低減するために低ランク拡張を組み込み、多重初期化戦略を考える。
論文 参考訳(メタデータ) (2025-06-07T15:50:43Z) - Induced Covariance for Causal Discovery in Linear Sparse Structures [55.2480439325792]
因果モデルでは、観測データから変数間の因果関係を解き明かそうとしている。
本稿では,変数が線形に疎結合な関係を示す設定のための新しい因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-02T04:01:38Z) - Synergistic eigenanalysis of covariance and Hessian matrices for enhanced binary classification [72.77513633290056]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
本手法は複雑なパターンと関係を抽出し,分類性能を向上する。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - Regularized Linear Discriminant Analysis Using a Nonlinear Covariance
Matrix Estimator [11.887333567383239]
線形判別分析(LDA)はデータ分類において広く用いられている手法である。
LDAは、データ共分散行列が不条件であるときに非効率になる。
このような状況に対応するために正規化LDA法が提案されている。
論文 参考訳(メタデータ) (2024-01-31T11:37:14Z) - A Bi-level Nonlinear Eigenvector Algorithm for Wasserstein Discriminant
Analysis [3.4806267677524896]
ワッサーシュタイン判別分析(Wasserstein discriminant analysis, WDA)は線形次元減少法である。
WDAは、データクラス間のグローバルとローカルの相互接続の両方を説明できる。
2レベル非線形固有ベクトルアルゴリズム(WDA-nepv)を示す。
論文 参考訳(メタデータ) (2022-11-21T22:40:43Z) - Spectrally-Corrected and Regularized Linear Discriminant Analysis for
Spiked Covariance Model [2.517838307493912]
本稿では、スペクトル補正および正規化LDA(SRLDA)と呼ばれる線形判別分析の改善を提案する。
SRLDAはスパイクモデル仮定の下で線形分類大域最適解を持つことが証明された。
異なるデータセットに対する実験により、SRLDAアルゴリズムは、現在使われているツールよりも分類と次元の削減が優れていることが示された。
論文 参考訳(メタデータ) (2022-10-08T00:47:50Z) - Weight Vector Tuning and Asymptotic Analysis of Binary Linear
Classifiers [82.5915112474988]
本稿では,スカラーによる判別器の分解をパラメータ化することで,ジェネリックバイナリ線形分類器の重みベクトルチューニングを提案する。
また,重みベクトルチューニングは,高推定雑音下での線形判別分析(LDA)の性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2021-10-01T17:50:46Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Asymptotic Analysis of an Ensemble of Randomly Projected Linear
Discriminants [94.46276668068327]
[1]では、ランダムに投影された線形判別式のアンサンブルを用いてデータセットを分類する。
我々は,計算コストのかかるクロスバリデーション推定器の代替として,誤分類確率の一貫した推定器を開発する。
また、実データと合成データの両方で投影次元を調整するための推定器の使用を実証する。
論文 参考訳(メタデータ) (2020-04-17T12:47:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。