論文の概要: A Doubly Regularized Linear Discriminant Analysis Classifier with
Automatic Parameter Selection
- arxiv url: http://arxiv.org/abs/2004.13335v2
- Date: Sat, 27 Mar 2021 17:44:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 22:15:26.964512
- Title: A Doubly Regularized Linear Discriminant Analysis Classifier with
Automatic Parameter Selection
- Title(参考訳): 自動パラメータ選択による正規化線形判別分析分類器
- Authors: Alam Zaib, Tarig Ballal, Shahid Khattak and Tareq Y. Al-Naffouri
- Abstract要約: 線形判別分析(LDA)に基づく分類器は、訓練データのサイズが特徴数よりも小さい、あるいは同等であるような多くの実践的な設定で混乱する傾向にある。
R2LDAと表す2つの正規化LDA分類器を提案する。
合成データと実データの両方から得られた結果は,提案したR2LDA手法の一貫性と有効性を示す。
- 参考スコア(独自算出の注目度): 24.027886914804775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Linear discriminant analysis (LDA) based classifiers tend to falter in many
practical settings where the training data size is smaller than, or comparable
to, the number of features. As a remedy, different regularized LDA (RLDA)
methods have been proposed. These methods may still perform poorly depending on
the size and quality of the available training data. In particular, the test
data deviation from the training data model, for example, due to noise
contamination, can cause severe performance degradation. Moreover, these
methods commit further to the Gaussian assumption (upon which LDA is
established) to tune their regularization parameters, which may compromise
accuracy when dealing with real data. To address these issues, we propose a
doubly regularized LDA classifier that we denote as R2LDA. In the proposed
R2LDA approach, the RLDA score function is converted into an inner product of
two vectors. By substituting the expressions of the regularized estimators of
these vectors, we obtain the R2LDA score function that involves two
regularization parameters. To set the values of these parameters, we adopt
three existing regularization techniques; the constrained perturbation
regularization approach (COPRA), the bounded perturbation regularization (BPR)
algorithm, and the generalized cross-validation (GCV) method. These methods are
used to tune the regularization parameters based on linear estimation models,
with the sample covariance matrix's square root being the linear operator.
Results obtained from both synthetic and real data demonstrate the consistency
and effectiveness of the proposed R2LDA approach, especially in scenarios
involving test data contaminated with noise that is not observed during the
training phase.
- Abstract(参考訳): 線形判別分析 (lda) に基づく分類器は、訓練データのサイズが特徴数よりも小さい、あるいは同等である多くの実用的な設定で変化しがちである。
治療法として、異なる正規化LDA(RLDA)法が提案されている。
これらの手法は、利用可能なトレーニングデータのサイズや品質によっては、まだ性能が低下する可能性がある。
特に、例えば騒音汚染によるトレーニングデータモデルからの試験データ逸脱は、深刻な性能劣化を引き起こす可能性がある。
さらに、これらの手法は正規化パラメータを調整するためにガウスの仮定(LDAが確立された場合)にさらにコミットし、実際のデータを扱う際の精度を損なう可能性がある。
これらの問題に対処するため、R2LDAと表記する2つの正規化LDA分類器を提案する。
提案したR2LDAアプローチでは、RLDAスコア関数は2つのベクトルの内部積に変換される。
これらのベクトルの正規化推定子の式を置換することにより、2つの正規化パラメータを含むR2LDAスコア関数を得る。
これらのパラメータの値を設定するために、制約摂動正規化手法(COPRA)、境界摂動正規化アルゴリズム(BPR)、一般化クロスバリデーション法(GCV)の3つの既存の正則化手法を採用する。
これらの方法は、サンプル共分散行列の平方根を線形作用素として、線形推定モデルに基づく正規化パラメータのチューニングに使用される。
合成データと実データの両方から得られた結果は,R2LDAアプローチの一貫性と有効性を示すものである。
関連論文リスト
- Synergistic eigenanalysis of covariance and Hessian matrices for
enhanced binary classification [75.90957645766676]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
我々のアプローチは、クラス間の平均距離を最大化し、クラス内の分散を最小化する能力を確立する形式的な証明によって裏付けられている。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - Regularized Linear Discriminant Analysis Using a Nonlinear Covariance
Matrix Estimator [11.887333567383239]
線形判別分析(LDA)はデータ分類において広く用いられている手法である。
LDAは、データ共分散行列が不条件であるときに非効率になる。
このような状況に対応するために正規化LDA法が提案されている。
論文 参考訳(メタデータ) (2024-01-31T11:37:14Z) - Minimally Informed Linear Discriminant Analysis: training an LDA model
with unlabelled data [51.673443581397954]
本研究では,LDAモデルからの正確な射影ベクトルを,ラベルのないデータに基づいて計算可能であることを示す。
MILDA投影ベクトルはLDAに匹敵する計算コストで閉じた形で計算可能であることを示す。
論文 参考訳(メタデータ) (2023-10-17T09:50:31Z) - Offline Policy Optimization in RL with Variance Regularizaton [142.87345258222942]
定常分布補正を用いたオフラインRLアルゴリズムの分散正則化を提案する。
Fenchel双対性を用いることで、分散正規化器の勾配を計算するための二重サンプリング問題を回避することができることを示す。
オフライン分散正規化アルゴリズム(OVAR)は,既存のオフラインポリシー最適化アルゴリズムを拡張できる。
論文 参考訳(メタデータ) (2022-12-29T18:25:01Z) - Varying Coefficient Linear Discriminant Analysis for Dynamic Data [5.228711636020666]
本稿では,動的データに対する変動係数LDAモデルについて検討する。
ベイズ方向と平行な新たな識別方向関数を導出することにより,最小二乗推定法を提案する。
高次元の場合、対応するデータ駆動判別法則は、既存の動的線形プログラミング法則よりも計算的に効率的である。
論文 参考訳(メタデータ) (2022-03-12T07:32:19Z) - Data adaptive RKHS Tikhonov regularization for learning kernels in
operators [1.5039745292757671]
DARTR: 演算子における関数パラメータの非パラメトリック学習における線形逆問題に対するデータ適応型RKHS Tikhonov正規化法を提案する。
鍵となる要素は、システム固有のデータ適応(SIDA)RKHSであり、その標準は、識別可能性の関数空間で起こる学習を制限する。
論文 参考訳(メタデータ) (2022-03-08T01:08:35Z) - A Priori Denoising Strategies for Sparse Identification of Nonlinear
Dynamical Systems: A Comparative Study [68.8204255655161]
本研究では, 局所的およびグローバルな平滑化手法の性能と, 状態測定値の偏差について検討・比較する。
一般に,測度データセット全体を用いたグローバルな手法は,局所点の周辺に隣接するデータサブセットを用いる局所的手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-29T23:31:25Z) - Weight Vector Tuning and Asymptotic Analysis of Binary Linear
Classifiers [82.5915112474988]
本稿では,スカラーによる判別器の分解をパラメータ化することで,ジェネリックバイナリ線形分類器の重みベクトルチューニングを提案する。
また,重みベクトルチューニングは,高推定雑音下での線形判別分析(LDA)の性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2021-10-01T17:50:46Z) - Doubly Robust Semiparametric Difference-in-Differences Estimators with
High-Dimensional Data [15.27393561231633]
不均一な治療効果を推定するための2段半パラメトリック差分差分推定器を提案する。
第1段階では、確率スコアを推定するために、一般的な機械学習手法が使用できる。
第2段階ではパラメトリックパラメータと未知関数の両方の収束率を導出する。
論文 参考訳(メタデータ) (2020-09-07T15:14:29Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Improving Covariance-Regularized Discriminant Analysis for EHR-based
Predictive Analytics of Diseases [20.697847129363463]
任意の分布を持つデータを分類するためのLDAの精度を理解する解析モデルについて検討する。
また、HDLSSデータのために開発された最先端のLDA手法より優れた新しいLDA分類器De-Sparseを提案する。
論文 参考訳(メタデータ) (2016-10-18T06:11:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。