論文の概要: Sparse PCA with False Discovery Rate Controlled Variable Selection
- arxiv url: http://arxiv.org/abs/2401.08375v1
- Date: Tue, 16 Jan 2024 14:07:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 14:03:07.717478
- Title: Sparse PCA with False Discovery Rate Controlled Variable Selection
- Title(参考訳): 偽発見率制御可変選択によるスパースPCA
- Authors: Jasin Machkour, Arnaud Breloy, Michael Muma, Daniel P. Palomar,
Fr\'ed\'eric Pascal
- Abstract要約: 偽発見率(FDR)によるスパースPCAの別の定式化を提案する。
結果として生じるT-Rex PCAの大きな利点は、スパーシティパラメータチューニングを必要としないことである。
数値実験と株式市場のデータ例は、大幅な性能改善を示している。
- 参考スコア(独自算出の注目度): 12.167049432063129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse principal component analysis (PCA) aims at mapping large dimensional
data to a linear subspace of lower dimension. By imposing loading vectors to be
sparse, it performs the double duty of dimension reduction and variable
selection. Sparse PCA algorithms are usually expressed as a trade-off between
explained variance and sparsity of the loading vectors (i.e., number of
selected variables). As a high explained variance is not necessarily synonymous
with relevant information, these methods are prone to select irrelevant
variables. To overcome this issue, we propose an alternative formulation of
sparse PCA driven by the false discovery rate (FDR). We then leverage the
Terminating-Random Experiments (T-Rex) selector to automatically determine an
FDR-controlled support of the loading vectors. A major advantage of the
resulting T-Rex PCA is that no sparsity parameter tuning is required. Numerical
experiments and a stock market data example demonstrate a significant
performance improvement.
- Abstract(参考訳): スパース主成分分析(PCA)は、大次元データを低次元の線形部分空間にマッピングすることを目的とする。
荷重ベクトルを疎結合にすることで、次元減少と可変選択の二重義務を実行する。
スパースPCAアルゴリズムは通常、説明された分散とロードベクトルの間隔(すなわち選択された変数の数)の間のトレードオフとして表現される。
高説明の分散は必ずしも関連する情報と同義ではないため、これらの方法は無関係な変数を選択する傾向がある。
そこで本研究では,偽発見率(FDR)によるスパースPCAの定式化を提案する。
次に、T-Rexセレクタを利用して、ロードベクトルのFDR制御サポートを自動的に決定する。
結果として生じるT-Rex PCAの大きな利点は、スパーシティパラメータチューニングを必要としないことである。
数値実験と株式市場のデータ例は、大幅な性能改善を示している。
関連論文リスト
- DPVIm: Differentially Private Variational Inference Improved [13.761202518891329]
多次元統計学の微分プライベート(DP)リリースは、一般的に集合感度を考える。
そのベクトルの次元は様々であり、従ってDP摂動は次元をまたいだ信号に不均等に影響を及ぼす。
変分推論(VI)に用いた場合、DP-SGDアルゴリズムの勾配解法でこの問題を観測する(VI)。
論文 参考訳(メタデータ) (2022-10-28T07:41:32Z) - Robust factored principal component analysis for matrix-valued outlier
accommodation and detection [4.228971753938522]
Factored PCA (FPCA) は行列データに対するPCAの確率的拡張である。
行列データに対するFPCA(RFPCA)の堅牢な拡張を提案する。
RFPCAは適応的に減量し、ロバストな推定値が得られる。
論文 参考訳(メタデータ) (2021-12-13T16:12:22Z) - Determinantal point processes based on orthogonal polynomials for
sampling minibatches in SGD [0.0]
勾配降下(SGD)は機械学習の基盤である。
デフォルトのミニバッチ構成では、望ましいサイズのサブセットを一様にサンプリングする。
DPPと制御された近似の列が、一様サンプリングよりもバッチサイズで高速に崩壊するばらつきを持つ勾配推定器にどのように影響するかを示す。
論文 参考訳(メタデータ) (2021-12-11T15:09:19Z) - The Terminating-Random Experiments Selector: Fast High-Dimensional
Variable Selection with False Discovery Rate Control [10.86851797584794]
T-Rexセレクタは、ユーザ定義のターゲット偽発見率(FDR)を制御する
元の予測器とランダムに生成されたダミー予測器の複数セットの組み合わせで実験を行った。
論文 参考訳(メタデータ) (2021-10-12T14:52:46Z) - AgFlow: Fast Model Selection of Penalized PCA via Implicit
Regularization Effects of Gradient Flow [64.81110234990888]
主成分分析(PCA)は特徴抽出と次元減少の有効な手法として広く用いられている。
High Dimension Low Sample Size (HDLSS) 設定では、ペナル化ロードを備えた修正主成分が好まれる。
ペナル化PCAの高速モデル選択法として近似勾配流(AgFlow)を提案する。
論文 参考訳(メタデータ) (2021-10-07T08:57:46Z) - Weight Vector Tuning and Asymptotic Analysis of Binary Linear
Classifiers [82.5915112474988]
本稿では,スカラーによる判別器の分解をパラメータ化することで,ジェネリックバイナリ線形分類器の重みベクトルチューニングを提案する。
また,重みベクトルチューニングは,高推定雑音下での線形判別分析(LDA)の性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2021-10-01T17:50:46Z) - LSDAT: Low-Rank and Sparse Decomposition for Decision-based Adversarial
Attack [74.5144793386864]
LSDATは、入力サンプルのスパース成分と対向サンプルのスパース成分によって形成される低次元部分空間における摂動を加工する。
LSDは画像ピクセル領域で直接動作し、スパース性などの非$ell$制約が満たされることを保証します。
論文 参考訳(メタデータ) (2021-03-19T13:10:47Z) - A Linearly Convergent Algorithm for Distributed Principal Component
Analysis [12.91948651812873]
本稿では,1時間スケール分散pcaアルゴリズムである分散sanger's algorithm(dsa)を提案する。
提案アルゴリズムは真の解の近傍に線形収束することを示した。
論文 参考訳(メタデータ) (2021-01-05T00:51:14Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Sparse Feature Selection Makes Batch Reinforcement Learning More Sample
Efficient [62.24615324523435]
本稿では,スパース線形関数近似を用いた高次元バッチ強化学習(RL)の統計的解析を行う。
候補となる機能が多数存在する場合,提案手法がバッチRLをより効率的にサンプリングできるという事実に光を当てる。
論文 参考訳(メタデータ) (2020-11-08T16:48:02Z) - PDO-eConvs: Partial Differential Operator Based Equivariant Convolutions [71.60219086238254]
我々は、畳み込みと偏微分作用素(PDO)の接続から問題に対処する。
実装において、ほぼ同変の畳み込み(PDO-eConvs)を導出し、PDOの数値スキームを用いてシステムを識別する。
回転したMNISTと自然画像分類の実験により、PDO-eConvsは競合的に機能するが、より効率的にパラメータを使用することが示された。
論文 参考訳(メタデータ) (2020-07-20T18:57:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。