論文の概要: PCA, SVD, and Centering of Data
- arxiv url: http://arxiv.org/abs/2307.15213v1
- Date: Thu, 27 Jul 2023 22:10:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-31 14:10:58.763877
- Title: PCA, SVD, and Centering of Data
- Title(参考訳): PCA, SVD, およびデータ中心化
- Authors: Donggun Kim, Kisung You
- Abstract要約: 本研究は,統計学および機械学習における基礎的手法である主成分分析(PCA)を精査する。
本研究では,この批判的かつしばしば無視される,あるいは軽視されるデータ中心のステップの影響について,詳細な調査を行った。
本研究は,PCAの計算に係わる微妙さの包括的理解と認識の重要性を強調した。
- 参考スコア(独自算出の注目度): 1.0152838128195467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The research detailed in this paper scrutinizes Principal Component Analysis
(PCA), a seminal method employed in statistics and machine learning for the
purpose of reducing data dimensionality. Singular Value Decomposition (SVD) is
often employed as the primary means for computing PCA, a process that
indispensably includes the step of centering - the subtraction of the mean
location from the data set. In our study, we delve into a detailed exploration
of the influence of this critical yet often ignored or downplayed data
centering step. Our research meticulously investigates the conditions under
which two PCA embeddings, one derived from SVD with centering and the other
without, can be viewed as aligned. As part of this exploration, we analyze the
relationship between the first singular vector and the mean direction,
subsequently linking this observation to the congruity between two SVDs of
centered and uncentered matrices. Furthermore, we explore the potential
implications arising from the absence of centering in the context of performing
PCA via SVD from a spectral analysis standpoint. Our investigation emphasizes
the importance of a comprehensive understanding and acknowledgment of the
subtleties involved in the computation of PCA. As such, we believe this paper
offers a crucial contribution to the nuanced understanding of this foundational
statistical method and stands as a valuable addition to the academic literature
in the field of statistics.
- Abstract(参考訳): 本稿では,データ次元の低減を目的とした統計学および機械学習における基礎的手法である主成分分析(PCA)を精査する。
Singular Value Decomposition (SVD) はしばしばPCAの計算の第一の手段として使用される。
本研究では,この批判的かつしばしば無視される,あるいは軽視されるデータ中心のステップの影響を詳細に調査する。
本研究は,集中型SVDと無中心型SVDの2つのPCA埋め込みを協調的に検討する。
この探索の一環として、第1特異ベクトルと平均方向の関係を解析し、この観測を中心行列と非中心行列の2つのSVDの合同性にリンクする。
さらに,スペクトル解析の観点から,svdによるpca実行の文脈における中心の欠如から生じる潜在的影響について検討する。
本研究は,PCAの計算に係わる微妙さの包括的理解と認識の重要性を強調した。
このように,本論文は,この基礎的統計手法の微妙な理解に重要な貢献をし,統計学の分野における学術文献の付加価値として評価されている。
関連論文リスト
- TL-PCA: Transfer Learning of Principal Component Analysis [1.573034584191491]
主成分分析は、対象とするデータのサンプルが多すぎると著しく制限される可能性がある。
そこで本研究では,対象タスクの少ないデータに加えて,関連するソースタスクからの知識が使用されるPCA(TL-PCA)への転送学習手法を提案する。
画像データセットの結果から, 次元削減のためのTL-PCAにより, テストデータの表現が向上することが示された。
論文 参考訳(メタデータ) (2024-10-14T17:59:18Z) - Knowledge Transfer across Multiple Principal Component Analysis Studies [8.602833477729899]
本稿では,複数音源成分分析(PCA)研究から有用な情報を抽出する2段階移動学習アルゴリズムを提案する。
最初のステップでは、複数の研究にまたがる共有部分空間情報をGrassmannian barycenterと呼ばれる提案手法で統合する。
第1段階から得られた共有部分空間の推定器を利用して、対象のプライベート部分空間を推定する。
論文 参考訳(メタデータ) (2024-03-12T09:15:12Z) - Evaluating the Fairness of the MIMIC-IV Dataset and a Baseline
Algorithm: Application to the ICU Length of Stay Prediction [65.268245109828]
本稿では、MIMIC-IVデータセットを用いて、滞在時間を予測するXGBoostバイナリ分類モデルにおける公平性とバイアスについて検討する。
この研究は、人口統計属性にわたるデータセットのクラス不均衡を明らかにし、データ前処理と特徴抽出を採用する。
この論文は、偏見を緩和するための公正な機械学習技術と、医療専門家とデータサイエンティストの協力的な努力の必要性について結論付けている。
論文 参考訳(メタデータ) (2023-12-31T16:01:48Z) - Sparse PCA with Oracle Property [115.72363972222622]
新規な正規化を伴うスパースPCAの半定緩和に基づく推定器群を提案する。
我々は、家族内の別の推定器が、スパースPCAの標準半定緩和よりも、より急激な収束率を達成することを証明した。
論文 参考訳(メタデータ) (2023-12-28T02:52:54Z) - Robust Singular Values based on L1-norm PCA [11.706222361809374]
Singular-Value Decomposition (SVD) は、工学、科学、統計学におけるユビキタスなデータ解析手法である。
本稿では,L1-ノルム(絶対値の仮定)の定式化に基づくSVDと特異値推定のための新しいロバストな非パラメトリック手法を提案する。
論文 参考訳(メタデータ) (2022-10-21T16:42:49Z) - Distributed Robust Principal Analysis [0.0]
分散環境でのロバストな主成分分析問題について検討する。
DCF-PCAと呼ばれるコンセンサス因数分解に基づく最初の分散ロバストな主解析アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-24T05:45:07Z) - Eigen Analysis of Self-Attention and its Reconstruction from Partial
Computation [58.80806716024701]
ドット積に基づく自己注意を用いて計算した注意点のグローバルな構造について検討する。
注意点の変動の大部分は低次元固有空間にあることがわかった。
トークンペアの部分的な部分集合に対してのみスコアを計算し、それを用いて残りのペアのスコアを推定する。
論文 参考訳(メタデータ) (2021-06-16T14:38:42Z) - Enhanced Principal Component Analysis under A Collaborative-Robust
Framework [89.28334359066258]
重み学習とロバストな損失を非自明な方法で組み合わせる,一般的な協調ロバスト重み学習フレームワークを提案する。
提案されたフレームワークでは、トレーニング中の重要度を示す適切なサンプルの一部のみがアクティブになり、エラーが大きい他のサンプルは無視されません。
特に、不活性化試料の負の効果はロバスト損失関数によって軽減される。
論文 参考訳(メタデータ) (2021-03-22T15:17:37Z) - Self-supervised Representation Learning with Relative Predictive Coding [102.93854542031396]
Relative Predictive Coding(RPC)は、新しいコントラスト表現学習目標である。
RPCは、トレーニング安定性、ミニバッチサイズ感度、ダウンストリームタスクパフォーマンスのバランスが良好である。
ベンチマークビジョンと音声自己教師型学習タスクにおけるRPCの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2021-03-21T01:04:24Z) - Robust Principal Component Analysis: A Median of Means Approach [17.446104539598895]
主成分分析(main Component Analysis)は、データビジュアライゼーション、デノイング、次元削減のためのツールである。
最近の教師付き学習手法は、外見的な観察を扱う上で大きな成功を収めている。
本稿では,MoM原理に基づくPCA手法を提案する。
論文 参考訳(メタデータ) (2021-02-05T19:59:05Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。