論文の概要: Supervised Linear Dimension-Reduction Methods: Review, Extensions, and
Comparisons
- arxiv url: http://arxiv.org/abs/2109.04244v1
- Date: Thu, 9 Sep 2021 17:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 15:09:08.166799
- Title: Supervised Linear Dimension-Reduction Methods: Review, Extensions, and
Comparisons
- Title(参考訳): 教師付き線型次元還元法:レビュー,拡張,比較
- Authors: Shaojie Xu, Joel Vaughan, Jie Chen, Agus Sudjianto, Vijayan Nair
- Abstract要約: 主成分分析(PCA)は、データ解析やモデリングに広く用いられている、よく知られた線形次元還元法である。
本稿では,選択した手法をレビューし,その一部を拡張し,シミュレーションによる性能比較を行う。
これらの2つの手法のうち、部分最小二乗法(PLS)と最小二乗法(LSPCA)は、この研究で他よりも一貫して優れている。
- 参考スコア(独自算出の注目度): 6.71092092685492
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Principal component analysis (PCA) is a well-known linear dimension-reduction
method that has been widely used in data analysis and modeling. It is an
unsupervised learning technique that identifies a suitable linear subspace for
the input variable that contains maximal variation and preserves as much
information as possible. PCA has also been used in prediction models where the
original, high-dimensional space of predictors is reduced to a smaller, more
manageable, set before conducting regression analysis. However, this approach
does not incorporate information in the response during the dimension-reduction
stage and hence can have poor predictive performance. To address this concern,
several supervised linear dimension-reduction techniques have been proposed in
the literature. This paper reviews selected techniques, extends some of them,
and compares their performance through simulations. Two of these techniques,
partial least squares (PLS) and least-squares PCA (LSPCA), consistently
outperform the others in this study.
- Abstract(参考訳): 主成分分析(PCA)は、データ解析やモデリングに広く用いられている、よく知られた線形次元還元法である。
最大変動量を含む入力変数に対して適切な線形部分空間を識別し、できるだけ多くの情報を保存できる教師なし学習手法である。
PCAはまた、回帰分析を行う前に、元の高次元の予測器の空間がより小さく、より管理しやすく設定される予測モデルにも使用されている。
しかし, この手法では, 次元還元段階の応答に情報を組み込まないため, 予測性能が劣る可能性がある。
この懸念に対処するため、いくつかの教師付き線形次元還元手法が文献に提案されている。
本稿では,選択した手法をレビューし,その一部を拡張し,シミュレーションによる性能比較を行う。
これらの2つの手法のうち、部分最小二乗法(PLS)と最小二乗法(LSPCA)は、この研究で他よりも一貫して優れている。
関連論文リスト
- Large-Scale OD Matrix Estimation with A Deep Learning Method [70.78575952309023]
提案手法は,ディープラーニングと数値最適化アルゴリズムを統合し,行列構造を推論し,数値最適化を導出する。
大規模合成データセットを用いて,提案手法の優れた一般化性能を実証するために実験を行った。
論文 参考訳(メタデータ) (2023-10-09T14:30:06Z) - Improved Privacy-Preserving PCA Using Optimized Homomorphic Matrix
Multiplication [0.0]
主成分分析(英: principal Component Analysis、PCA)は、機械学習とデータ分析の領域で広く利用されている重要な技術である。
近年,セキュアなクラウドコンピューティングシナリオにおいて,プライバシ保護型PCAアルゴリズムの同型暗号化を活用する取り組みが進められている。
本稿では,これらの制約に対処するプライバシー保護PCAに対して,従来の手法に比べて効率,精度,拡張性に優れる新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-27T02:51:20Z) - Maximum Covariance Unfolding Regression: A Novel Covariate-based
Manifold Learning Approach for Point Cloud Data [11.34706571302446]
ポイントクラウドデータは、プロセスインスペクション、モデリング、モニタリング、最適化のための製造アプリケーションで広く利用されている。
最先端のテンソル回帰技術は、構造化点雲データの解析に効果的に利用されてきた。
しかし、これらの技術は、非構造化のポイントクラウドデータを扱うことができない。
論文 参考訳(メタデータ) (2023-03-31T07:29:36Z) - An Experimental Study of Dimension Reduction Methods on Machine Learning
Algorithms with Applications to Psychometrics [77.34726150561087]
次元の減少は、変数の減少を伴わないのと同じ精度で減少、増大、あるいは達成できることを示す。
我々の暫定的な結果は、次元の減少が分類タスクに使用する場合、より良い性能をもたらす傾向があることを見出した。
論文 参考訳(メタデータ) (2022-10-19T22:07:13Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - A Provably Efficient Model-Free Posterior Sampling Method for Episodic
Reinforcement Learning [50.910152564914405]
強化学習のための既存の後方サンプリング手法は、モデルベースであるか、線形MDPを超える最悪の理論的保証がないかによって制限される。
本稿では,理論的保証を伴うより一般的な補足的強化学習問題に適用可能な,後部サンプリングのモデルフリーな新しい定式化を提案する。
論文 参考訳(メタデータ) (2022-08-23T12:21:01Z) - Supervised PCA: A Multiobjective Approach [70.99924195791532]
制御主成分分析法(SPCA)
本研究では,これらの目的を両立させる新しいSPCA手法を提案する。
この手法は、任意の教師付き学習損失に対応し、統計的再構成により、一般化された線形モデルの新しい低ランク拡張を提供する。
論文 参考訳(メタデータ) (2020-11-10T18:46:58Z) - Approximation Algorithms for Sparse Principal Component Analysis [57.5357874512594]
主成分分析(PCA)は、機械学習と統計学において広く使われている次元削減手法である。
スパース主成分分析(Sparse principal Component Analysis)と呼ばれる,スパース主成分負荷を求める様々な手法が提案されている。
本研究では,SPCA問題に対するしきい値の精度,時間,近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-23T04:25:36Z) - Physically interpretable machine learning algorithm on multidimensional
non-linear fields [0.0]
PCE(Polynomial Chaos Expansion)は、確率的入出力マッピングの堅牢な表現として長年使われてきた。
パターン認識やデータ圧縮にDR技術がますます使われている。
本研究の目的は,PODとPCEを組み合わせてフィールド計測に基づく予測を行うことである。
論文 参考訳(メタデータ) (2020-05-28T11:26:06Z) - Bayesian System ID: Optimal management of parameter, model, and
measurement uncertainty [0.0]
システム識別(ID)の確率的定式化の頑健さを,スパース,ノイズ,間接データに対して評価した。
従来手法の目的関数面と比較して,ログ後部は幾何学的特性が向上したことを示す。
論文 参考訳(メタデータ) (2020-03-04T22:48:30Z) - A kernel Principal Component Analysis (kPCA) digest with a new backward
mapping (pre-image reconstruction) strategy [0.0]
主成分分析(PCA)は、データが線形構造を持つ場合、非常に効果的である。
しかし、データが非線形の低次元多様体に属する場合、次元減少の可能性を特定することに失敗する。
非線形次元の削減のために、カーネル主成分分析(kPCA)は、その単純さと実装の容易さから評価されている。
論文 参考訳(メタデータ) (2020-01-07T10:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。