論文の概要: High-Dimensional Partial Least Squares: Spectral Analysis and Fundamental Limitations
- arxiv url: http://arxiv.org/abs/2512.15684v1
- Date: Wed, 17 Dec 2025 18:38:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.102832
- Title: High-Dimensional Partial Least Squares: Spectral Analysis and Fundamental Limitations
- Title(参考訳): 高次元部分最小方形:スペクトル解析と基本限界
- Authors: Victor Léger, Florent Chatelain,
- Abstract要約: Partial Least Squares (PLS)は、ペア化された高次元データセット間で共有される潜在コンポーネントを抽出するために設計された、データ統合のための広く使われている方法である。
数十年にわたる実践的な成功にもかかわらず、高次元の体制における行動に関する正確な理論的理解は依然として限られている。
以上の結果から,高次元PSS-SVDの包括的理論的理解が得られ,その利点と基本的限界を明らかにした。
- 参考スコア(独自算出の注目度): 2.9793019246605676
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Partial Least Squares (PLS) is a widely used method for data integration, designed to extract latent components shared across paired high-dimensional datasets. Despite decades of practical success, a precise theoretical understanding of its behavior in high-dimensional regimes remains limited. In this paper, we study a data integration model in which two high-dimensional data matrices share a low-rank common latent structure while also containing individual-specific components. We analyze the singular vectors of the associated cross-covariance matrix using tools from random matrix theory and derive asymptotic characterizations of the alignment between estimated and true latent directions. These results provide a quantitative explanation of the reconstruction performance of the PLS variant based on Singular Value Decomposition (PLS-SVD) and identify regimes where the method exhibits counter-intuitive or limiting behavior. Building on this analysis, we compare PLS-SVD with principal component analysis applied separately to each dataset and show its asymptotic superiority in detecting the common latent subspace. Overall, our results offer a comprehensive theoretical understanding of high-dimensional PLS-SVD, clarifying both its advantages and fundamental limitations.
- Abstract(参考訳): Partial Least Squares (PLS)は、ペア化された高次元データセット間で共有される潜在コンポーネントを抽出するために設計された、データ統合のための広く使われている方法である。
数十年にわたる実践的な成功にもかかわらず、高次元の体制における行動に関する正確な理論的理解は依然として限られている。
本稿では,2つの高次元データ行列が,個々の成分を包含しつつ,低ランクな共通潜伏構造を共有するデータ統合モデルについて検討する。
確率行列理論からツールを用いて、関連するクロス共分散行列の特異ベクトルを解析し、推定方向と真の潜伏方向のアライメントの漸近的特徴を導出する。
これらの結果は,PLS-SVD(Singular Value Decomposition)に基づくPLS変異体の再構成性能を定量的に説明し,その手法が直感的あるいは制限的動作を示す状態を特定する。
この分析に基づいて、PSS-SVDと各データセットに別々に適用された主成分分析を比較し、共通潜伏部分空間の検出においてその漸近的優位性を示す。
その結果,高次元PSS-SVDの総合的理論的理解が得られ,その利点と基本的限界が明らかになった。
関連論文リスト
- Stacked SVD or SVD stacked? A Random Matrix Theory perspective on data integration [7.304283080560899]
現代のデータ分析では、複数の高次元データセット間で共有潜在構造を識別する必要がある。
この共有構造を推定するための2つの主要な方法は、データセット間で情報を統合する方法によって異なる。
これら2つの手法の性能および相転移の正確な表現を開発し、両手法をさらに改善するために最適な重み付け手法を開発した。
論文 参考訳(メタデータ) (2025-07-29T19:03:01Z) - Optimal Estimation of Shared Singular Subspaces across Multiple Noisy Matrices [3.3373545585860596]
本研究は,低ランク行列デノジングフレームワークにおいて,複数の行列にまたがる共有(左)特異部分空間を推定することに焦点を当てる。
信号行列の真の特異部分空間が同一である場合、Stack-SVDは最小の最大速度最適化を実現する。
部分的共有の様々なケースにおいて、Stack-SVDが有効であり続ける条件を厳格に特徴付け、最小限の最適性を達成したり、一貫した見積もりを達成できなかったりする。
論文 参考訳(メタデータ) (2024-11-26T02:49:30Z) - Entropic Optimal Transport Eigenmaps for Nonlinear Alignment and Joint Embedding of High-Dimensional Datasets [11.105392318582677]
本稿では,理論的保証付きデータセットの整列と共同埋め込みの原理的アプローチを提案する。
提案手法は,2つのデータセット間のEOT計画行列の先頭特異ベクトルを利用して,それらの共通基盤構造を抽出する。
EOT計画では,高次元状態において,潜伏変数の位置で評価されたカーネル関数を近似することにより,共有多様体構造を復元する。
論文 参考訳(メタデータ) (2024-07-01T18:48:55Z) - Kernel spectral joint embeddings for high-dimensional noisy datasets using duo-landmark integral operators [9.782959684053631]
本研究では、2つの独立に観測された高次元ノイズデータセットの結合埋め込みを実現する新しいカーネルスペクトル法を提案する。
得られた低次元埋め込みは、同時クラスタリング、データの可視化、デノイングなど、多くの下流タスクに利用できる。
論文 参考訳(メタデータ) (2024-05-20T18:29:36Z) - Synergistic eigenanalysis of covariance and Hessian matrices for enhanced binary classification [72.77513633290056]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
本手法は複雑なパターンと関係を抽出し,分類性能を向上する。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - coVariance Neural Networks [119.45320143101381]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ内の相互関係を利用して学習する効果的なフレームワークである。
我々は、サンプル共分散行列をグラフとして扱う、共分散ニューラルネットワーク(VNN)と呼ばれるGNNアーキテクチャを提案する。
VNN の性能は PCA ベースの統計手法よりも安定していることを示す。
論文 参考訳(メタデータ) (2022-05-31T15:04:43Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - Asymptotic Analysis of an Ensemble of Randomly Projected Linear
Discriminants [94.46276668068327]
[1]では、ランダムに投影された線形判別式のアンサンブルを用いてデータセットを分類する。
我々は,計算コストのかかるクロスバリデーション推定器の代替として,誤分類確率の一貫した推定器を開発する。
また、実データと合成データの両方で投影次元を調整するための推定器の使用を実証する。
論文 参考訳(メタデータ) (2020-04-17T12:47:04Z) - D-GCCA: Decomposition-based Generalized Canonical Correlation Analysis
for Multi-view High-dimensional Data [11.184915338554422]
高次元多視点データ分析における一般的なモデルは、各ビューのデータ行列を、すべてのデータビューに共通する潜在因子によって生成される低ランクの共通ソース行列に分解する。
本稿では,分解に基づく一般化正準相関解析(D-GCCA)と呼ばれる新しい分解法を提案する。
我々のD-GCCAは、共通成分と特異成分を正準変数から分離することにより、一般化された正準相関解析よりも一歩前進する。
論文 参考訳(メタデータ) (2020-01-09T06:35:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。