論文の概要: Probabilistic Geometric Principal Component Analysis with application to neural data
- arxiv url: http://arxiv.org/abs/2509.18469v1
- Date: Mon, 22 Sep 2025 23:00:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.60978
- Title: Probabilistic Geometric Principal Component Analysis with application to neural data
- Title(参考訳): 確率的幾何学的主成分分析とニューラルデータへの応用
- Authors: Han-Lin Hsieh, Maryam M. Shanechi,
- Abstract要約: 神経科学の応用において、データはユークリッド空間に横たわるのではなく、非線形幾何学(つまり多様体)の周りに分散される。
本研究では,新しい次元化アルゴリズムとして,確率的幾何学的主成分分析法(PGPCA)を開発した。
- 参考スコア(独自算出の注目度): 2.1485350418225244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dimensionality reduction is critical across various domains of science including neuroscience. Probabilistic Principal Component Analysis (PPCA) is a prominent dimensionality reduction method that provides a probabilistic approach unlike the deterministic approach of PCA and serves as a connection between PCA and Factor Analysis (FA). Despite their power, PPCA and its extensions are mainly based on linear models and can only describe the data in a Euclidean coordinate system. However, in many neuroscience applications, data may be distributed around a nonlinear geometry (i.e., manifold) rather than lying in the Euclidean space. We develop Probabilistic Geometric Principal Component Analysis (PGPCA) for such datasets as a new dimensionality reduction algorithm that can explicitly incorporate knowledge about a given nonlinear manifold that is first fitted from these data. Further, we show how in addition to the Euclidean coordinate system, a geometric coordinate system can be derived for the manifold to capture the deviations of data from the manifold and noise. We also derive a data-driven EM algorithm for learning the PGPCA model parameters. As such, PGPCA generalizes PPCA to better describe data distributions by incorporating a nonlinear manifold geometry. In simulations and brain data analyses, we show that PGPCA can effectively model the data distribution around various given manifolds and outperforms PPCA for such data. Moreover, PGPCA provides the capability to test whether the new geometric coordinate system better describes the data than the Euclidean one. Finally, PGPCA can perform dimensionality reduction and learn the data distribution both around and on the manifold. These capabilities make PGPCA valuable for enhancing the efficacy of dimensionality reduction for analysis of high-dimensional data that exhibit noise and are distributed around a nonlinear manifold.
- Abstract(参考訳): 次元の減少は神経科学を含む様々な科学分野において重要である。
確率的主成分分析(PPCA)は、PCAの決定論的アプローチとは異なり、確率論的アプローチを提供し、PCAと因子分析(FA)の接続として機能する顕著な次元削減手法である。
PPCAとその拡張は主に線形モデルに基づいており、ユークリッド座標系でのみデータを記述することができる。
しかし、多くの神経科学の応用において、データはユークリッド空間に横たわるのではなく、非線形幾何学(つまり多様体)の周りに分散されることがある。
本研究では,これらのデータから最初に適用された非線形多様体に関する知識を明示的に組み込むことのできる,新しい次元削減アルゴリズムとして,これらのデータセットに対する確率的幾何学的主成分分析(PGPCA)を開発した。
さらに、ユークリッド座標系に加えて、多様体に対する幾何座標系を導出し、多様体からのデータの偏差とノイズを捉える方法を示す。
PGPCAモデルパラメータを学習するためのデータ駆動型EMアルゴリズムも提案する。
このようにして PGPCA は PPCA を一般化し、非線形多様体幾何を組み込むことでデータ分布をよりよく記述する。
シミュレーションおよび脳データ解析において、PGPCAは、与えられた多様体の周囲のデータ分布を効果的にモデル化し、これらのデータに対してPPCAより優れていることを示す。
さらに、PGPCAはユークリッド座標よりも、新しい幾何座標系がデータをよりよく記述するかどうかをテストする能力を提供する。
最後に、PGPCAは次元の減少を図り、多様体の前後でデータの分布を学習することができる。
これらの能力により、PGPCAは、ノイズを呈し、非線形多様体の周りに分布する高次元データの解析における次元還元の有効性を高めるのに有用である。
関連論文リスト
- Enforcing Latent Euclidean Geometry in Single-Cell VAEs for Manifold Interpolation [79.27003481818413]
離散的様相変分オートエンコーダの潜在多様体をユークリッド幾何学へ正規化する訓練フレームワークであるFlatVIを紹介する。
遅延空間の直線を復号化された単セル多様体上の測地線に近似させることで、FlatVIは下流アプローチとの整合性を高める。
論文 参考訳(メタデータ) (2025-07-15T23:08:14Z) - CP$^2$: Leveraging Geometry for Conformal Prediction via Canonicalization [51.716834831684004]
幾何データシフトにおける共形予測(CP)の問題について検討する。
本稿では,幾何的ポーズなどの幾何学的情報を統合することを提案する。
論文 参考訳(メタデータ) (2025-06-19T10:12:02Z) - Riemannian Principal Component Analysis [0.0]
本稿では,従来のユークリッド空間におけるデータの仮定を超越した,主成分分析(PCA)の革新的拡張を提案する。
局所測度を含むようにPCAを適用し、多様体幾何を組み込むことができる。
論文 参考訳(メタデータ) (2025-05-30T21:04:01Z) - Wrapped Gaussian on the manifold of Symmetric Positive Definite Matrices [6.7523635840772505]
円形および非平坦なデータ分布は、データ科学の様々な領域で広く使われている。
このようなデータの基盤となる幾何学を考慮に入れるための原則的なアプローチは、重要なものである。
この研究は、古典的な機械学習と統計手法をより複雑で構造化されたデータに拡張するための基礎となる。
論文 参考訳(メタデータ) (2025-02-03T16:46:46Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Parametrizing Product Shape Manifolds by Composite Networks [5.772786223242281]
形状空間に対する効率的なニューラルネットワーク近似を特別な積構造で学習することは可能であることを示す。
提案アーキテクチャは,低次元因子の近似とその後の組み合わせを別々に学習することで,この構造を利用する。
論文 参考訳(メタデータ) (2023-02-28T15:31:23Z) - Towards a mathematical understanding of learning from few examples with
nonlinear feature maps [68.8204255655161]
トレーニングセットがわずか数個のデータポイントから構成されるデータ分類の問題を考える。
我々は、AIモデルの特徴空間の幾何学、基礎となるデータ分布の構造、モデルの一般化能力との間の重要な関係を明らかにする。
論文 参考訳(メタデータ) (2022-11-07T14:52:58Z) - Study of Manifold Geometry using Multiscale Non-Negative Kernel Graphs [32.40622753355266]
データの幾何学的構造を研究するための枠組みを提案する。
我々は最近導入された非負のカーネル回帰グラフを用いて、点密度、固有次元、およびデータ多様体(曲率)の線型性を推定する。
論文 参考訳(メタデータ) (2022-10-31T17:01:17Z) - Learning from few examples with nonlinear feature maps [68.8204255655161]
我々はこの現象を探求し、AIモデルの特徴空間の次元性、データ分散の非退化、モデルの一般化能力の間の重要な関係を明らかにする。
本分析の主な推力は、元のデータを高次元および無限次元空間にマッピングする非線形特徴変換が結果のモデル一般化能力に与える影響である。
論文 参考訳(メタデータ) (2022-03-31T10:36:50Z) - Mix Dimension in Poincar\'{e} Geometry for 3D Skeleton-based Action
Recognition [57.98278794950759]
グラフ畳み込みネットワーク(GCN)はすでに、不規則なデータをモデル化する強力な能力を実証している。
本稿では,ポアンカー幾何学を用いて定義した空間時空間GCNアーキテクチャを提案する。
提案手法を,現在最大規模の2つの3次元データセット上で評価する。
論文 参考訳(メタデータ) (2020-07-30T18:23:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。