論文の概要: Principal Component Analysis in Space Forms
- arxiv url: http://arxiv.org/abs/2301.02750v1
- Date: Fri, 6 Jan 2023 23:48:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 16:25:38.592114
- Title: Principal Component Analysis in Space Forms
- Title(参考訳): 宇宙空間における主成分分析
- Authors: Puoya Tabaghi, Michael Khanzadeh, Yusu Wang, Sivash Mirarab
- Abstract要約: 主成分分析(PCA)は、現代のデータ科学の成果である。
我々は空間形式、すなわち正(球面)と負(双曲)の曲率を持つ空間でPCAを研究する。
そこで我々は,(1) ユークリッドPCAと同様の等式を解くことでアフィン部分空間を推定し,(2) 異なる次元の最適アフィン部分空間をネスト集合とする,という2つの大きな利点をもたらす特定のコスト関数を提案する。
- 参考スコア(独自算出の注目度): 12.68016341044634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Principal component analysis (PCA) is a workhorse of modern data science.
Practitioners typically perform PCA assuming the data conforms to Euclidean
geometry. However, for specific data types, such as hierarchical data, other
geometrical spaces may be more appropriate. We study PCA in space forms; that
is, those with constant positive (spherical) and negative (hyperbolic)
curvatures, in addition to zero-curvature (Euclidean) spaces. At any point on a
Riemannian manifold, one can define a Riemannian affine subspace based on a set
of tangent vectors and use invertible maps to project tangent vectors to the
manifold and vice versa. Finding a low-dimensional Riemannian affine subspace
for a set of points in a space form amounts to dimensionality reduction
because, as we show, any such affine subspace is isometric to a space form of
the same dimension and curvature. To find principal components, we seek a
(Riemannian) affine subspace that best represents a set of manifold-valued data
points with the minimum average cost of projecting data points onto the affine
subspace. We propose specific cost functions that bring about two major
benefits: (1) the affine subspace can be estimated by solving an eigenequation
-- similar to that of Euclidean PCA, and (2) optimal affine subspaces of
different dimensions form a nested set. These properties provide advances over
existing methods which are mostly iterative algorithms with slow convergence
and weaker theoretical guarantees. Specifically for hyperbolic PCA, the
associated eigenequation operates in the Lorentzian space, endowed with an
indefinite inner product; we thus establish a connection between Lorentzian and
Euclidean eigenequations. We evaluate the proposed space form PCA on data sets
simulated in spherical and hyperbolic spaces and show that it outperforms
alternative methods in convergence speed or accuracy, often both.
- Abstract(参考訳): 主成分分析(PCA)は、現代のデータ科学の成果である。
実践者は通常、データがユークリッド幾何学に適合するとpcaを行う。
しかし、階層データのような特定のデータ型の場合、他の幾何学的空間の方が適切である。
我々は、ゼロ曲率(ユークリッド)空間に加えて、定数正(球面)および負(双曲)曲率を持つ空間形式でPCAを研究する。
リーマン多様体上の任意の点において、接ベクトルの集合に基づくリーマンアフィン部分空間を定義でき、可逆写像を使って多様体への接ベクトルを射影し、逆もまたできる。
空間形式における点の集合に対する低次元リーマンアフィン部分空間を見つけることは、そのようなアフィン部分空間が同じ次元と曲率の空間形式に等長であるため、次元の減少に等しい。
主成分を見つけるために、アフィン部分空間にデータ点を投影する最小平均コストで多様体値のデータ点の集合を最もよく表現する(リーマン的)アフィン部分空間を求める。
そこで我々は,(1) ユークリッドPCAと同様の等式を解くことでアフィン部分空間を推定し,(2) 異なる次元の最適アフィン部分空間をネスト集合とする,という2つの大きな利点をもたらす特定のコスト関数を提案する。
これらの性質は、ほとんどが収束が遅く、理論的な保証が弱い反復アルゴリズムである既存の方法よりも進歩する。
特に双曲型 PCA の場合、関連する等式はローレンツ空間で作用し、不定内積が与えられ、したがってローレンツ空間とユークリッド空間の等式の間の接続を確立する。
球面および双曲空間でシミュレートされたデータセット上で提案した空間形式PCAを評価し,コンバージェンス速度や精度において他の手法よりも優れていることを示す。
関連論文リスト
- Improving embedding of graphs with missing data by soft manifolds [51.425411400683565]
グラフ埋め込みの信頼性は、連続空間の幾何がグラフ構造とどの程度一致しているかに依存する。
我々は、この問題を解決することができる、ソフト多様体と呼ばれる新しい多様体のクラスを導入する。
グラフ埋め込みにソフト多様体を用いることで、複雑なデータセット上のデータ解析における任意のタスクを追求するための連続空間を提供できる。
論文 参考訳(メタデータ) (2023-11-29T12:48:33Z) - Parametrizing Product Shape Manifolds by Composite Networks [5.772786223242281]
形状空間に対する効率的なニューラルネットワーク近似を特別な積構造で学習することは可能であることを示す。
提案アーキテクチャは,低次元因子の近似とその後の組み合わせを別々に学習することで,この構造を利用する。
論文 参考訳(メタデータ) (2023-02-28T15:31:23Z) - nSimplex Zen: A Novel Dimensionality Reduction for Euclidean and Hilbert
Spaces [0.5076419064097734]
次元低減技術は、高次元空間から低次元空間への値のマッピングを行う。
次元を減少させる新しいトポロジカル手法であるnSimplex Zenを導入する。
論文 参考訳(メタデータ) (2023-02-22T17:26:01Z) - Shape And Structure Preserving Differential Privacy [70.08490462870144]
正方形距離関数の勾配がラプラス機構よりも感度をよりよく制御できることを示す。
また,2乗距離関数の勾配を用いることで,ラプラス機構よりも感度を制御できることを示す。
論文 参考訳(メタデータ) (2022-09-21T18:14:38Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z) - Linear Classifiers in Mixed Constant Curvature Spaces [40.82908295137667]
我々は、ユークリッド空間、球面空間、双曲空間の混合である積空間形式の線形分類の問題に対処する。
我々は、$d$-次元定数曲率空間の線形分類子が正確に$d+1$点を粉砕できることを証明した。
新規なパーセプトロン分類アルゴリズムを記述し、厳密な収束結果を確立する。
論文 参考訳(メタデータ) (2021-02-19T23:29:03Z) - Switch Spaces: Learning Product Spaces with Sparse Gating [48.591045282317424]
製品空間における表現を学習するためのデータ駆動アプローチであるswitch spacesを提案する。
我々は空間の選択、結合、切り替えを学習するスパースゲーティング機構を導入する。
知識グラフの補完と項目レコメンデーションの実験により,提案したスイッチ空間が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2021-02-17T11:06:59Z) - Joint and Progressive Subspace Analysis (JPSA) with Spatial-Spectral
Manifold Alignment for Semi-Supervised Hyperspectral Dimensionality Reduction [48.73525876467408]
本稿では,超スペクトル部分空間解析のための新しい手法を提案する。
この手法はジョイント・アンド・プログレッシブ・サブスペース分析(JPSA)と呼ばれる。
2つの広帯域超スペクトルデータセットに対して提案したJPSAの優位性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-09-21T16:29:59Z) - Ultrahyperbolic Representation Learning [13.828165530602224]
機械学習では、データは通常、点間の距離が直線に沿っているユークリッド空間で表現される。
定数非零曲率の擬リーマン多様体上に存在する表現を提案する。
この幾何学において必要な学習ツールを提供し、勾配に基づく最適化手法を拡張した。
論文 参考訳(メタデータ) (2020-07-01T03:49:24Z) - Geometry of Similarity Comparisons [51.552779977889045]
空間形式の順序容量は、その次元と曲率の符号に関係していることを示す。
さらに重要なことは、類似性グラフ上で定義された順序拡散確率変数の統計的挙動が、その基礎となる空間形式を特定するのに利用できることである。
論文 参考訳(メタデータ) (2020-06-17T13:37:42Z) - Is an Affine Constraint Needed for Affine Subspace Clustering? [27.00532615975731]
コンピュータビジョンアプリケーションでは、サブスペースは線形であり、サブスペースクラスタリング法を直接適用することができる。
運動セグメンテーションでは、部分空間はアフィンであり、係数に対する追加のアフィン制約はしばしば強制される。
本稿では,アフィン空間の次元がアフィン部分空間の次元の和に対して高い場合,アフィン制約がクラスタリング性能に無視できない効果を持つことを示す。
論文 参考訳(メタデータ) (2020-05-08T07:52:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。