論文の概要: Riemannian statistics meets random matrix theory: towards learning from
high-dimensional covariance matrices
- arxiv url: http://arxiv.org/abs/2203.00204v1
- Date: Tue, 1 Mar 2022 03:16:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 15:37:45.175589
- Title: Riemannian statistics meets random matrix theory: towards learning from
high-dimensional covariance matrices
- Title(参考訳): リーマン統計は確率行列理論に合致する:高次元共分散行列からの学習に向けて
- Authors: Salem Said, Simon Heuveline, Cyrus Mostajeran
- Abstract要約: 本稿では,高次元共分散行列の空間上でのリーマン・ガウス分布に関連する正規化因子の計算方法が存在しないことを示す。
この欠落法は、ランダム行列理論との予期せぬ新しい関係から来ていることが示されている。
シミュレーション実験により、この新たな近似が現実のデータセットへの応用を妨げる困難を解き放つ方法が示されている。
- 参考スコア(独自算出の注目度): 2.352645870795664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Riemannian Gaussian distributions were initially introduced as basic building
blocks for learning models which aim to capture the intrinsic structure of
statistical populations of positive-definite matrices (here called covariance
matrices). While the potential applications of such models have attracted
significant attention, a major obstacle still stands in the way of these
applications: there seems to exist no practical method of computing the
normalising factors associated with Riemannian Gaussian distributions on spaces
of high-dimensional covariance matrices. The present paper shows that this
missing method comes from an unexpected new connection with random matrix
theory. Its main contribution is to prove that Riemannian Gaussian
distributions of real, complex, or quaternion covariance matrices are
equivalent to orthogonal, unitary, or symplectic log-normal matrix ensembles.
This equivalence yields a highly efficient approximation of the normalising
factors, in terms of a rather simple analytic expression. The error due to this
approximation decreases like the inverse square of dimension. Numerical
experiments are conducted which demonstrate how this new approximation can
unlock the difficulties which have impeded applications to real-world datasets
of high-dimensional covariance matrices. The paper then turns to Riemannian
Gaussian distributions of block-Toeplitz covariance matrices. These are
equivalent to yet another kind of random matrix ensembles, here called
"acosh-normal" ensembles. Orthogonal and unitary "acosh-normal" ensembles
correspond to the cases of block-Toeplitz with Toeplitz blocks, and
block-Toeplitz (with general blocks) covariance matrices, respectively.
- Abstract(参考訳): リーマンガウス分布は、正定値行列(以下共分散行列)の統計集団の内在的構造を捉えることを目的とした学習モデルの基本的な構成要素として最初に導入された。
このようなモデルの潜在的な応用は大きな注目を集めているが、これらの応用には依然として大きな障害があり、高次元共分散行列の空間上のリーマン・ガウス分布に関連する正規化因子を計算する実用的な方法は存在しないようである。
本稿では,この手法がランダム行列理論との予期せぬ新たな接続から生じることを示す。
その主な貢献は、実、複素、四元共分散行列のリーマン的ガウス分布が直交、ユニタリ、シンプレクティックな対正規行列アンサンブルと等価であることを証明することである。
この同値性は、かなり単純な解析式の観点から、正規化因子の高効率な近似をもたらす。
この近似による誤差は次元の逆二乗のように減少する。
数値実験を行い、この近似が高次元共分散行列の実世界のデータセットへの応用を妨げる困難をいかに解くかを示す。
その後、この論文はブロック-トプリッツ共分散行列のリーマン・ガウス分布に向く。
これらは「アコシュ正規」アンサンブルと呼ばれる他の種類のランダム行列アンサンブルと等価である。
直交的およびユニタリな"acosh-normal"アンサンブルは、それぞれ、toeplitzブロックとblock-toeplitz共分散行列のケースに対応する。
関連論文リスト
- Understanding Matrix Function Normalizations in Covariance Pooling through the Lens of Riemannian Geometry [63.694184882697435]
グローバル共分散プーリング(GCP)は、高レベルの表現の2階統計を利用して、ディープニューラルネットワーク(DNN)の性能を向上させることが実証されている。
論文 参考訳(メタデータ) (2024-07-15T07:11:44Z) - Entrywise error bounds for low-rank approximations of kernel matrices [55.524284152242096]
切り抜き固有分解を用いて得られたカーネル行列の低ランク近似に対するエントリーワイド誤差境界を導出する。
重要な技術的革新は、小さな固有値に対応するカーネル行列の固有ベクトルの非局在化結果である。
我々は、合成および実世界のデータセットの集合に関する実証的研究により、我々の理論を検証した。
論文 参考訳(メタデータ) (2024-05-23T12:26:25Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - On confidence intervals for precision matrices and the
eigendecomposition of covariance matrices [20.20416580970697]
本稿では,固定次元の共分散行列の固有ベクトルの個々のエントリに対する信頼性境界の計算に挑戦する。
逆共分散行列、いわゆる精度行列の成分を束縛する手法を導出する。
これらの結果の応用として,精度行列の非ゼロ値のテストを可能にする新しい統計テストを示す。
論文 参考訳(メタデータ) (2022-08-25T10:12:53Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Near optimal sample complexity for matrix and tensor normal models via
geodesic convexity [5.191641077435773]
いくつかの自然測度において、最大極大推定器(MLE)によって達成された誤差に対する漸近的境界を示す。
サンプルの複雑性境界と同じ条件下では、フリップフロップアルゴリズム(英語版)として知られるMLEを反復的に計算する手法が高い確率で線形に収束することを示す。
論文 参考訳(メタデータ) (2021-10-14T17:47:00Z) - Riemannian Gaussian distributions, random matrix ensembles and diffusion
kernels [0.0]
対称空間のランダム行列型における確率密度関数の限界値を計算する方法を示す。
また、確率密度関数が、リー群のワイルチャンバーにおける非交差過程を記述するカルリン・マクグレガー型の拡散核の特別な場合であることを示す。
論文 参考訳(メタデータ) (2020-11-27T11:41:29Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Optimal Iterative Sketching with the Subsampled Randomized Hadamard
Transform [64.90148466525754]
最小二乗問題に対する反復スケッチの性能について検討する。
本研究では、Haar行列とランダム化されたHadamard行列の収束速度が同一であることを示し、ランダムなプロジェクションを経時的に改善することを示した。
これらの手法は、ランダム化次元還元を用いた他のアルゴリズムにも適用することができる。
論文 参考訳(メタデータ) (2020-02-03T16:17:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。