論文の概要: Learning to Normalize on the SPD Manifold under Bures-Wasserstein Geometry
- arxiv url: http://arxiv.org/abs/2504.00660v1
- Date: Tue, 01 Apr 2025 11:12:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:20:22.927835
- Title: Learning to Normalize on the SPD Manifold under Bures-Wasserstein Geometry
- Title(参考訳): Bures-Wasserstein 幾何学によるSPD多様体上の正規化の学習
- Authors: Rui Wang, Shaocheng Jin, Ziheng Chen, Xiaoqing Luo, Xiao-Jun Wu,
- Abstract要約: 共分散行列は多くの科学分野において非常に有効であることが証明されている。
表現学習における主要な課題は、この基礎となる幾何学的構造を尊重することである。
本稿では,学習可能なパラメータを組み込んだ新しいRBNアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 11.846361701184254
- License:
- Abstract: Covariance matrices have proven highly effective across many scientific fields. Since these matrices lie within the Symmetric Positive Definite (SPD) manifold - a Riemannian space with intrinsic non-Euclidean geometry, the primary challenge in representation learning is to respect this underlying geometric structure. Drawing inspiration from the success of Euclidean deep learning, researchers have developed neural networks on the SPD manifolds for more faithful covariance embedding learning. A notable advancement in this area is the implementation of Riemannian batch normalization (RBN), which has been shown to improve the performance of SPD network models. Nonetheless, the Riemannian metric beneath the existing RBN might fail to effectively deal with the ill-conditioned SPD matrices (ICSM), undermining the effectiveness of RBN. In contrast, the Bures-Wasserstein metric (BWM) demonstrates superior performance for ill-conditioning. In addition, the recently introduced Generalized BWM (GBWM) parameterizes the vanilla BWM via an SPD matrix, allowing for a more nuanced representation of vibrant geometries of the SPD manifold. Therefore, we propose a novel RBN algorithm based on the GBW geometry, incorporating a learnable metric parameter. Moreover, the deformation of GBWM by matrix power is also introduced to further enhance the representational capacity of GBWM-based RBN. Experimental results on different datasets validate the effectiveness of our proposed method.
- Abstract(参考訳): 共分散行列は多くの科学分野において非常に有効であることが証明されている。
これらの行列は対称正定値 (SPD) 多様体 (Symmetric Positive Definite) 内にあるので、非ユークリッド幾何学を持つリーマン空間は、表現学習の第一の課題は、この基礎となる幾何学的構造を尊重することである。
ユークリッドのディープラーニングの成功から着想を得た研究者たちは、より忠実な共分散埋め込み学習のためのSPD多様体上のニューラルネットワークを開発した。
この領域の顕著な進歩は、SPDネットワークモデルの性能向上を図ったリーマンバッチ正規化(RBN)の実装である。
それでも、既存の RBN の下にあるリーマン計量は、不条件の SPD 行列 (ICSM) を効果的に扱うことができず、RBN の有効性を損なう可能性がある。
対照的に、ビューレス=ヴァッサーシュタイン計量(BWM)は、条件が悪ければ優れた性能を示す。
さらに、最近導入された一般BWM (GBWM) は、SPD行列を介してバニラBWMをパラメータ化し、SPD多様体の活測度のよりニュアンスな表現を可能にする。
そこで本研究では,学習可能なパラメータを組み込んだGBW幾何に基づく新しいRBNアルゴリズムを提案する。
さらに, GBWMベースのRBNの表現能力を高めるために, 行列パワーによるGBWMの変形も導入した。
実験結果から,提案手法の有効性を検証した。
関連論文リスト
- RMLR: Extending Multinomial Logistic Regression into General Geometries [64.16104856124029]
我々のフレームワークは、最小限の幾何学的性質しか必要とせず、広い適用性を示す。
SPD MLRの5つのファミリーを5種類のパワー変形測定値に基づいて開発する。
回転行列上では、人気のある双不変計量に基づいてリー MLR を提案する。
論文 参考訳(メタデータ) (2024-09-28T18:38:21Z) - Riemannian Self-Attention Mechanism for SPD Networks [34.794770395408335]
本稿では,SPD多様体自己アテンション機構(SMSA)を提案する。
構造化表現の識別を改善するためにSMSAベースの幾何学習モジュール(SMSA-GL)を設計する。
論文 参考訳(メタデータ) (2023-11-28T12:34:46Z) - Riemannian Multinomial Logistics Regression for SPD Neural Networks [60.11063972538648]
本稿では,Symmetric Positive Definite (SPD) 行列のための新しいタイプのディープニューラルネットワークを提案する。
我々のフレームワークは、既存のSPDネットワークで最も人気のあるLogEig分類器について、斬新な説明を提供する。
本手法の有効性は,レーダ認識,人行動認識,脳波分類(EEG)の3つの応用で実証された。
論文 参考訳(メタデータ) (2023-05-18T20:12:22Z) - Adaptive Log-Euclidean Metrics for SPD Matrix Learning [73.12655932115881]
広く使われているログユークリッド計量(LEM)を拡張した適応ログユークリッド計量(ALEM)を提案する。
実験および理論的結果から,SPDニューラルネットワークの性能向上における提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-03-26T18:31:52Z) - Manifold Gaussian Variational Bayes on the Precision Matrix [70.44024861252554]
複雑なモデルにおける変分推論(VI)の最適化アルゴリズムを提案する。
本研究では,変分行列上の正定値制約を満たすガウス変分推論の効率的なアルゴリズムを開発した。
MGVBPはブラックボックスの性質のため、複雑なモデルにおけるVIのための準備が整ったソリューションである。
論文 参考訳(メタデータ) (2022-10-26T10:12:31Z) - Regression Trees on Grassmann Manifold for Adapting Reduced-Order Models [5.738225199806076]
縮小次数モデル(ROM)は高次元系の支配的な振る舞いを捉えるために広く用いられている。
ROMは、よく知られた固有直交分解(POD)を用いて、全階モデルをモーダル基底モードで区切られた部分空間に投影することで得ることができる。
本稿では,Grassmann Manifold上の回帰木を用いて,全階モデルが投影される低次元部分空間にまたがるパラメータとPOD基底のマッピングを学習する。
論文 参考訳(メタデータ) (2022-06-22T18:57:36Z) - On Riemannian Optimization over Positive Definite Matrices with the
Bures-Wasserstein Geometry [45.1944007785671]
本稿では,Bres-Wasserstein (BW) 幾何を一般的な Affine-Invariant (AI) 幾何を用いて解析する。
我々は、AIメトリックの二次的依存とは対照的に、BWメトリックがSPD行列に線形依存しているという観測に基づいて構築する。
BW幾何学は非負の曲率を持ち、非正の曲線を持つAI幾何に対するアルゴリズムの収束率をさらに向上させることを示す。
論文 参考訳(メタデータ) (2021-06-01T07:39:19Z) - Learning Log-Determinant Divergences for Positive Definite Matrices [47.61701711840848]
本稿では,データ駆動方式で類似度を学習することを提案する。
スカラーアルファとベータによってパラメトリ化されたメタダイバージェンスであるalphabeta-log-detの発散を利用する。
私たちの重要なアイデアは、これらのパラメータを連続体にキャストし、データから学ぶことです。
論文 参考訳(メタデータ) (2021-04-13T19:09:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。