論文の概要: Lipschitz Bounds for Persistent Laplacian Eigenvalues under One-Simplex Insertions
- arxiv url: http://arxiv.org/abs/2506.21352v1
- Date: Thu, 26 Jun 2025 15:03:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.14861
- Title: Lipschitz Bounds for Persistent Laplacian Eigenvalues under One-Simplex Insertions
- Title(参考訳): 1-Simplex 条件下での持続ラプラシアン固有値に対するリプシッツ境界
- Authors: Le Vu Anh, Mehmet Dik, Nguyen Viet Anh,
- Abstract要約: 我々は、永続ラプラシアンに対して一様リプシッツを有界に証明する。
スペクトルトポロジカルデータ解析における最初の固有値レベルの保証を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Persistent Laplacians are matrix operators that track how the shape and structure of data transform across scales and are popularly adopted in biology, physics, and machine learning. Their eigenvalues are concise descriptors of geometric and topological features in a filtration. Although earlier work established global algebraic stability for these operators, the precise change in a single eigenvalue when one simplex, such as a vertex, edge, or triangle, is added has remained unknown. This is important because downstream tools, including heat-kernel signatures and spectral neural networks, depend directly on these eigenvalues. We close this gap by proving a uniform Lipschitz bound: after inserting one simplex, every up-persistent Laplacian eigenvalue can vary by at most twice the Euclidean norm of that simplex's boundary, independent of filtration scale and complex size. This result delivers the first eigenvalue-level robustness guarantee for spectral topological data analysis. It guarantees that spectral features remain stable under local updates and enables reliable error control in dynamic data settings.
- Abstract(参考訳): 永続ラプラシアン(Persistent Laplacian)は、データの形状と構造がスケールによってどのように変化するかを追跡する行列演算子であり、生物学、物理学、機械学習で広く採用されている。
固有値は、濾過における幾何学的特徴と位相的特徴の簡潔な記述子である。
初期の研究はこれらの作用素に対する大域的代数的安定性を確立したが、頂点、辺、三角形のような1つの単純集合が加わったときの1つの固有値の正確な変化は未知のままである。
熱カーネルシグネチャやスペクトルニューラルネットワークなどの下流ツールは、これらの固有値に直接依存するため、これは重要である。
均一なリプシッツ境界を証明することにより、このギャップを閉じる: 1つの単純体を挿入した後、すべてのラプラシアン固有値は、その単純体の境界のユークリッドノルムの少なくとも2倍は、濾過スケールと複素サイズに依存しない。
この結果から,スペクトルトポロジカルデータ解析における固有値レベルのロバスト性保証が実現された。
スペクトル機能はローカル更新の下で安定し、動的データ設定で信頼性の高いエラー制御を可能にする。
関連論文リスト
- Towards Spectral Convergence of Locally Linear Embedding on Manifolds with Boundary [0.0]
局所線形埋め込み(Locally Linear Embedding)と呼ばれる教師なし学習アルゴリズムの振る舞いを制御した微分演算子の固有値と固有関数について検討する。
固有関数上の自然な正則性条件は一貫した境界条件を課し、フロベニウス法を用いて点的挙動を推定する。
論文 参考訳(メタデータ) (2025-01-16T14:45:53Z) - Towards Stable, Globally Expressive Graph Representations with Laplacian Eigenvectors [29.055130767451036]
本稿では,ラプラシアン固有ベクトルを用いて,安定かつグローバルに表現可能なグラフ表現を生成する手法を提案する。
提案手法は, 数値的近接固有値を円滑に処理し, 摂動に対するロバスト性を向上する。
論文 参考訳(メタデータ) (2024-10-13T06:02:25Z) - Entrywise error bounds for low-rank approximations of kernel matrices [55.524284152242096]
切り抜き固有分解を用いて得られたカーネル行列の低ランク近似に対するエントリーワイド誤差境界を導出する。
重要な技術的革新は、小さな固有値に対応するカーネル行列の固有ベクトルの非局在化結果である。
我々は、合成および実世界のデータセットの集合に関する実証的研究により、我々の理論を検証した。
論文 参考訳(メタデータ) (2024-05-23T12:26:25Z) - Improving Expressive Power of Spectral Graph Neural Networks with Eigenvalue Correction [55.57072563835959]
本稿では,繰り返し入力される固有値の制約からフィルタを解放する固有値補正手法を提案する。
具体的には、提案した固有値補正戦略により、固有値の均一分布が向上し、フィルタの適合能力と表現力が向上する。
論文 参考訳(メタデータ) (2024-01-28T08:12:00Z) - On the Stability of Expressive Positional Encodings for Graphs [46.967035678550594]
ラプラシア固有ベクトルを位置符号化として使用することは、2つの根本的な課題に直面している。
SPE(Stable and Expressive Positional Generalizations)を紹介する。
SPEは(1)確率的に安定であり、(2)基底不変関数に対して普遍的に表現できる最初のアーキテクチャである。
論文 参考訳(メタデータ) (2023-10-04T04:48:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。