論文の概要: Robust Tangent Space Estimation via Laplacian Eigenvector Gradient Orthogonalization
- arxiv url: http://arxiv.org/abs/2510.02308v1
- Date: Thu, 02 Oct 2025 17:59:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 14:32:17.298855
- Title: Robust Tangent Space Estimation via Laplacian Eigenvector Gradient Orthogonalization
- Title(参考訳): Laplacian Eigenvector Gradient Orthogonalizationによるロバスト・タンジェント空間の推定
- Authors: Dhruv Kohli, Sawyer J. Robertson, Gal Mishne, Alexander Cloninger,
- Abstract要約: データ多様体の接空間を推定することは、データ解析の基本的な問題である。
局所接空間推定を導くために,データのグローバル構造を利用したラプラシアン固有ベクトル勾配直交化法(LEGO)を提案する。
- 参考スコア(独自算出の注目度): 48.25304391127552
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating the tangent spaces of a data manifold is a fundamental problem in data analysis. The standard approach, Local Principal Component Analysis (LPCA), struggles in high-noise settings due to a critical trade-off in choosing the neighborhood size. Selecting an optimal size requires prior knowledge of the geometric and noise characteristics of the data that are often unavailable. In this paper, we propose a spectral method, Laplacian Eigenvector Gradient Orthogonalization (LEGO), that utilizes the global structure of the data to guide local tangent space estimation. Instead of relying solely on local neighborhoods, LEGO estimates the tangent space at each data point by orthogonalizing the gradients of low-frequency eigenvectors of the graph Laplacian. We provide two theoretical justifications of our method. First, a differential geometric analysis on a tubular neighborhood of a manifold shows that gradients of the low-frequency Laplacian eigenfunctions of the tube align closely with the manifold's tangent bundle, while an eigenfunction with high gradient in directions orthogonal to the manifold lie deeper in the spectrum. Second, a random matrix theoretic analysis also demonstrates that low-frequency eigenvectors are robust to sub-Gaussian noise. Through comprehensive experiments, we demonstrate that LEGO yields tangent space estimates that are significantly more robust to noise than those from LPCA, resulting in marked improvements in downstream tasks such as manifold learning, boundary detection, and local intrinsic dimension estimation.
- Abstract(参考訳): データ多様体の接空間を推定することは、データ解析の基本的な問題である。
標準手法であるローカル主成分分析(LPCA)は、近隣のサイズの選定において重要なトレードオフがあるため、高雑音の設定に苦慮している。
最適なサイズを選択するには、しばしば利用できないデータの幾何学的特徴とノイズ特性に関する事前知識が必要である。
本稿では,局所接空間推定を導くために,データのグローバル構造を利用するスペクトル手法であるラプラシアン固有ベクトル勾配直交化(LEGO)を提案する。
LEGOは局所近傍にのみ依存するのではなく、グラフラプラシアンの低周波固有ベクトルの勾配を直交することで各データ点の接空間を推定する。
提案手法の理論的正当性は2つある。
第一に、多様体の管状近傍における微分幾何学的解析は、管の低周波ラプラシア固有関数の勾配が多様体の接束と密接に一致し、多様体の直交方向の勾配の高い固有関数がスペクトルの奥深くにあることを示している。
第二に、ランダム行列理論解析は、低周波固有ベクトルがガウス下雑音に対して頑健であることを示す。
包括的実験により, LEGOはLPCAの騒音よりもかなり頑健な接空間推定値が得られることを示した。
関連論文リスト
- Boundary Detection Algorithm Inspired by Locally Linear Embedding [8.259071011958254]
本稿では,広く使用されている局所的線形埋め込みアルゴリズムにインスパイアされた境界点検出手法を提案する。
高次元ノイズの存在下では,雑音データにおける境界検出の強化を目的としたフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-26T16:05:57Z) - Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - Curvature-Independent Last-Iterate Convergence for Games on Riemannian
Manifolds [77.4346324549323]
本研究では, 多様体の曲率に依存しないステップサイズが, 曲率非依存かつ直線的最終点収束率を達成することを示す。
我々の知る限りでは、曲率非依存率や/または最終点収束の可能性はこれまでに検討されていない。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Random Smoothing Regularization in Kernel Gradient Descent Learning [24.383121157277007]
古典的ソボレフ空間に属する幅広い基底真理関数を適応的に学習できるランダムなスムーズな正規化のための枠組みを提案する。
我々の推定器は、基礎となるデータの構造的仮定に適応し、次元の呪いを避けることができる。
論文 参考訳(メタデータ) (2023-05-05T13:37:34Z) - Robust Inference of Manifold Density and Geometry by Doubly Stochastic
Scaling [8.271859911016719]
我々は高次元雑音下で頑健な推論のためのツールを開発する。
提案手法は, セルタイプにまたがる技術的ノイズレベルの変動に頑健であることを示す。
論文 参考訳(メタデータ) (2022-09-16T15:39:11Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - Tensor Laplacian Regularized Low-Rank Representation for Non-uniformly
Distributed Data Subspace Clustering [2.578242050187029]
低ランク表現(LRR)は、サブスペースクラスタリングにおけるデータポイントの局所性情報を破棄する。
本稿では,隣接ノードの変動数を容易にし,データの局所性情報を組み込むハイパーグラフモデルを提案する。
人工および実データを用いた実験により,提案手法の精度と精度が向上した。
論文 参考訳(メタデータ) (2021-03-06T08:22:24Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z) - Semiparametric Nonlinear Bipartite Graph Representation Learning with
Provable Guarantees [106.91654068632882]
半パラメトリック指数族分布におけるパラメータの統計的推定問題として、両部グラフを考察し、その表現学習問題を定式化する。
提案手法は, 地中真理付近で強い凸性を示すため, 勾配降下法が線形収束率を達成できることを示す。
我々の推定器は指数族内の任意のモデル誤特定に対して頑健であり、広範な実験で検証されている。
論文 参考訳(メタデータ) (2020-03-02T16:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。