論文の概要: Learning Eigenstructures of Unstructured Data Manifolds
- arxiv url: http://arxiv.org/abs/2512.01103v1
- Date: Sun, 30 Nov 2025 22:06:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.58436
- Title: Learning Eigenstructures of Unstructured Data Manifolds
- Title(参考訳): 非構造データマニフォールドの固有構造学習
- Authors: Roy Velich, Arkadi Piven, David Bensaïd, Daniel Cremers, Thomas Dagès, Ron Kimmel,
- Abstract要約: 非構造化データから形状と多様体解析のスペクトル基底を学習する新しいフレームワークを提案する。
従来の演算子選択,構築,固有分解を学習に基づくアプローチで置き換えることによって,我々のフレームワークは従来のパイプラインに代わる,原則的,データ駆動的な代替手段を提供する。
- 参考スコア(独自算出の注目度): 47.81117132002129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel framework that directly learns a spectral basis for shape and manifold analysis from unstructured data, eliminating the need for traditional operator selection, discretization, and eigensolvers. Grounded in optimal-approximation theory, we train a network to decompose an implicit approximation operator by minimizing the reconstruction error in the learned basis over a chosen distribution of probe functions. For suitable distributions, they can be seen as an approximation of the Laplacian operator and its eigendecomposition, which are fundamental in geometry processing. Furthermore, our method recovers in a unified manner not only the spectral basis, but also the implicit metric's sampling density and the eigenvalues of the underlying operator. Notably, our unsupervised method makes no assumption on the data manifold, such as meshing or manifold dimensionality, allowing it to scale to arbitrary datasets of any dimension. On point clouds lying on surfaces in 3D and high-dimensional image manifolds, our approach yields meaningful spectral bases, that can resemble those of the Laplacian, without explicit construction of an operator. By replacing the traditional operator selection, construction, and eigendecomposition with a learning-based approach, our framework offers a principled, data-driven alternative to conventional pipelines. This opens new possibilities in geometry processing for unstructured data, particularly in high-dimensional spaces.
- Abstract(参考訳): 本稿では,非構造化データから形状・多様体解析のスペクトル基底を直接学習し,従来の演算子選択,離散化,固有解法の必要性を排除した新しいフレームワークを提案する。
最適近似理論を基礎として,探索関数の選択分布に対して学習ベースでの再構成誤差を最小化し,暗黙近似演算子を分解するネットワークを訓練する。
適切な分布に対して、それらはラプラス作用素とその固有分解の近似と見なすことができ、これは幾何処理において基本的なものである。
さらに,本手法は,スペクトルベースだけでなく,暗黙的計量のサンプリング密度と下層の演算子の固有値も統一的に復元する。
特に、我々の教師なし手法は、メッシュや多様体次元といったデータ多様体を仮定せず、任意の次元の任意のデータセットにスケールすることができる。
3次元および高次元画像多様体の表面上の点雲について、我々は、演算子の明示的な構成なしにラプラシアンに類似した有意義なスペクトル基底を得る。
従来の演算子選択,構築,固有分解を学習に基づくアプローチで置き換えることによって,我々のフレームワークは従来のパイプラインに代わる,原則的,データ駆動的な代替手段を提供する。
これは非構造データ、特に高次元空間における幾何処理の新たな可能性を開く。
関連論文リスト
- Towards a mathematical understanding of learning from few examples with
nonlinear feature maps [68.8204255655161]
トレーニングセットがわずか数個のデータポイントから構成されるデータ分類の問題を考える。
我々は、AIモデルの特徴空間の幾何学、基礎となるデータ分布の構造、モデルの一般化能力との間の重要な関係を明らかにする。
論文 参考訳(メタデータ) (2022-11-07T14:52:58Z) - Nonlinear Isometric Manifold Learning for Injective Normalizing Flows [58.720142291102135]
アイソメトリーを用いて、多様体学習と密度推定を分離する。
また、確率分布を歪ませない明示的な逆数を持つ埋め込みを設計するためにオートエンコーダを用いる。
論文 参考訳(メタデータ) (2022-03-08T08:57:43Z) - Learning Low-Dimensional Nonlinear Structures from High-Dimensional
Noisy Data: An Integral Operator Approach [5.975670441166475]
本研究では,高次元および雑音観測から低次元非線形構造を学習するためのカーネルスペクトル埋め込みアルゴリズムを提案する。
このアルゴリズムは、基礎となる多様体の事前の知識に依存しない適応的な帯域幅選択手順を用いる。
得られた低次元埋め込みは、データ可視化、クラスタリング、予測などの下流目的にさらに活用することができる。
論文 参考訳(メタデータ) (2022-02-28T22:46:34Z) - Inferring Manifolds From Noisy Data Using Gaussian Processes [17.166283428199634]
ほとんどの既存の多様体学習アルゴリズムは、元のデータを低次元座標で置き換える。
本稿では,これらの問題に対処するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-10-14T15:50:38Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z) - Variational Autoencoder with Learned Latent Structure [4.41370484305827]
学習潜在構造を持つ変分オートエンコーダ(VAELLS)について紹介する。
VAELLS は、学習可能な多様体モデルを VAE の潜在空間に組み込む。
我々は、既知の潜在構造を持つ実例でモデルを検証し、実世界のデータセット上でその能力を実証する。
論文 参考訳(メタデータ) (2020-06-18T14:59:06Z) - Eigendecomposition-Free Training of Deep Networks for Linear
Least-Square Problems [107.3868459697569]
我々は、ディープネットワークのトレーニングに固有分解のないアプローチを導入する。
この手法は固有分解の明示的な微分よりもはるかに堅牢であることを示す。
我々の手法は収束特性が良く、最先端の結果が得られます。
論文 参考訳(メタデータ) (2020-04-15T04:29:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。