論文の概要: Large Data Limits of Laplace Learning for Gaussian Measure Data in Infinite Dimensions
- arxiv url: http://arxiv.org/abs/2601.14515v1
- Date: Tue, 20 Jan 2026 22:14:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.168937
- Title: Large Data Limits of Laplace Learning for Gaussian Measure Data in Infinite Dimensions
- Title(参考訳): 無限次元ガウス測度データのためのラプラス学習の大規模データ限界
- Authors: Zhengang Zhong, Yury Korolev, Matthew Thorpe,
- Abstract要約: Laplace Learningは、部分的にラベル付けされたデータセットから欠落したラベルを見つけるためのソリューションである。
無限次元空間上のルベーグ測度は、データが有限次元でない場合、解析を必要とする。
- 参考スコア(独自算出の注目度): 2.020917258669917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Laplace learning is a semi-supervised method, a solution for finding missing labels from a partially labeled dataset utilizing the geometry given by the unlabeled data points. The method minimizes a Dirichlet energy defined on a (discrete) graph constructed from the full dataset. In finite dimensions the asymptotics in the large (unlabeled) data limit are well understood with convergence from the graph setting to a continuum Sobolev semi-norm weighted by the Lebesgue density of the data-generating measure. The lack of the Lebesgue measure on infinite-dimensional spaces requires rethinking the analysis if the data aren't finite-dimensional. In this paper we make a first step in this direction by analyzing the setting when the data are generated by a Gaussian measure on a Hilbert space and proving pointwise convergence of the graph Dirichlet energy.
- Abstract(参考訳): ラプラス・ラーニング(Laplace learning)は、ラベルのないデータポイントによって与えられる幾何を利用して、部分的にラベル付けされたデータセットから欠落ラベルを見つけるための半教師付き手法である。
この方法は、全データセットから構築された(離散)グラフ上で定義されるディリクレエネルギーを最小化する。
有限次元において、大きな(ラベルのない)データ極限における漸近は、グラフの設定からデータ生成測度のルベーグ密度によって重み付けられた連続体ソボレフ半ノルムへの収束によってよく理解される。
無限次元空間におけるルベーグ測度の欠如は、データが有限次元でない場合、解析を再考する必要がある。
本稿では、ヒルベルト空間上のガウス測度によってデータが生成されるときの設定を分析し、グラフディリクレエネルギーの点収束を証明することにより、この方向への第一歩を踏み出す。
関連論文リスト
- Laplace Learning in Wasserstein Space [20.33446919989862]
グラフに基づく半教師付き学習手法を考察するために,多様体仮説を仮定する。
特に、ワッサーシュタイン空間におけるラプラス学習について検討する。
離散グラフ p-ディリクレエネルギーの変分収束を連続体に対して証明する。
論文 参考訳(メタデータ) (2025-11-17T10:49:36Z) - Robust Tangent Space Estimation via Laplacian Eigenvector Gradient Orthogonalization [48.25304391127552]
データ多様体の接空間を推定することは、データ解析の基本的な問題である。
局所接空間推定を導くために,データのグローバル構造を利用したラプラシアン固有ベクトル勾配直交化法(LEGO)を提案する。
論文 参考訳(メタデータ) (2025-10-02T17:59:45Z) - Follow the Energy, Find the Path: Riemannian Metrics from Energy-Based Models [63.331590876872944]
本稿では,事前学習したエネルギーベースモデルから直接リーマン計量を導出する手法を提案する。
これらの測度は空間的に異なる距離を定義し、測地学の計算を可能にする。
EBM由来のメトリクスは、確立されたベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-05-23T12:18:08Z) - Stabilizing and Solving Unique Continuation Problems by Parameterizing Data and Learning Finite Element Solution Operators [0.0]
境界条件が不明な非線形偏微分方程式 (PDE) に対する解の再構成を含む逆問題を考える。
この集合データを活用するために、まず、線形展開において適切な分解(POD)を用いて境界データを圧縮する。
次に,低次元潜在空間におけるデータセットのパラメトリゼーションを提供するオートエンコーダを用いて,拡張係数の非線形低次元構造を同定する。
論文 参考訳(メタデータ) (2024-12-05T18:31:14Z) - Noncommutative Model Selection for Data Clustering and Dimension Reduction Using Relative von Neumann Entropy [0.0]
教師なし分類と次元削減のためのデータ駆動型アルゴリズムのペアを提案する。
我々の実験では、クラスタリングアルゴリズムは、非自明な幾何学とトポロジを持つデータセット上の$k$-meansクラスタリングよりも優れています。
論文 参考訳(メタデータ) (2024-11-29T18:04:11Z) - Learning Distances from Data with Normalizing Flows and Score Matching [9.605001452209867]
密度ベース距離(DBD)は、基礎となるデータ分布の観点で距離を定義することによって、メートル法学習への原則的なアプローチを提供する。
我々は,高次元に直感的にスケールし,数値安定性を向上させる次元適応型フェルマー距離を導入する。
論文 参考訳(メタデータ) (2024-07-12T14:30:41Z) - Improving embedding of graphs with missing data by soft manifolds [51.425411400683565]
グラフ埋め込みの信頼性は、連続空間の幾何がグラフ構造とどの程度一致しているかに依存する。
我々は、この問題を解決することができる、ソフト多様体と呼ばれる新しい多様体のクラスを導入する。
グラフ埋め込みにソフト多様体を用いることで、複雑なデータセット上のデータ解析における任意のタスクを追求するための連続空間を提供できる。
論文 参考訳(メタデータ) (2023-11-29T12:48:33Z) - Tight and fast generalization error bound of graph embedding in metric
space [54.279425319381374]
非ユークリッド計量空間へのグラフ埋め込みは、既存の有界よりもはるかに少ない訓練データを持つユークリッド空間におけるグラフ埋め込みよりも優れていることを示す。
我々の新しい上限は、既存の上限よりもかなり強く速く、最大で$R$と$O(frac1S)$に指数関数できる。
論文 参考訳(メタデータ) (2023-05-13T17:29:18Z) - Intrinsic dimension estimation for discrete metrics [65.5438227932088]
本稿では,離散空間に埋め込まれたデータセットの内在次元(ID)を推定するアルゴリズムを提案する。
我々は,その精度をベンチマークデータセットで示すとともに,種鑑定のためのメダゲノミクスデータセットの分析に応用する。
このことは、列の空間の高次元性にもかかわらず、蒸発圧が低次元多様体に作用することを示唆している。
論文 参考訳(メタデータ) (2022-07-20T06:38:36Z) - Spectral clustering under degree heterogeneity: a case for the random
walk Laplacian [83.79286663107845]
本稿では,ランダムウォークラプラシアンを用いたグラフスペクトル埋め込みが,ノード次数に対して完全に補正されたベクトル表現を生成することを示す。
次数補正ブロックモデルの特別な場合、埋め込みはK個の異なる点に集中し、コミュニティを表す。
論文 参考訳(メタデータ) (2021-05-03T16:36:27Z) - Manifold learning with arbitrary norms [8.433233101044197]
本研究では,アースモーバー距離に基づく多様体学習が,分子形状空間を学習する標準的なユークリッド変種よりも優れていることを示す。
数値シミュレーションにより,アースモーバー距離に基づく多様体学習は,分子形状空間を学習するための標準ユークリッド変種よりも優れていることを示した。
論文 参考訳(メタデータ) (2020-12-28T10:24:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。