論文の概要: Manifold learning in Wasserstein space
- arxiv url: http://arxiv.org/abs/2311.08549v1
- Date: Tue, 14 Nov 2023 21:21:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 18:19:27.477832
- Title: Manifold learning in Wasserstein space
- Title(参考訳): ワッサーシュタイン空間における多様体学習
- Authors: Keaton Hamm, Caroline Moosm\"uller, Bernhard Schmitzer, Matthew Thorpe
- Abstract要約: 距離空間 $(Lambda,W_Lambda)$ は、ノード $lambda_i=1N$ とエッジウェイト $W(lambda_i,lambda_j)$ のグラフからグロモフ-ワッサーシュタインの意味で復元可能であることを示す。
特に、測度空間 $(Lambda,W_Lambda)$ は、Gromov--Wasserstein の意味でノード $lambda_i_ を持つグラフから復元可能であることを示す。
- 参考スコア(独自算出の注目度): 3.2315169215372443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims at building the theoretical foundations for manifold learning
algorithms in the space of absolutely continuous probability measures on a
compact and convex subset of $\mathbb{R}^d$, metrized with the Wasserstein-2
distance $W$. We begin by introducing a natural construction of submanifolds
$\Lambda$ of probability measures equipped with metric $W_\Lambda$, the
geodesic restriction of $W$ to $\Lambda$. In contrast to other constructions,
these submanifolds are not necessarily flat, but still allow for local
linearizations in a similar fashion to Riemannian submanifolds of
$\mathbb{R}^d$. We then show how the latent manifold structure of
$(\Lambda,W_{\Lambda})$ can be learned from samples $\{\lambda_i\}_{i=1}^N$ of
$\Lambda$ and pairwise extrinsic Wasserstein distances $W$ only. In particular,
we show that the metric space $(\Lambda,W_{\Lambda})$ can be asymptotically
recovered in the sense of Gromov--Wasserstein from a graph with nodes
$\{\lambda_i\}_{i=1}^N$ and edge weights $W(\lambda_i,\lambda_j)$. In addition,
we demonstrate how the tangent space at a sample $\lambda$ can be
asymptotically recovered via spectral analysis of a suitable "covariance
operator" using optimal transport maps from $\lambda$ to sufficiently close and
diverse samples $\{\lambda_i\}_{i=1}^N$. The paper closes with some explicit
constructions of submanifolds $\Lambda$ and numerical examples on the recovery
of tangent spaces through spectral analysis.
- Abstract(参考訳): 本稿では,Wasserstein-2 距離 $W$ で計算された$\mathbb{R}^d$ のコンパクトかつ凸部分集合上の絶対連続確率測度空間における多様体学習アルゴリズムの理論基盤を構築することを目的とする。
まず、計量 $w_\lambda$ を備えた確率測度の部分多様体 $\lambda$ の自然な構成を導入することから始め、測地学的制限は $w$ から $\lambda$ となる。
他の構成とは対照的に、これらの部分多様体は必ずしも平坦ではないが、なお、リーマン部分多様体である $\mathbb{r}^d$ と似た方法で局所線型化を許す。
次に、$(\Lambda,W_{\Lambda})$ の潜在多様体構造がサンプル $\{\lambda_i\}_{i=1}^N$ of $\Lambda$ からどのように学習できるかを示す。
特に、計量空間 $(\Lambda,W_{\Lambda})$ は、ノード $\{\lambda_i\}_{i=1}^N$ と辺重み $W(\lambda_i,\lambda_j)$ のグラフからグロモフ-ワッサーシュタインの意味で漸近的に回復できることを示す。
さらに、サンプル $\lambda$ における接空間が、適切な「共分散作用素」のスペクトル解析によって、十分に近い、多様なサンプル $\{\lambda_i\}_{i=1}^N$ への最適な輸送写像を用いて、どのように漸近的に回復できるかを示す。
この論文は、部分多様体 $\lambda$ の明示的な構成とスペクトル解析による接空間の回復に関する数値例で締めくくっている。
関連論文リスト
- Near-Optimal and Tractable Estimation under Shift-Invariance [0.21756081703275998]
そのような信号のクラスは、非常にリッチである:$mathbbCn$ 上のすべての指数振動を含み、合計$s$ である。
このクラスの統計複雑性は、$(delta)$-confidence $ell$-ballの半径2乗最小マックス周波数によって測定されるが、$s$-sparse信号のクラス、すなわち$Oleft(slog(en) + log(delta-1)right) cdot log(en/s)とほぼ同じであることを示す。
論文 参考訳(メタデータ) (2024-11-05T18:11:23Z) - The $φ^n$ trajectory bootstrap [1.8855270809505869]
我々は、$langlephinrangle$ または $langle(iphi)nrangle$ の非整数 $n$ 結果が、波動関数アプローチの値と一致することを示す。
$mathcalPT$不変の場合、$langle(iphi)nrangle$と非整数$n$の存在は、非整数パワーで非エルミート理論をブートストラップすることができる。
論文 参考訳(メタデータ) (2024-02-08T16:09:06Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Fast Graph Sampling for Short Video Summarization using Gershgorin Disc
Alignment [52.577757919003844]
高速グラフサンプリングの最近の進歩を利用して,短い動画を複数の段落に効率よく要約する問題について検討する。
実験結果から,本アルゴリズムは最先端の手法と同等の映像要約を実現し,複雑さを大幅に低減した。
論文 参考訳(メタデータ) (2021-10-21T18:43:00Z) - Threshold Phenomena in Learning Halfspaces with Massart Noise [56.01192577666607]
ガウス境界の下でのマスアートノイズ付きmathbbRd$におけるPAC学習ハーフスペースの問題について検討する。
この結果は,Massartモデルにおける学習ハーフスペースの複雑さを定性的に特徴づけるものである。
論文 参考訳(メタデータ) (2021-08-19T16:16:48Z) - Non-Parametric Estimation of Manifolds from Noisy Data [1.0152838128195467]
ノイズの多いサンプルの有限集合から$mathbbRD$の$d$次元部分多様体を推定する問題を検討する。
点推定では$n-frack2k + d$、接空間の推定では$n-frack-12k + d$の収束率を推定する。
論文 参考訳(メタデータ) (2021-05-11T02:29:33Z) - Small Covers for Near-Zero Sets of Polynomials and Learning Latent
Variable Models [56.98280399449707]
我々は、s$ of cardinality $m = (k/epsilon)o_d(k1/d)$ に対して $epsilon$-cover が存在することを示す。
構造的結果に基づいて,いくつかの基本的高次元確率モデル隠れ変数の学習アルゴリズムを改良した。
論文 参考訳(メタデータ) (2020-12-14T18:14:08Z) - Approximating the Riemannian Metric from Point Clouds via Manifold
Moving Least Squares [2.2774471443318753]
近似測地線距離を収束率$ O(h) $ provable approximations で生成するネーブアルゴリズムを提案する。
いくつかの数値シミュレーションにおいて,提案手法の雑音に対するポテンシャルとロバスト性を示す。
論文 参考訳(メタデータ) (2020-07-20T04:42:17Z) - Linear Time Sinkhorn Divergences using Positive Features [51.50788603386766]
エントロピー正則化で最適な輸送を解くには、ベクトルに繰り返し適用される$ntimes n$ kernel matrixを計算する必要がある。
代わりに、$c(x,y)=-logdotpvarphi(x)varphi(y)$ ここで$varphi$は、地上空間から正のorthant $RRr_+$への写像であり、$rll n$である。
論文 参考訳(メタデータ) (2020-06-12T10:21:40Z) - Learning Theory for Estimation of Animal Motion Submanifolds [0.0]
本稿では,動物運動のサブ多様体モデルの推定と近似のための新しい手法の定式化と実験試験について述べる。
実験は、未知の確率密度に基づいて生成されるサンプルの有限集合 $(s_i,x_i)_i=1msubset mathbbZm$ を生成する。
論文 参考訳(メタデータ) (2020-03-30T20:54:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。