論文の概要: Manifold learning in Wasserstein space
- arxiv url: http://arxiv.org/abs/2311.08549v2
- Date: Wed, 31 Jul 2024 12:10:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-01 20:35:03.614723
- Title: Manifold learning in Wasserstein space
- Title(参考訳): ワッサーシュタイン空間における多様体学習
- Authors: Keaton Hamm, Caroline Moosmüller, Bernhard Schmitzer, Matthew Thorpe,
- Abstract要約: We build the theory foundations for manifold learning algorithm on a compact and convex subset of $mathbbRd$, metrized with the Wasserstein-2 distance $mathrmW$。
距離空間 $(Lambda,mathrmW_Lambda)$ は、ノード $lambda_i_i=1N とエッジウェイト $lambda_i,lambda_j を持つグラフからグロモフ-ワッサーシュタインの意味で、直感的に回復可能であることを示す。
- 参考スコア(独自算出の注目度): 2.9581047417235298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims at building the theoretical foundations for manifold learning algorithms in the space of absolutely continuous probability measures on a compact and convex subset of $\mathbb{R}^d$, metrized with the Wasserstein-2 distance $\mathrm{W}$. We begin by introducing a construction of submanifolds $\Lambda$ of probability measures equipped with metric $\mathrm{W}_\Lambda$, the geodesic restriction of $W$ to $\Lambda$. In contrast to other constructions, these submanifolds are not necessarily flat, but still allow for local linearizations in a similar fashion to Riemannian submanifolds of $\mathbb{R}^d$. We then show how the latent manifold structure of $(\Lambda,\mathrm{W}_{\Lambda})$ can be learned from samples $\{\lambda_i\}_{i=1}^N$ of $\Lambda$ and pairwise extrinsic Wasserstein distances $\mathrm{W}$ only. In particular, we show that the metric space $(\Lambda,\mathrm{W}_{\Lambda})$ can be asymptotically recovered in the sense of Gromov--Wasserstein from a graph with nodes $\{\lambda_i\}_{i=1}^N$ and edge weights $W(\lambda_i,\lambda_j)$. In addition, we demonstrate how the tangent space at a sample $\lambda$ can be asymptotically recovered via spectral analysis of a suitable "covariance operator" using optimal transport maps from $\lambda$ to sufficiently close and diverse samples $\{\lambda_i\}_{i=1}^N$. The paper closes with some explicit constructions of submanifolds $\Lambda$ and numerical examples on the recovery of tangent spaces through spectral analysis.
- Abstract(参考訳): 本稿では,Wasserstein-2 距離 $\mathrm{W}$ で計算された$\mathbb{R}^d$ のコンパクトかつ凸部分集合上の絶対連続確率測度空間における多様体学習アルゴリズムの理論的基礎を構築することを目的とする。
まず、計量 $\mathrm{W}_\Lambda$ を備えた確率測度のサブ多様体 $\Lambda$ の構成を導入する。
他の構成とは対照的に、これらの部分多様体は必ずしも平坦ではないが、それでも、$\mathbb{R}^d$ のリーマン部分多様体と同様の方法で局所線型化が可能である。
次に、$(\Lambda,\mathrm{W}_{\Lambda})$ の潜在多様体構造がサンプル $\{\lambda_i\}_{i=1}^N$ of $\Lambda$ からどのように学習できるかを示す。
特に、計量空間 $(\Lambda,\mathrm{W}_{\Lambda})$ は、ノード $\{\lambda_i\}_{i=1}^N$ と辺重み $W(\lambda_i,\lambda_j)$ のグラフからグロモフ=ワッサーシュタインの意味で漸近的に回復できることを示す。
さらに、サンプル $\lambda$ における接空間が、適切な「共分散作用素」のスペクトル解析によって、十分に近い、多様なサンプル $\{\lambda_i\}_{i=1}^N$ への最適な輸送写像を用いて、どのように漸近的に回復できるかを示す。
この論文は、部分多様体$\Lambda$の明示的な構成と、スペクトル解析による接空間の回復に関する数値的な例で締めくくられる。
関連論文リスト
- A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Exact Fractional Inference via Re-Parametrization & Interpolation
between Tree-Re-Weighted- and Belief Propagation- Algorithms [0.5348370085388683]
分割関数($Z$)を計算するのに必要な推論の努力は、$N$スピンのグラフ上のIsingモデルの$N$の指数関数である可能性が高い。
積として$Z$を表現する方法を示す: Z=Z(lambda)cal Z(lambda)$, ここで乗法補正である$cal Z(lambda)$は、ノードの分数分布から作られるノード独立確率分布に対する期待値である。
論文 参考訳(メタデータ) (2023-01-25T00:50:28Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Non-Parametric Estimation of Manifolds from Noisy Data [1.0152838128195467]
ノイズの多いサンプルの有限集合から$mathbbRD$の$d$次元部分多様体を推定する問題を検討する。
点推定では$n-frack2k + d$、接空間の推定では$n-frack-12k + d$の収束率を推定する。
論文 参考訳(メタデータ) (2021-05-11T02:29:33Z) - Asymptotic Theory of $\ell_1$-Regularized PDE Identification from a
Single Noisy Trajectory [2.0299248281970956]
線形および非線形進化的偏微分方程式(PDE)の一般クラスに対する1つの雑音軌道からの支持回復を証明した。
Local-Polynomialフィルタによって定義される単一の軌道データから、$mathbfc(lambda)のサポートが基礎となるPDEに関連する真の署名サポートに$ally収束することを保証する十分な条件のセットを提供します。
論文 参考訳(メタデータ) (2021-03-12T02:23:04Z) - Small Covers for Near-Zero Sets of Polynomials and Learning Latent
Variable Models [56.98280399449707]
我々は、s$ of cardinality $m = (k/epsilon)o_d(k1/d)$ に対して $epsilon$-cover が存在することを示す。
構造的結果に基づいて,いくつかの基本的高次元確率モデル隠れ変数の学習アルゴリズムを改良した。
論文 参考訳(メタデータ) (2020-12-14T18:14:08Z) - A deep network construction that adapts to intrinsic dimensionality
beyond the domain [79.23797234241471]
本稿では,ReLUを活性化したディープネットワークを用いて,2層合成の近似を$f(x) = g(phi(x))$で検討する。
例えば、低次元埋め込み部分多様体への射影と、低次元集合の集合への距離である。
論文 参考訳(メタデータ) (2020-08-06T09:50:29Z) - Approximating the Riemannian Metric from Point Clouds via Manifold
Moving Least Squares [2.2774471443318753]
近似測地線距離を収束率$ O(h) $ provable approximations で生成するネーブアルゴリズムを提案する。
いくつかの数値シミュレーションにおいて,提案手法の雑音に対するポテンシャルとロバスト性を示す。
論文 参考訳(メタデータ) (2020-07-20T04:42:17Z) - Streaming Complexity of SVMs [110.63976030971106]
本稿では,ストリーミングモデルにおけるバイアス正規化SVM問題を解く際の空間複雑性について検討する。
両方の問題に対して、$frac1lambdaepsilon$の次元に対して、$frac1lambdaepsilon$よりも空間的に小さいストリーミングアルゴリズムを得ることができることを示す。
論文 参考訳(メタデータ) (2020-07-07T17:10:00Z) - Linear Time Sinkhorn Divergences using Positive Features [51.50788603386766]
エントロピー正則化で最適な輸送を解くには、ベクトルに繰り返し適用される$ntimes n$ kernel matrixを計算する必要がある。
代わりに、$c(x,y)=-logdotpvarphi(x)varphi(y)$ ここで$varphi$は、地上空間から正のorthant $RRr_+$への写像であり、$rll n$である。
論文 参考訳(メタデータ) (2020-06-12T10:21:40Z) - Learning Theory for Estimation of Animal Motion Submanifolds [0.0]
本稿では,動物運動のサブ多様体モデルの推定と近似のための新しい手法の定式化と実験試験について述べる。
実験は、未知の確率密度に基づいて生成されるサンプルの有限集合 $(s_i,x_i)_i=1msubset mathbbZm$ を生成する。
論文 参考訳(メタデータ) (2020-03-30T20:54:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。