論文の概要: Manifold Learning with Sparse Regularised Optimal Transport
- arxiv url: http://arxiv.org/abs/2307.09816v1
- Date: Wed, 19 Jul 2023 08:05:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 14:58:20.362002
- Title: Manifold Learning with Sparse Regularised Optimal Transport
- Title(参考訳): スパース正規化最適輸送による多様体学習
- Authors: Stephen Zhang and Gilles Mordant and Tetsuya Matsumoto and Geoffrey
Schiebinger
- Abstract要約: 実世界のデータセットはノイズの多い観測とサンプリングを受けており、基礎となる多様体に関する情報を蒸留することが大きな課題である。
本稿では,2次正規化を用いた最適輸送の対称版を利用する多様体学習法を提案する。
得られたカーネルは連続的な極限においてLaplace型演算子と整合性を証明し、ヘテロスケダスティックノイズに対する堅牢性を確立し、これらの結果をシミュレーションで示す。
- 参考スコア(独自算出の注目度): 0.17205106391379024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Manifold learning is a central task in modern statistics and data science.
Many datasets (cells, documents, images, molecules) can be represented as point
clouds embedded in a high dimensional ambient space, however the degrees of
freedom intrinsic to the data are usually far fewer than the number of ambient
dimensions. The task of detecting a latent manifold along which the data are
embedded is a prerequisite for a wide family of downstream analyses. Real-world
datasets are subject to noisy observations and sampling, so that distilling
information about the underlying manifold is a major challenge. We propose a
method for manifold learning that utilises a symmetric version of optimal
transport with a quadratic regularisation that constructs a sparse and adaptive
affinity matrix, that can be interpreted as a generalisation of the
bistochastic kernel normalisation. We prove that the resulting kernel is
consistent with a Laplace-type operator in the continuous limit, establish
robustness to heteroskedastic noise and exhibit these results in simulations.
We identify a highly efficient computational scheme for computing this optimal
transport for discrete data and demonstrate that it outperforms competing
methods in a set of examples.
- Abstract(参考訳): マニフォールド学習は現代の統計学とデータ科学の中心的な課題である。
多くのデータセット(セル、文書、画像、分子)は、高次元の環境空間に埋め込まれた点雲として表現できるが、データに固有の自由度は通常、周囲の次元の数よりもはるかに少ない。
データを埋め込んだ潜在多様体を検出するタスクは、下流分析の幅広いファミリーにとって必須条件である。
実世界のデータセットはノイズの観測とサンプリングの対象であり、基礎となる多様体に関する情報を蒸留することは大きな課題である。
本稿では,2次正則化を用いて最適輸送の対称版を利用する多様体学習法を提案し,双確率カーネル正規化の一般化と解釈できる疎適応親和性行列を構成する。
得られたカーネルは連続的な極限においてLaplace型演算子と整合性を示し、ヘテロスケダスティックノイズに対する堅牢性を確立し、これらの結果をシミュレーションで示す。
我々は、この離散データに対する最適輸送を計算するための高効率な計算手法を特定し、一連の例において競合する手法より優れていることを示す。
関連論文リスト
- Diffusion posterior sampling for simulation-based inference in tall data settings [53.17563688225137]
シミュレーションベース推論(SBI)は、入力パラメータを所定の観測に関連付ける後部分布を近似することができる。
本研究では、モデルのパラメータをより正確に推測するために、複数の観測値が利用できる、背の高いデータ拡張について考察する。
提案手法を,最近提案した各種数値実験の競合手法と比較し,数値安定性と計算コストの観点から,その優位性を実証した。
論文 参考訳(メタデータ) (2024-04-11T09:23:36Z) - Improving embedding of graphs with missing data by soft manifolds [51.425411400683565]
グラフ埋め込みの信頼性は、連続空間の幾何がグラフ構造とどの程度一致しているかに依存する。
我々は、この問題を解決することができる、ソフト多様体と呼ばれる新しい多様体のクラスを導入する。
グラフ埋め込みにソフト多様体を用いることで、複雑なデータセット上のデータ解析における任意のタスクを追求するための連続空間を提供できる。
論文 参考訳(メタデータ) (2023-11-29T12:48:33Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Convolutional Filtering on Sampled Manifolds [122.06927400759021]
サンプル多様体上の畳み込みフィルタリングは連続多様体フィルタリングに収束することを示す。
本研究は,ナビゲーション制御の問題点を実証的に明らかにした。
論文 参考訳(メタデータ) (2022-11-20T19:09:50Z) - Nonlinear Isometric Manifold Learning for Injective Normalizing Flows [58.720142291102135]
アイソメトリーを用いて、多様体学習と密度推定を分離する。
また、確率分布を歪ませない明示的な逆数を持つ埋め込みを設計するためにオートエンコーダを用いる。
論文 参考訳(メタデータ) (2022-03-08T08:57:43Z) - Learning Low-Dimensional Nonlinear Structures from High-Dimensional
Noisy Data: An Integral Operator Approach [5.975670441166475]
本研究では,高次元および雑音観測から低次元非線形構造を学習するためのカーネルスペクトル埋め込みアルゴリズムを提案する。
このアルゴリズムは、基礎となる多様体の事前の知識に依存しない適応的な帯域幅選択手順を用いる。
得られた低次元埋め込みは、データ可視化、クラスタリング、予測などの下流目的にさらに活用することができる。
論文 参考訳(メタデータ) (2022-02-28T22:46:34Z) - Adaptive Cholesky Gaussian Processes [7.684183064816171]
本稿では,データの部分集合のみを考慮し,正確なガウス過程モデルを大規模データセットに適合させる手法を提案する。
我々のアプローチは、計算オーバーヘッドが少ない正確な推論中に、サブセットのサイズがフライで選択されるという点で新しくなっています。
論文 参考訳(メタデータ) (2022-02-22T09:43:46Z) - Manifold embedding data-driven mechanics [0.0]
本稿では、可逆ニューラルネットワークによって生成された多様体の埋め込みを利用する、新しいデータ駆動型アプローチを紹介する。
深層ニューラルネットワークを訓練して、多様体から低次元ユークリッドベクトル空間にデータをグローバルにマッピングする。
論文 参考訳(メタデータ) (2021-12-18T04:38:32Z) - Inferring Manifolds From Noisy Data Using Gaussian Processes [17.166283428199634]
ほとんどの既存の多様体学習アルゴリズムは、元のデータを低次元座標で置き換える。
本稿では,これらの問題に対処するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-10-14T15:50:38Z) - Efficient Multidimensional Functional Data Analysis Using Marginal
Product Basis Systems [2.4554686192257424]
多次元関数データのサンプルから連続表現を学習するためのフレームワークを提案する。
本研究では, テンソル分解により, 得られた推定問題を効率的に解けることを示す。
我々は、ニューロイメージングにおける真のデータ応用で締めくくっている。
論文 参考訳(メタデータ) (2021-07-30T16:02:15Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。