論文の概要: Fused Gromov-Wasserstein Variance Decomposition with Linear Optimal Transport
- arxiv url: http://arxiv.org/abs/2411.10204v1
- Date: Fri, 15 Nov 2024 14:10:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 15:37:11.621589
- Title: Fused Gromov-Wasserstein Variance Decomposition with Linear Optimal Transport
- Title(参考訳): 線形最適輸送を用いた融解グロモフ-ワッサーシュタイン分散分解
- Authors: Michael Wilson, Tom Needham, Anuj Srivastava,
- Abstract要約: 2-ワッサーシュタイン空間における測度の集合のフレット分散の分解を行い、これらの測度のLOT埋め込みによって説明される分散の割合を計算する。
また, 組込みLOTの寸法, 分散率, 組込みデータに基づく機械学習分類器の分類精度との関係について検討した。
- 参考スコア(独自算出の注目度): 11.94799054956877
- License:
- Abstract: Wasserstein distances form a family of metrics on spaces of probability measures that have recently seen many applications. However, statistical analysis in these spaces is complex due to the nonlinearity of Wasserstein spaces. One potential solution to this problem is Linear Optimal Transport (LOT). This method allows one to find a Euclidean embedding, called LOT embedding, of measures in some Wasserstein spaces, but some information is lost in this embedding. So, to understand whether statistical analysis relying on LOT embeddings can make valid inferences about original data, it is helpful to quantify how well these embeddings describe that data. To answer this question, we present a decomposition of the Fr\'echet variance of a set of measures in the 2-Wasserstein space, which allows one to compute the percentage of variance explained by LOT embeddings of those measures. We then extend this decomposition to the Fused Gromov-Wasserstein setting. We also present several experiments that explore the relationship between the dimension of the LOT embedding, the percentage of variance explained by the embedding, and the classification accuracy of machine learning classifiers built on the embedded data. We use the MNIST handwritten digits dataset, IMDB-50000 dataset, and Diffusion Tensor MRI images for these experiments. Our results illustrate the effectiveness of low dimensional LOT embeddings in terms of the percentage of variance explained and the classification accuracy of models built on the embedded data.
- Abstract(参考訳): ワッサーシュタイン距離は、最近多くの応用が見られた確率測度の空間上の計量の族を形成する。
しかし、これらの空間の統計解析は、ワッサーシュタイン空間の非線形性のために複雑である。
この問題の潜在的な解決策の1つは線形最適輸送(LOT)である。
この方法では、いくつかのワッサーシュタイン空間における測度のLOT埋め込みと呼ばれるユークリッド埋め込みを見つけることができるが、この埋め込みではいくつかの情報が失われる。
したがって、LOT埋め込みに依存する統計的解析が元のデータに対して有効な推論を行うことができるかどうかを理解するためには、これらの埋め込みがそのデータをどの程度正確に記述するかを定量化することが有用である。
この質問に答えるために、2-ワッサーシュタイン空間における測度の集合のFr'echet分散を分解し、これらの測度のLOT埋め込みによって説明される分散の割合を計算する。
次に、この分解をFused Gromov-Wasserstein 設定に拡張する。
また,LOT埋め込みの次元,埋め込みによって説明される分散率,組込みデータ上に構築された機械学習分類器の分類精度との関係について検討した。
これらの実験には、MNIST手書き桁データセット、IMDB-50000データセット、拡散テンソルMRI画像を用いる。
本研究は,低次元LOT埋め込みの有効性を,埋め込みデータ上に構築されたモデルの分散率と分類精度の観点から明らかにした。
関連論文リスト
- Total Uncertainty Quantification in Inverse PDE Solutions Obtained with Reduced-Order Deep Learning Surrogate Models [50.90868087591973]
機械学習サロゲートモデルを用いて得られた逆PDE解の総不確かさを近似したベイズ近似法を提案する。
非線型拡散方程式に対する反復的アンサンブルスムーズおよび深層アンサンブル法との比較により,提案手法を検証した。
論文 参考訳(メタデータ) (2024-08-20T19:06:02Z) - Wasserstein Nonnegative Tensor Factorization with Manifold
Regularization [14.845504084471527]
ワッサーシュタイン多様体非負テンソル分解(WMNTF)を導入する。
我々は、計量としてワッサーシュタイン距離(すなわちアースモーバー距離または最適輸送距離)を使用し、潜在因子にグラフ正規化子を加える。
実験により,提案手法の有効性を他のNMF法やNTF法と比較した。
論文 参考訳(メタデータ) (2024-01-03T17:20:27Z) - Estimation of embedding vectors in high dimensions [10.55292041492388]
我々は、いくつかの「真」だが未知の埋め込みが存在する離散データに対する単純な確率モデルを考える。
このモデルでは、埋め込みは低ランク近似メッセージパッシング(AMP)法の変種によって学習できることが示されている。
提案手法は, 合成データと実テキストデータの両方のシミュレーションにより検証した。
論文 参考訳(メタデータ) (2023-12-12T23:41:59Z) - On the Size and Approximation Error of Distilled Sets [57.61696480305911]
カーネル・インジェクション・ポイント(Kernel Inducing Points)などのデータセット蒸留のカーネル・リッジ回帰に基づく手法について理論的に考察する。
我々は、RFF空間におけるその解が元のデータの解と一致するように、元の入力空間に小さな一組のインスタンスが存在することを証明した。
KRR溶液は、全入力データに最適化されたKRR溶液に対して近似を与えるこの蒸留されたインスタンスセットを用いて生成することができる。
論文 参考訳(メタデータ) (2023-05-23T14:37:43Z) - Linearized Wasserstein dimensionality reduction with approximation
guarantees [65.16758672591365]
LOT Wassmap は、ワーッサーシュタイン空間の低次元構造を明らかにするための計算可能なアルゴリズムである。
我々は,LOT Wassmapが正しい埋め込みを実現し,サンプルサイズの増加とともに品質が向上することを示す。
また、LOT Wassmapがペア距離計算に依存するアルゴリズムと比較して計算コストを大幅に削減することを示す。
論文 参考訳(メタデータ) (2023-02-14T22:12:16Z) - Nonlinear Sufficient Dimension Reduction for
Distribution-on-Distribution Regression [9.086237593805173]
本稿では,予測値と応答値の両方が分布データである場合に,非線形に十分な次元を減少させる新しい手法を提案する。
我々の重要なステップは、計量空間上に普遍カーネル(cc-ユニバーサル)を構築することである。
論文 参考訳(メタデータ) (2022-07-11T04:11:36Z) - Meta-Learning for Relative Density-Ratio Estimation [59.75321498170363]
相対密度比推定(DRE)の既存の方法は、両方の密度から多くのインスタンスを必要とする。
本稿では,関係データセットの知識を用いて,相対密度比を数例から推定する,相対DREのメタラーニング手法を提案する。
提案手法の有効性を,相対的DRE,データセット比較,外乱検出の3つの問題を用いて実証的に実証した。
論文 参考訳(メタデータ) (2021-07-02T02:13:45Z) - Depth-based pseudo-metrics between probability distributions [1.1470070927586016]
本研究では,データ深度に基づく連続確率測度と関連する中央領域の2つの疑似測度を提案する。
Wasserstein距離とは対照的に、提案された疑似メトリックは次元の呪いに苦しむことはない。
地域ベースの擬似メトリックは堅牢なw.r.tである。
両端と尾が重い。
論文 参考訳(メタデータ) (2021-03-23T17:33:18Z) - Two-sample Test using Projected Wasserstein Distance [18.46110328123008]
統計学と機械学習の基本的な問題である2サンプルテストのための予測されたワッサースタイン距離を開発する。
重要な貢献は、投影された確率分布の間のワッサーシュタイン距離を最大化する低次元線型写像を見つけるために最適射影を結合することである。
論文 参考訳(メタデータ) (2020-10-22T18:08:58Z) - Evaluating representations by the complexity of learning low-loss
predictors [55.94170724668857]
下流タスクの解決に使用されるデータの表現を評価することの問題点を考察する。
本稿では,関心のあるタスクにおける低損失を実現する表現の上に,予測器を学習する複雑性によって表現の質を測定することを提案する。
論文 参考訳(メタデータ) (2020-09-15T22:06:58Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。