論文の概要: Fourier Sliced-Wasserstein Embedding for Multisets and Measures
- arxiv url: http://arxiv.org/abs/2405.16519v2
- Date: Sun, 29 Sep 2024 22:36:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 21:59:20.681453
- Title: Fourier Sliced-Wasserstein Embedding for Multisets and Measures
- Title(参考訳): マルチセットのためのフーリエスライス・ワッサースタイン埋め込みと対策
- Authors: Tal Amir, Nadav Dym,
- Abstract要約: ユークリッド空間に$mathbbRd$を超える多重集合と測度を埋め込む新しい方法を提案する。
提案手法は,入力マルチセットの優れた表現を出力し,マルチセットデータの学習に実用的な利点をもたらすことを示す。
- 参考スコア(独自算出の注目度): 3.396731589928944
- License:
- Abstract: We present the $\textit{Fourier Sliced Wasserstein (FSW) embedding}\unicode{x2014}$a novel method to embed multisets and measures over $\mathbb{R}^d$ into Euclidean space. Our proposed embedding approximately preserves the sliced Wasserstein distance on distributions, thereby yielding geometrically meaningful representations that better capture the structure of the input. Moreover, it is injective on measures and $\textit{bi-Lipschitz}$ on multisets$\unicode{x2014}$a significant advantage over prevalent embedding methods based on sum- or max-pooling, which are provably not bi-Lipschitz, and in many cases, not even injective. The required output dimension for these guarantees is near optimal: roughly $2 n d$, where $n$ is the maximal number of support points in the input. Conversely, we prove that it is $\textit{impossible}$ to embed distributions over $\mathbb{R}^d$ into Euclidean space in a bi-Lipschitz manner. Thus, the metric properties of our embedding are, in a sense, the best achievable. Through numerical experiments, we demonstrate that our method yields superior representations of input multisets and offers practical advantage for learning on multiset data. Specifically, we show that (a) the FSW embedding induces significantly lower distortion on the space of multisets, compared to the leading method for computing sliced-Wasserstein-preserving embeddings; and (b) a simple combination of the FSW embedding and an MLP achieves state-of-the-art performance in learning the (non-sliced) Wasserstein distance.
- Abstract(参考訳): ユークリッド空間に多重集合と測度を埋め込む新しい方法として、$\textit{Fourier Sliced Wasserstein (FSW) embeddedding}\unicode{x2014}$A novel method to embed multisets and measures over $\mathbb{R}^d$ into Euclidean space。
提案した埋め込みは分布上のスライスされたワッサーシュタイン距離を概ね保存し, 入力の構造をよりよく捉えた幾何学的に意味のある表現を与える。
さらに、これは測度に対して射影的であり、$\textit{bi-Lipschitz}$ on multisets$\unicode{x2014}$a significant advantage than prevalent embedded methods based on sum- or max-pooling, which isprovably not bi-Lipschitz, and many case, not injective.
これらの保証のために要求される出力次元は、ほぼ最適である:およそ2nd$、$n$は入力におけるサポートポイントの最大数である。
逆に、$\textit{impossible}$ は、$\mathbb{R}^d$ 上の分布をバイ・リプシッツな方法でユークリッド空間に埋め込むものであることを証明している。
したがって、埋め込みの計量的性質は、ある意味では最も達成可能なものである。
数値実験により,本手法は入力マルチセットの表現に優れ,マルチセットデータの学習に実用的な利点をもたらすことを示した。
具体的には
(a)FSW埋め込みはスライスされたワッサーシュタイン保存埋め込みの計算方法と比較して、多重集合空間の歪みを著しく低減させる。
b) FSW 埋め込みと MLP の簡単な組み合わせにより,(非スライス) ワッサーシュタイン距離の学習における最先端性能を実現する。
関連論文リスト
- Optimal Bound for PCA with Outliers using Higher-Degree Voronoi Diagrams [0.0]
本稿では,主成分分析 (PCA) のための新しいアルゴリズムについて紹介する。
外れ値が存在する場合でも、PCAの最適部分空間にナビゲートする。
このアプローチは、$nd+mathcalO(1)textpoly(n,d)$の時間複雑性を持つ最適解を得る。
論文 参考訳(メタデータ) (2024-08-13T13:05:36Z) - Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - A quasi-polynomial time algorithm for Multi-Dimensional Scaling via LP hierarchies [34.7582575446942]
多次元スケーリング(MDS)は、低次元ユークリッド空間に$n$ポイントの計量を埋め込む方法のファミリーである。
準多項式依存のMDSに対する最初の近似アルゴリズムは$Delta$である。
論文 参考訳(メタデータ) (2023-11-29T17:42:05Z) - Polynomial Width is Sufficient for Set Representation with
High-dimensional Features [69.65698500919869]
DeepSetsは集合表現のための最も広く使われているニューラルネットワークアーキテクチャである。
a) 線形 + パワーアクティベーション (LP) と (b) 線形 + 指数的アクティベーション (LE) の2つの集合要素埋め込み層を示す。
論文 参考訳(メタデータ) (2023-07-08T16:00:59Z) - Small Transformers Compute Universal Metric Embeddings [25.004650816730543]
小型ニューラルネットワークで実装された特徴マップの埋め込み保証を導出する。
深さの変換器が$nlog(n)$、幅の変換器が$n2$であれば、$mathcalX$から$n$ポイントのデータセットを埋め込むことができる。
論文 参考訳(メタデータ) (2022-09-14T17:12:41Z) - A Law of Robustness beyond Isoperimetry [84.33752026418045]
我々は、任意の分布上でニューラルネットワークパラメータを補間する頑健性の低い$Omega(sqrtn/p)$を証明した。
次に、$n=mathrmpoly(d)$のとき、スムーズなデータに対する過度なパラメータ化の利点を示す。
我々は、$n=exp(omega(d))$ のとき、$O(1)$-Lipschitz の頑健な補間関数の存在を否定する。
論文 参考訳(メタデータ) (2022-02-23T16:10:23Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - TURF: A Two-factor, Universal, Robust, Fast Distribution Learning
Algorithm [64.13217062232874]
最も強力で成功したモダリティの1つは、全ての分布を$ell$距離に近似し、基本的に最も近い$t$-piece次数-$d_$の少なくとも1倍大きい。
本稿では,この数値をほぼ最適に推定する手法を提案する。
論文 参考訳(メタデータ) (2022-02-15T03:49:28Z) - Universal consistency of Wasserstein $k$-NN classifier: Negative and
Positive Results [0.0]
ワッサーシュタイン距離は確率測度の間の相同性の概念を提供する。
k$-NN分類器は、$(0,1)$でサポートされている測度空間に普遍的に整合性がないことを示す。
論文 参考訳(メタデータ) (2020-09-10T03:05:05Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。