論文の概要: Fourier Sliced-Wasserstein Embedding for Multisets and Measures
- arxiv url: http://arxiv.org/abs/2405.16519v2
- Date: Sun, 29 Sep 2024 22:36:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-03 01:21:56.190816
- Title: Fourier Sliced-Wasserstein Embedding for Multisets and Measures
- Title(参考訳): マルチセットのためのフーリエスライス・ワッサースタイン埋め込みと対策
- Authors: Tal Amir, Nadav Dym,
- Abstract要約: ユークリッド空間に$mathbbRd$を超える多重集合と測度を埋め込む新しい方法を提案する。
提案手法は,入力マルチセットの優れた表現を出力し,マルチセットデータの学習に実用的な利点をもたらすことを示す。
- 参考スコア(独自算出の注目度): 3.396731589928944
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the $\textit{Fourier Sliced Wasserstein (FSW) embedding}\unicode{x2014}$a novel method to embed multisets and measures over $\mathbb{R}^d$ into Euclidean space. Our proposed embedding approximately preserves the sliced Wasserstein distance on distributions, thereby yielding geometrically meaningful representations that better capture the structure of the input. Moreover, it is injective on measures and $\textit{bi-Lipschitz}$ on multisets$\unicode{x2014}$a significant advantage over prevalent embedding methods based on sum- or max-pooling, which are provably not bi-Lipschitz, and in many cases, not even injective. The required output dimension for these guarantees is near optimal: roughly $2 n d$, where $n$ is the maximal number of support points in the input. Conversely, we prove that it is $\textit{impossible}$ to embed distributions over $\mathbb{R}^d$ into Euclidean space in a bi-Lipschitz manner. Thus, the metric properties of our embedding are, in a sense, the best achievable. Through numerical experiments, we demonstrate that our method yields superior representations of input multisets and offers practical advantage for learning on multiset data. Specifically, we show that (a) the FSW embedding induces significantly lower distortion on the space of multisets, compared to the leading method for computing sliced-Wasserstein-preserving embeddings; and (b) a simple combination of the FSW embedding and an MLP achieves state-of-the-art performance in learning the (non-sliced) Wasserstein distance.
- Abstract(参考訳): ユークリッド空間に多重集合と測度を埋め込む新しい方法として、$\textit{Fourier Sliced Wasserstein (FSW) embeddedding}\unicode{x2014}$A novel method to embed multisets and measures over $\mathbb{R}^d$ into Euclidean space。
提案した埋め込みは分布上のスライスされたワッサーシュタイン距離を概ね保存し, 入力の構造をよりよく捉えた幾何学的に意味のある表現を与える。
さらに、これは測度に対して射影的であり、$\textit{bi-Lipschitz}$ on multisets$\unicode{x2014}$a significant advantage than prevalent embedded methods based on sum- or max-pooling, which isprovably not bi-Lipschitz, and many case, not injective.
これらの保証のために要求される出力次元は、ほぼ最適である:およそ2nd$、$n$は入力におけるサポートポイントの最大数である。
逆に、$\textit{impossible}$ は、$\mathbb{R}^d$ 上の分布をバイ・リプシッツな方法でユークリッド空間に埋め込むものであることを証明している。
したがって、埋め込みの計量的性質は、ある意味では最も達成可能なものである。
数値実験により,本手法は入力マルチセットの表現に優れ,マルチセットデータの学習に実用的な利点をもたらすことを示した。
具体的には
(a)FSW埋め込みはスライスされたワッサーシュタイン保存埋め込みの計算方法と比較して、多重集合空間の歪みを著しく低減させる。
b) FSW 埋め込みと MLP の簡単な組み合わせにより,(非スライス) ワッサーシュタイン距離の学習における最先端性能を実現する。
関連論文リスト
- Fourier Sliced-Wasserstein Embedding for Multisets and Measures [3.396731589928944]
ユークリッド空間に$mathbbRd$を超える多重集合と測度を埋め込む新しい方法を提案する。
我々は、$mathbbRd$ 以上の分布をバイ・リプシッツな方法でユークリッド空間に埋め込むことは不可能であることを証明した。
論文 参考訳(メタデータ) (2025-04-03T12:51:40Z) - Riemannian Optimization on Relaxed Indicator Matrix Manifold [83.13494760649874]
インジケータ行列は機械学習において重要な役割を果たすが、最適化はNPハード問題である。
我々は、指標行列の新たな緩和を提案し、この緩和が多様体を形成することを証明し、それをRelaxed Indicator Matrix Manifold (RIM manifold) と呼ぶ。
測地学を得るための高速な測地法を含む,いくつかのリトラクション法を提案する。
論文 参考訳(メタデータ) (2025-03-26T12:45:52Z) - Joint Metric Space Embedding by Unbalanced OT with Gromov-Wasserstein Marginal Penalization [3.7498611358320733]
異種データセットの教師なしアライメントのための新しい手法を提案する。
本手法は,Gromov-Wasserstein境界化を用いた不均衡最適輸送問題に基づく。
論文 参考訳(メタデータ) (2025-02-11T12:28:47Z) - Optimal Bound for PCA with Outliers using Higher-Degree Voronoi Diagrams [0.0]
本稿では,主成分分析 (PCA) のための新しいアルゴリズムについて紹介する。
外れ値が存在する場合でも、PCAの最適部分空間にナビゲートする。
このアプローチは、$nd+mathcalO(1)textpoly(n,d)$の時間複雑性を持つ最適解を得る。
論文 参考訳(メタデータ) (2024-08-13T13:05:36Z) - Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - A quasi-polynomial time algorithm for Multi-Dimensional Scaling via LP hierarchies [34.7582575446942]
多次元スケーリング(MDS)は、低次元ユークリッド空間に$n$ポイントの計量を埋め込む方法のファミリーである。
準多項式依存のMDSに対する最初の近似アルゴリズムは$Delta$である。
論文 参考訳(メタデータ) (2023-11-29T17:42:05Z) - Polynomial Width is Sufficient for Set Representation with
High-dimensional Features [69.65698500919869]
DeepSetsは集合表現のための最も広く使われているニューラルネットワークアーキテクチャである。
a) 線形 + パワーアクティベーション (LP) と (b) 線形 + 指数的アクティベーション (LE) の2つの集合要素埋め込み層を示す。
論文 参考訳(メタデータ) (2023-07-08T16:00:59Z) - The Implicit Bias of Minima Stability in Multivariate Shallow ReLU
Networks [53.95175206863992]
本研究では,2次損失を持つ1層多変量ReLUネットワークをトレーニングする際に,勾配勾配勾配が収束する解のタイプについて検討する。
我々は、浅いReLUネットワークが普遍近似器であるにもかかわらず、安定した浅層ネットワークは存在しないことを証明した。
論文 参考訳(メタデータ) (2023-06-30T09:17:39Z) - Small Transformers Compute Universal Metric Embeddings [25.004650816730543]
小型ニューラルネットワークで実装された特徴マップの埋め込み保証を導出する。
深さの変換器が$nlog(n)$、幅の変換器が$n2$であれば、$mathcalX$から$n$ポイントのデータセットを埋め込むことができる。
論文 参考訳(メタデータ) (2022-09-14T17:12:41Z) - A Law of Robustness beyond Isoperimetry [84.33752026418045]
我々は、任意の分布上でニューラルネットワークパラメータを補間する頑健性の低い$Omega(sqrtn/p)$を証明した。
次に、$n=mathrmpoly(d)$のとき、スムーズなデータに対する過度なパラメータ化の利点を示す。
我々は、$n=exp(omega(d))$ のとき、$O(1)$-Lipschitz の頑健な補間関数の存在を否定する。
論文 参考訳(メタデータ) (2022-02-23T16:10:23Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - TURF: A Two-factor, Universal, Robust, Fast Distribution Learning
Algorithm [64.13217062232874]
最も強力で成功したモダリティの1つは、全ての分布を$ell$距離に近似し、基本的に最も近い$t$-piece次数-$d_$の少なくとも1倍大きい。
本稿では,この数値をほぼ最適に推定する手法を提案する。
論文 参考訳(メタデータ) (2022-02-15T03:49:28Z) - Nystr\"om Kernel Mean Embeddings [92.10208929236826]
Nystr"om法に基づく効率的な近似手法を提案する。
サブサンプルサイズの条件は標準の$n-1/2$レートを得るのに十分である。
本稿では,この結果の最大誤差と二次規則の近似への応用について論じる。
論文 参考訳(メタデータ) (2022-01-31T08:26:06Z) - Reward-Free RL is No Harder Than Reward-Aware RL in Linear Markov
Decision Processes [61.11090361892306]
Reward-free reinforcement learning (RL) は、エージェントが探索中に報酬関数にアクセスできないような環境を考える。
この分離は線形MDPの設定には存在しないことを示す。
我々は$d$次元線形 MDP における報酬のない RL に対する計算効率の良いアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-01-26T22:09:59Z) - Robust Multi-view Registration of Point Sets with Laplacian Mixture
Model [25.865100974015412]
重み付きラプラシアン分布に基づいて複数の点集合を整列させる新しい確率的生成法を提案する。
本稿では,提案手法の利点を,ベンチマークの挑戦的データセットに対する最先端手法と比較することによって示す。
論文 参考訳(メタデータ) (2021-10-26T14:49:09Z) - Depth-based pseudo-metrics between probability distributions [1.1470070927586016]
本研究では,データ深度に基づく連続確率測度と関連する中央領域の2つの疑似測度を提案する。
Wasserstein距離とは対照的に、提案された疑似メトリックは次元の呪いに苦しむことはない。
地域ベースの擬似メトリックは堅牢なw.r.tである。
両端と尾が重い。
論文 参考訳(メタデータ) (2021-03-23T17:33:18Z) - Simple and Near-Optimal MAP Inference for Nonsymmetric DPPs [3.3504365823045044]
非対称なカーネル行列によって定義される決定点過程に対する最大後続推定(MAP)問題について検討する。
局所探索を用いてこの問題に対する最初の乗法近似保証を得る。
近似係数が$kO(k)$ に近いので、理論上、実験的に、この問題に対する最先端の手法と好適に比較できることが示される。
論文 参考訳(メタデータ) (2021-02-10T09:34:44Z) - Hybrid Trilinear and Bilinear Programming for Aligning Partially
Overlapping Point Sets [85.71360365315128]
多くの応用において、部分重なり合う点集合が対応するRPMアルゴリズムに不変であるようなアルゴリズムが必要である。
まず、目的が立方体有界関数であることを示し、次に、三線型および双線型単相変換の凸エンベロープを用いて、その下界を導出する。
次に、変換変数上の分岐のみを効率よく実行するブランチ・アンド・バウンド(BnB)アルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-01-19T04:24:23Z) - Universal consistency of Wasserstein $k$-NN classifier: Negative and
Positive Results [0.0]
ワッサーシュタイン距離は確率測度の間の相同性の概念を提供する。
k$-NN分類器は、$(0,1)$でサポートされている測度空間に普遍的に整合性がないことを示す。
論文 参考訳(メタデータ) (2020-09-10T03:05:05Z) - On Projection Robust Optimal Transport: Sample Complexity and Model
Misspecification [101.0377583883137]
射影ロバスト(PR)OTは、2つの測度の間のOTコストを最大化するために、射影可能な$k$次元部分空間を選択する。
私たちの最初の貢献は、PRワッサーシュタイン距離のいくつかの基本的な統計的性質を確立することである。
次に、部分空間を最適化するのではなく平均化することにより、PRW距離の代替として積分PRワッサーシュタイン距離(IPRW)を提案する。
論文 参考訳(メタデータ) (2020-06-22T14:35:33Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。