論文の概要: Leveraging Optimal Transport via Projections on Subspaces for Machine
Learning Applications
- arxiv url: http://arxiv.org/abs/2311.13883v1
- Date: Thu, 23 Nov 2023 10:13:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 00:22:33.942816
- Title: Leveraging Optimal Transport via Projections on Subspaces for Machine
Learning Applications
- Title(参考訳): 機械学習応用のためのサブスペースへの投影による最適輸送の活用
- Authors: Cl\'ement Bonet
- Abstract要約: この論文では、部分空間上の射影を利用する代替に焦点をあてる。
そのような代替案の主なものはスリケード=ヴァッサーシュタイン距離である。
確率測度間の元のユークリッドスライス-ワッサーシュタイン距離に遡り、勾配流のダイナミクスを研究する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimal Transport has received much attention in Machine Learning as it
allows to compare probability distributions by exploiting the geometry of the
underlying space. However, in its original formulation, solving this problem
suffers from a significant computational burden. Thus, a meaningful line of
work consists at proposing alternatives to reduce this burden while still
enjoying its properties. In this thesis, we focus on alternatives which use
projections on subspaces. The main such alternative is the Sliced-Wasserstein
distance, which we first propose to extend to Riemannian manifolds in order to
use it in Machine Learning applications for which using such spaces has been
shown to be beneficial in the recent years. We also study sliced distances
between positive measures in the so-called unbalanced OT problem. Back to the
original Euclidean Sliced-Wasserstein distance between probability measures, we
study the dynamic of gradient flows when endowing the space with this distance
in place of the usual Wasserstein distance. Then, we investigate the use of the
Busemann function, a generalization of the inner product in metric spaces, in
the space of probability measures. Finally, we extend the subspace detour
approach to incomparable spaces using the Gromov-Wasserstein distance.
- Abstract(参考訳): 最適輸送は、基礎となる空間の幾何学を利用して確率分布を比較することができるため、機械学習において多くの注目を集めている。
しかし、元々の定式化では、この問題を解決するにはかなりの計算負荷がかかる。
したがって、有意義な作業ラインは、その特性を享受しながら、この負担を軽減するための代替案を提案することにある。
この論文では、部分空間上の射影を用いる代替に焦点をあてる。
そのような代替案の主なものはスリケード・ワッサーシュタイン距離(英語版)であり、この距離はリーマン多様体に拡張して機械学習アプリケーションに応用することを最初に提案し、近年、そのような空間を使うことが有用であることが示されている。
また,いわゆる不均衡OT問題における正測度間のスライス距離についても検討した。
確率測度間の元のユークリッドスライクド=ワッサーシュタイン距離に遡って、通常のワッサーシュタイン距離の代わりにこの距離を持つ空間を与えるときの勾配流のダイナミクスを研究する。
次に、計量空間における内積の一般化である、確率測度の空間におけるブシェマン関数の利用について検討する。
最後に、Gromov-Wasserstein 距離を用いて、部分空間デトラルアプローチを非可換空間に拡張する。
関連論文リスト
- Sliced-Wasserstein Distances and Flows on Cartan-Hadamard Manifolds [13.851780805245477]
カルティマタン・アダマール多様体上のスライス・ワッサーシュタイン距離の一般構成を導出する。
また、ワッサーシュタイン勾配流を近似することにより、これらの新しい距離を最小化する非パラメトリックスキームを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:01:21Z) - Continuous-time Riemannian SGD and SVRG Flows on Wasserstein Probabilistic Space [17.13355049019388]
我々はワッサーシュタイン空間上の勾配流を勾配降下流(SGD)と分散還元流(SVRG)に拡張する。
ワッサーシュタイン空間の性質を利用して、ユークリッド空間における対応する離散力学を近似するために微分方程式を構築する。
この結果はユークリッド空間における結果と一致することが証明されている。
論文 参考訳(メタデータ) (2024-01-24T15:35:44Z) - Point Cloud Classification via Deep Set Linearized Optimal Transport [51.99765487172328]
我々は,点雲をL2-$spaceに効率的に同時埋め込むアルゴリズムであるDeep Set Linearized Optimal Transportを紹介した。
この埋め込みはワッサーシュタイン空間内の特定の低次元構造を保持し、点雲の様々なクラスを区別する分類器を構成する。
我々は,有限個のラベル付き点雲を持つフローデータセットの実験を通じて,標準的な深層集合アプローチに対するアルゴリズムの利点を実証する。
論文 参考訳(メタデータ) (2024-01-02T23:26:33Z) - Hyperbolic Sliced-Wasserstein via Geodesic and Horospherical Projections [17.48229977212902]
これは、双曲空間に埋め込まれる基盤となる階層構造を示す多くの種類のデータにとって有益であることが示されている。
機械学習の多くのツールがそのような空間に拡張されたが、それらの空間上で定義された確率分布を比較するための相違はわずかである。
本研究では,新しい双曲型スライスワッサーシュタインの相違点の導出を提案する。
論文 参考訳(メタデータ) (2022-11-18T07:44:27Z) - Neural Bregman Divergences for Distance Learning [60.375385370556145]
本稿では,入力凸ニューラルネットワークを用いて任意のブレグマン分岐を微分可能な方法で学習するための新しいアプローチを提案する。
提案手法は,新しいタスクと以前に研究されたタスクのセットにおいて,より忠実に相違点を学習することを示す。
我々のテストはさらに、既知の非対称なタスクにまで拡張するが、Bregmanでないタスクでは、不特定性にもかかわらず、我々のメソッドは競争的に機能する。
論文 参考訳(メタデータ) (2022-06-09T20:53:15Z) - A Dimensionality Reduction Method for Finding Least Favorable Priors
with a Focus on Bregman Divergence [108.28566246421742]
そこで本研究では,次元に明示的な有界な有限次元設定に最適化を移動させることができる次元削減法を開発した。
この問題を進展させるため、比較的大きな損失関数、すなわちブレグマンの発散によって引き起こされるベイズ的リスクに限定する。
論文 参考訳(メタデータ) (2022-02-23T16:22:28Z) - Supervised learning of sheared distributions using linearized optimal
transport [64.53761005509386]
本稿では,確率測度空間における教師付き学習課題について検討する。
最適輸送フレームワークを用いて確率測度の空間を$L2$空間に埋め込むことでこの問題に対処する。
正規の機械学習技術は線形分離性を達成するために使われる。
論文 参考訳(メタデータ) (2022-01-25T19:19:59Z) - Subspace Detours Meet Gromov-Wasserstein [15.048733056992855]
サブスペースデタウトアプローチは、最近 Muzellec と Cuturi によって発表された。
本稿では,この手法をグロモフ・ワッサーシュタイン問題に拡張する。
論文 参考訳(メタデータ) (2021-10-21T07:04:28Z) - Lifting the Convex Conjugate in Lagrangian Relaxations: A Tractable
Approach for Continuous Markov Random Fields [53.31927549039624]
断片的な離散化は既存の離散化問題と矛盾しないことを示す。
この理論を2つの画像のマッチング問題に適用する。
論文 参考訳(メタデータ) (2021-07-13T12:31:06Z) - The Unbalanced Gromov Wasserstein Distance: Conic Formulation and
Relaxation [0.0]
距離測度空間(すなわち確率分布を持つ距離空間)を比較することは、多くの機械学習問題の中心である。
そのような距離空間の間の最も一般的な距離は計量測度Gro-Wasserstein (GW) 距離であり、その距離は二次である。
GW の定式化は、任意の正測度を持つ距離空間の比較を等距離まで緩和する。
論文 参考訳(メタデータ) (2020-09-09T12:38:14Z) - On Projection Robust Optimal Transport: Sample Complexity and Model
Misspecification [101.0377583883137]
射影ロバスト(PR)OTは、2つの測度の間のOTコストを最大化するために、射影可能な$k$次元部分空間を選択する。
私たちの最初の貢献は、PRワッサーシュタイン距離のいくつかの基本的な統計的性質を確立することである。
次に、部分空間を最適化するのではなく平均化することにより、PRW距離の代替として積分PRワッサーシュタイン距離(IPRW)を提案する。
論文 参考訳(メタデータ) (2020-06-22T14:35:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。