論文の概要: Leveraging Optimal Transport via Projections on Subspaces for Machine
Learning Applications
- arxiv url: http://arxiv.org/abs/2311.13883v1
- Date: Thu, 23 Nov 2023 10:13:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 00:22:33.942816
- Title: Leveraging Optimal Transport via Projections on Subspaces for Machine
Learning Applications
- Title(参考訳): 機械学習応用のためのサブスペースへの投影による最適輸送の活用
- Authors: Cl\'ement Bonet
- Abstract要約: この論文では、部分空間上の射影を利用する代替に焦点をあてる。
そのような代替案の主なものはスリケード=ヴァッサーシュタイン距離である。
確率測度間の元のユークリッドスライス-ワッサーシュタイン距離に遡り、勾配流のダイナミクスを研究する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimal Transport has received much attention in Machine Learning as it
allows to compare probability distributions by exploiting the geometry of the
underlying space. However, in its original formulation, solving this problem
suffers from a significant computational burden. Thus, a meaningful line of
work consists at proposing alternatives to reduce this burden while still
enjoying its properties. In this thesis, we focus on alternatives which use
projections on subspaces. The main such alternative is the Sliced-Wasserstein
distance, which we first propose to extend to Riemannian manifolds in order to
use it in Machine Learning applications for which using such spaces has been
shown to be beneficial in the recent years. We also study sliced distances
between positive measures in the so-called unbalanced OT problem. Back to the
original Euclidean Sliced-Wasserstein distance between probability measures, we
study the dynamic of gradient flows when endowing the space with this distance
in place of the usual Wasserstein distance. Then, we investigate the use of the
Busemann function, a generalization of the inner product in metric spaces, in
the space of probability measures. Finally, we extend the subspace detour
approach to incomparable spaces using the Gromov-Wasserstein distance.
- Abstract(参考訳): 最適輸送は、基礎となる空間の幾何学を利用して確率分布を比較することができるため、機械学習において多くの注目を集めている。
しかし、元々の定式化では、この問題を解決するにはかなりの計算負荷がかかる。
したがって、有意義な作業ラインは、その特性を享受しながら、この負担を軽減するための代替案を提案することにある。
この論文では、部分空間上の射影を用いる代替に焦点をあてる。
そのような代替案の主なものはスリケード・ワッサーシュタイン距離(英語版)であり、この距離はリーマン多様体に拡張して機械学習アプリケーションに応用することを最初に提案し、近年、そのような空間を使うことが有用であることが示されている。
また,いわゆる不均衡OT問題における正測度間のスライス距離についても検討した。
確率測度間の元のユークリッドスライクド=ワッサーシュタイン距離に遡って、通常のワッサーシュタイン距離の代わりにこの距離を持つ空間を与えるときの勾配流のダイナミクスを研究する。
次に、計量空間における内積の一般化である、確率測度の空間におけるブシェマン関数の利用について検討する。
最後に、Gromov-Wasserstein 距離を用いて、部分空間デトラルアプローチを非可換空間に拡張する。
関連論文リスト
- Sliced-Wasserstein Distances and Flows on Cartan-Hadamard Manifolds [13.851780805245477]
カルティマタン・アダマール多様体上のスライス・ワッサーシュタイン距離の一般構成を導出する。
また、ワッサーシュタイン勾配流を近似することにより、これらの新しい距離を最小化する非パラメトリックスキームを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:01:21Z) - Point Cloud Classification via Deep Set Linearized Optimal Transport [51.99765487172328]
我々は,点雲をL2-$spaceに効率的に同時埋め込むアルゴリズムであるDeep Set Linearized Optimal Transportを紹介した。
この埋め込みはワッサーシュタイン空間内の特定の低次元構造を保持し、点雲の様々なクラスを区別する分類器を構成する。
我々は,有限個のラベル付き点雲を持つフローデータセットの実験を通じて,標準的な深層集合アプローチに対するアルゴリズムの利点を実証する。
論文 参考訳(メタデータ) (2024-01-02T23:26:33Z) - Neural Gromov-Wasserstein Optimal Transport [82.05269165407427]
本稿では,Gromov-Wasserstein (GW) Optimal Transport (OT) 問題を内部積コストで解くためのスケーラブルなニューラルネットワーク手法を提案する。
提案手法では,ニューラルネットワークとミニバッチ最適化を用いて,既存の手法の限界を克服する。
論文 参考訳(メタデータ) (2023-03-10T15:21:12Z) - Stationary Kernels and Gaussian Processes on Lie Groups and their
Homogeneous Spaces II: non-compact symmetric spaces [63.79710443490585]
対称性は、考慮できる事前情報の最も基本的な形態の1つである。
本研究では,非ユークリッド空間の非常に大きなクラス上に定常ガウス過程を構築するための構築的および実践的手法を開発する。
論文 参考訳(メタデータ) (2023-01-30T17:27:12Z) - Gaussian Process regression over discrete probability measures: on the
non-stationarity relation between Euclidean and Wasserstein Squared
Exponential Kernels [0.19116784879310028]
ワッサーシュタイン型2乗指数核とユークリッド型指数核の非定常性関係について検討した。
入力空間をユークリッドとして非定常およびワッサーシュタインに基づくガウス過程モデルに変換するために変換が用いられる。
論文 参考訳(メタデータ) (2022-12-02T17:09:52Z) - Hyperbolic Sliced-Wasserstein via Geodesic and Horospherical Projections [17.48229977212902]
これは、双曲空間に埋め込まれる基盤となる階層構造を示す多くの種類のデータにとって有益であることが示されている。
機械学習の多くのツールがそのような空間に拡張されたが、それらの空間上で定義された確率分布を比較するための相違はわずかである。
本研究では,新しい双曲型スライスワッサーシュタインの相違点の導出を提案する。
論文 参考訳(メタデータ) (2022-11-18T07:44:27Z) - Neural Bregman Divergences for Distance Learning [60.375385370556145]
本稿では,入力凸ニューラルネットワークを用いて任意のブレグマン分岐を微分可能な方法で学習するための新しいアプローチを提案する。
提案手法は,新しいタスクと以前に研究されたタスクのセットにおいて,より忠実に相違点を学習することを示す。
我々のテストはさらに、既知の非対称なタスクにまで拡張するが、Bregmanでないタスクでは、不特定性にもかかわらず、我々のメソッドは競争的に機能する。
論文 参考訳(メタデータ) (2022-06-09T20:53:15Z) - Supervised learning of sheared distributions using linearized optimal
transport [64.53761005509386]
本稿では,確率測度空間における教師付き学習課題について検討する。
最適輸送フレームワークを用いて確率測度の空間を$L2$空間に埋め込むことでこの問題に対処する。
正規の機械学習技術は線形分離性を達成するために使われる。
論文 参考訳(メタデータ) (2022-01-25T19:19:59Z) - Subspace Detours Meet Gromov-Wasserstein [15.048733056992855]
サブスペースデタウトアプローチは、最近 Muzellec と Cuturi によって発表された。
本稿では,この手法をグロモフ・ワッサーシュタイン問題に拡張する。
論文 参考訳(メタデータ) (2021-10-21T07:04:28Z) - The Unbalanced Gromov Wasserstein Distance: Conic Formulation and
Relaxation [0.0]
距離測度空間(すなわち確率分布を持つ距離空間)を比較することは、多くの機械学習問題の中心である。
そのような距離空間の間の最も一般的な距離は計量測度Gro-Wasserstein (GW) 距離であり、その距離は二次である。
GW の定式化は、任意の正測度を持つ距離空間の比較を等距離まで緩和する。
論文 参考訳(メタデータ) (2020-09-09T12:38:14Z) - On Projection Robust Optimal Transport: Sample Complexity and Model
Misspecification [101.0377583883137]
射影ロバスト(PR)OTは、2つの測度の間のOTコストを最大化するために、射影可能な$k$次元部分空間を選択する。
私たちの最初の貢献は、PRワッサーシュタイン距離のいくつかの基本的な統計的性質を確立することである。
次に、部分空間を最適化するのではなく平均化することにより、PRW距離の代替として積分PRワッサーシュタイン距離(IPRW)を提案する。
論文 参考訳(メタデータ) (2020-06-22T14:35:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。