論文の概要: Unbalanced Optimal Transport, from Theory to Numerics
- arxiv url: http://arxiv.org/abs/2211.08775v1
- Date: Wed, 16 Nov 2022 09:02:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 14:38:06.691591
- Title: Unbalanced Optimal Transport, from Theory to Numerics
- Title(参考訳): 理論から数値への不均衡最適輸送
- Authors: Thibault S\'ejourn\'e, Gabriel Peyr\'e, Fran\c{c}ois-Xavier Vialard
- Abstract要約: 我々は、不均衡なOT、エントロピー正則化、Gromov-Wasserstein (GW) が、データサイエンスの効率的な幾何学的損失関数にOTを変換するために、ハンドインで機能すると主張している。
このレビューの主な動機は、不均衡なOT、エントロピー正則化、GWがいかに協力してOTをデータ科学の効率的な幾何学的損失関数に変えるかを説明することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimal Transport (OT) has recently emerged as a central tool in data
sciences to compare in a geometrically faithful way point clouds and more
generally probability distributions. The wide adoption of OT into existing data
analysis and machine learning pipelines is however plagued by several
shortcomings. This includes its lack of robustness to outliers, its high
computational costs, the need for a large number of samples in high dimension
and the difficulty to handle data in distinct spaces. In this review, we detail
several recently proposed approaches to mitigate these issues. We insist in
particular on unbalanced OT, which compares arbitrary positive measures, not
restricted to probability distributions (i.e. their total mass can vary). This
generalization of OT makes it robust to outliers and missing data. The second
workhorse of modern computational OT is entropic regularization, which leads to
scalable algorithms while lowering the sample complexity in high dimension. The
last point presented in this review is the Gromov-Wasserstein (GW) distance,
which extends OT to cope with distributions belonging to different metric
spaces. The main motivation for this review is to explain how unbalanced OT,
entropic regularization and GW can work hand-in-hand to turn OT into efficient
geometric loss functions for data sciences.
- Abstract(参考訳): 最適輸送(OT)は、幾何学的に忠実な点雲とより一般的に確率分布を比較するために、データサイエンスの中心的なツールとして最近登場した。
しかし、既存のデータ分析と機械学習パイプラインへのOTの広範な採用は、いくつかの欠点に悩まされている。
これには、外れ値に対する堅牢性の欠如、高い計算コスト、高次元の多数のサンプルの必要性、異なる空間におけるデータ処理の難しさが含まれる。
本稿では,これらの問題を緩和するための最近提案されたアプローチについて述べる。
特に、確率分布に制限されない任意の正測度を比較する不均衡OTについて主張する(つまり、その総質量は変化する)。
このotの一般化は、外れ値や不足データに対して堅牢である。
現代の計算OTの第二のワークホースはエントロピック正規化であり、高次元のサンプル複雑性を下げながらスケーラブルなアルゴリズムをもたらす。
このレビューで提示される最後のポイントはGromov-Wasserstein (GW) 距離であり、これは異なる距離空間に属する分布を扱うためにOTを拡張する。
このレビューの主な動機は、不均衡なOT、エントロピー正則化、GWがいかに協力してOTをデータ科学の効率的な幾何学的損失関数に変えるかを説明することである。
関連論文リスト
- A Statistical Learning Perspective on Semi-dual Adversarial Neural Optimal Transport Solvers [65.28989155951132]
本稿では,ミニマックス二次OT解法により得られた近似OT写像の一般化誤差の上限を確立する。
解析は二次 OT に焦点をあてるが、より一般的な OT の定式化のために類似した境界を導出できると考えている。
論文 参考訳(メタデータ) (2025-02-03T12:37:20Z) - Semi-Discrete Optimal Transport: Nearly Minimax Estimation With Stochastic Gradient Descent and Adaptive Entropic Regularization [38.67914746910537]
我々は,ラゲールセル推定と密度支持推定の類似性を用いて,OTマップに対して$mathcalO(t-1)$の低いバウンダリレートを証明した。
所望の速さをほぼ達成するために,サンプル数に応じて減少するエントロピー正規化スキームを設計する。
論文 参考訳(メタデータ) (2024-05-23T11:46:03Z) - A Specialized Semismooth Newton Method for Kernel-Based Optimal
Transport [92.96250725599958]
カーネルベース最適輸送(OT)推定器は、サンプルからOT問題に対処するための代替的機能的推定手順を提供する。
SSN法は, 標準正規性条件下でのグローバル収束率$O (1/sqrtk)$, 局所二次収束率を達成できることを示す。
論文 参考訳(メタデータ) (2023-10-21T18:48:45Z) - Energy-Guided Continuous Entropic Barycenter Estimation for General Costs [95.33926437521046]
任意のOTコスト関数に対して連続的エントロピーOT(EOT)バリセンタを近似する新しいアルゴリズムを提案する。
本手法は、弱いOTに基づくEOT問題の二重再構成に基づいている。
論文 参考訳(メタデータ) (2023-10-02T11:24:36Z) - Slicing Unbalanced Optimal Transport [13.679363125262599]
最適輸送は確率測度を比較するための強力なフレームワークである。
スライスされた非平衡OTの2つの異なるバージョンを定式化し、関連するトポロジと統計的性質について検討する。
次に、対応する損失関数を計算するためのGPUフレンドリーなFrank-Wolfeのようなアルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-06-12T15:15:00Z) - Unbalanced Low-rank Optimal Transport Solvers [38.79369155558385]
線形OT問題とFused-Gromov-Wasserstein一般化のための拡張を実装するアルゴリズムを提案する。
本研究の目的は, これら2つの系統を融合して, 汎用・スカラー・アンバランス・低ランクOTソルバの約束を実現することである。
論文 参考訳(メタデータ) (2023-05-31T10:39:51Z) - Robust computation of optimal transport by $\beta$-potential
regularization [79.24513412588745]
最適輸送(OT)は、確率分布間の差を測定する機械学習分野で広く使われているツールである。
我々は、いわゆる$beta$-divergenceに付随するベータポテンシャル項でOTを正規化することを提案する。
提案アルゴリズムで計算した輸送行列は,外乱が存在する場合でも確率分布を頑健に推定するのに役立つことを実験的に実証した。
論文 参考訳(メタデータ) (2022-12-26T18:37:28Z) - Low-rank Optimal Transport: Approximation, Statistics and Debiasing [51.50788603386766]
フロゼットボン2021ローランで提唱された低ランク最適輸送(LOT)アプローチ
LOTは興味のある性質と比較した場合、エントロピー正則化の正当な候補と見なされる。
本稿では,これらの領域のそれぞれを対象とし,計算OTにおける低ランクアプローチの影響を補強する。
論文 参考訳(メタデータ) (2022-05-24T20:51:37Z) - Efficient estimates of optimal transport via low-dimensional embeddings [0.0]
最適輸送距離(OT)は、確率分布を比較する方法として機械学習の最近の研究で広く使われている。
Patyらによる最近の研究は、データの低ランクプロジェクションを使用してOTを計算することで、このコスト削減を特に目指している。
このアプローチを拡張し、1-Lipschitz であれば、より一般的な写像の族を用いることで、OT 距離を近似できることを示す。
論文 参考訳(メタデータ) (2021-11-08T21:22:51Z) - Debiased Sinkhorn barycenters [110.79706180350507]
最適輸送(OT)におけるエントロピー正則化(Entropy regularization)は、機械学習におけるWassersteinメトリクスやバリセンタに対する近年の関心の原動力となっている。
このバイアスがエントロピー正則化器を定義する基準測度とどのように密接に関連しているかを示す。
両世界の長所を保ち、エントロピーを滑らかにしないシンクホーン様の高速な反復をデバイアスド・ワッサースタインのバリセンタとして提案する。
論文 参考訳(メタデータ) (2020-06-03T23:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。