論文の概要: The Monge Gap: A Regularizer to Learn All Transport Maps
- arxiv url: http://arxiv.org/abs/2302.04953v1
- Date: Thu, 9 Feb 2023 21:56:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 17:04:59.988296
- Title: The Monge Gap: A Regularizer to Learn All Transport Maps
- Title(参考訳): Monge Gap:すべての交通地図を学習するための正規化ツール
- Authors: Th\'eo Uscidda, Marco Cuturi
- Abstract要約: ブレニエの定理は、地価が二乗ユークリッド距離であるとき、$mathcalP(Rd)$で連続測度を変形させるベストの写像は凸函数の勾配でなければならないというものである。
数学的優雅さにもかかわらず、ICNNにOTマップを組み込むことは多くの課題を提起する。
我々は、OTマップを推定するアプローチを根本的に異なるアプローチで提案する。
- 参考スコア(独自算出の注目度): 34.81915836064636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimal transport (OT) theory has been been used in machine learning to study
and characterize maps that can push-forward efficiently a probability measure
onto another. Recent works have drawn inspiration from Brenier's theorem, which
states that when the ground cost is the squared-Euclidean distance, the
``best'' map to morph a continuous measure in $\mathcal{P}(\Rd)$ into another
must be the gradient of a convex function. To exploit that result, [Makkuva+
2020, Korotin+2020] consider maps $T=\nabla f_\theta$, where $f_\theta$ is an
input convex neural network (ICNN), as defined by Amos+2017, and fit $\theta$
with SGD using samples. Despite their mathematical elegance, fitting OT maps
with ICNNs raises many challenges, due notably to the many constraints imposed
on $\theta$; the need to approximate the conjugate of $f_\theta$; or the
limitation that they only work for the squared-Euclidean cost. More generally,
we question the relevance of using Brenier's result, which only applies to
densities, to constrain the architecture of candidate maps fitted on samples.
Motivated by these limitations, we propose a radically different approach to
estimating OT maps: Given a cost $c$ and a reference measure $\rho$, we
introduce a regularizer, the Monge gap $\mathcal{M}^c_{\rho}(T)$ of a map $T$.
That gap quantifies how far a map $T$ deviates from the ideal properties we
expect from a $c$-OT map. In practice, we drop all architecture requirements
for $T$ and simply minimize a distance (e.g., the Sinkhorn divergence) between
$T\sharp\mu$ and $\nu$, regularized by $\mathcal{M}^c_\rho(T)$. We study
$\mathcal{M}^c_{\rho}$, and show how our simple pipeline outperforms
significantly other baselines in practice.
- Abstract(参考訳): 最適輸送(OT)理論は、確率測度を他へ効率的にプッシュフォワードできる地図の研究と特徴付けに機械学習で使用されている。
最近の研究はブレニエの定理から着想を得ており、この定理は、地価が二乗ユークリッド距離であるとき、 '`best'' の写像が $\mathcal{P}(\Rd)$ の連続測度をもう1つの凸函数の勾配でなければならないというものである。
この結果を活用するために、[Makkuva+2020, Korotin+2020]は、Amos+2017が定義した入力凸ニューラルネットワーク(ICNN)である$T=\nabla f_\theta$とサンプルを使用してSGDに適合する$T=\nabla f_\theta$を検討している。
数学的なエレガンスにもかかわらず、OTマップをICNNに適合させることは、$\theta$に課される多くの制約、$f_\theta$の共役を近似する必要性、または正方形ユークリッドコストにのみ作用する制限など、多くの問題を引き起こす。
より一般に、サンプルに適合する候補マップのアーキテクチャを制約するために、密度のみに適用されるbrenierの結果を使うことの関連性を疑問視する。
コスト $c$ と参照測度 $\rho$ を与えられたとき、正規化子である monge gap $\mathcal{m}^c_{\rho}(t)$ の写像 $t$ を導入する。
このギャップは、$T$ が $c$-OT マップから期待する理想的な性質からどれだけ離れるかを定量化する。
実際には、$T$のアーキテクチャ要件をすべて廃止し、$T\sharp\mu$ と $\nu$ の間の距離(例えば Sinkhorn の発散)を $\mathcal{M}^c_\rho(T)$ で正規化する。
我々は$\mathcal{m}^c_{\rho}$を研究し、我々の単純なパイプラインが実際の他のベースラインをかなり上回っていることを示す。
関連論文リスト
- A Near-Linear Time Algorithm for the Chamfer Distance [21.018781726524946]
チャンファー距離は点雲間の相似性の一般的な尺度である。
1+epsilon)$-approximate アルゴリズムは,Chamfer 距離をほぼ直線走行時間で推定する。
我々の実験は、大規模な高次元データセット上では正確かつ高速であることを示した。
論文 参考訳(メタデータ) (2023-07-06T15:07:48Z) - Learning Elastic Costs to Shape Monge Displacements [39.381326738705255]
モンスター問題は、一方の分布をもう一方にマップする最も効率的な方法を見つけるように要求する。
弾力性のあるコストは、Monge mapのtextitdisplacementsを$T$にします。
本稿では,モンジュマップを最適に計算するための数値計算法を提案する。
論文 参考訳(メタデータ) (2023-06-20T21:17:32Z) - Monge, Bregman and Occam: Interpretable Optimal Transport in
High-Dimensions with Feature-Sparse Maps [37.45959537338404]
我々は、$tau$ のスパース性誘導ノルムを選択すると、Occam のカミソリを輸送に応用する写像が得られることを示した。
本稿では,高次元単細胞転写データに対して有意なマップを推定する手法について紹介する。
論文 参考訳(メタデータ) (2023-02-08T14:02:34Z) - Supervised Training of Conditional Monge Maps [107.78770597815242]
最適輸送(OT)理論は、多くの可能な選択の中から確率測度を他のものにマッピングする最も効率的な方法を定義し、選択する一般的な原理を記述している。
本研究では,コンテキスト変数に条件付きOTマップの族を推定するマルチタスク手法であるCondOTを紹介する。
本研究では,CondOTの遺伝的・治療的摂動の任意の組み合わせが単一細胞に与える影響を推測する能力を示す。
論文 参考訳(メタデータ) (2022-06-28T19:34:44Z) - Fast Graph Sampling for Short Video Summarization using Gershgorin Disc
Alignment [52.577757919003844]
高速グラフサンプリングの最近の進歩を利用して,短い動画を複数の段落に効率よく要約する問題について検討する。
実験結果から,本アルゴリズムは最先端の手法と同等の映像要約を実現し,複雑さを大幅に低減した。
論文 参考訳(メタデータ) (2021-10-21T18:43:00Z) - On the Power of Multitask Representation Learning in Linear MDP [61.58929164172968]
本稿では,線形マルコフ決定過程(MDP)におけるマルチタスク表現学習の統計的メリットについて分析する。
簡単な最小二乗アルゴリズムが $tildeO(H2sqrtfrackappa MathcalC(Phi)2 kappa dNT+frackappa dn) というポリシーを学ぶことを証明した。
論文 参考訳(メタデータ) (2021-06-15T11:21:06Z) - Optimal Regret Algorithm for Pseudo-1d Bandit Convex Optimization [51.23789922123412]
我々は,バンディットフィードバックを用いてオンライン学習を学習する。
learnerは、コスト/リワード関数が"pseudo-1d"構造を許可するゼロ次オラクルのみにアクセスできる。
我々は、$T$がラウンドの数である任意のアルゴリズムの後悔のために$min(sqrtdT、T3/4)$の下限を示しています。
ランダム化オンライングラデーション下降とカーネル化指数重み法を組み合わせた新しいアルゴリズムsbcalgを提案し,疑似-1d構造を効果的に活用する。
論文 参考訳(メタデータ) (2021-02-15T08:16:51Z) - Hardness of Learning Halfspaces with Massart Noise [56.98280399449707]
我々は、マッサート(有界)ノイズの存在下でPAC学習のハーフスペースの複雑さを研究します。
情報理論上最適なエラーとSQアルゴリズムで達成できる最高のエラーとの間に指数関数的なギャップがあることを示した。
論文 参考訳(メタデータ) (2020-12-17T16:43:11Z) - On Efficient Low Distortion Ultrametric Embedding [18.227854382422112]
データの基盤となる階層構造を保存するために広く用いられる方法は、データを木や超音波に埋め込む方法を見つけることである。
本稿では,$mathbbRd2(ユニバーサル定数$rho>1$)の点集合を入力として,超測度$Deltaを出力する新しいアルゴリズムを提案する。
我々のアルゴリズムの出力はリンクアルゴリズムの出力に匹敵するが、より高速な実行時間を実現する。
論文 参考訳(メタデータ) (2020-08-15T11:06:45Z) - Taking a hint: How to leverage loss predictors in contextual bandits? [63.546913998407405]
我々は,損失予測の助けを借りて,文脈的包帯における学習を研究する。
最適な後悔は$mathcalO(minsqrtT, sqrtmathcalETfrac13)$である。
論文 参考訳(メタデータ) (2020-03-04T07:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。