論文の概要: Sliced-Wasserstein Gradient Flows
- arxiv url: http://arxiv.org/abs/2110.10972v1
- Date: Thu, 21 Oct 2021 08:34:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-23 07:14:39.890385
- Title: Sliced-Wasserstein Gradient Flows
- Title(参考訳): スライスド・ワッサースタイン勾配流
- Authors: Cl\'ement Bonet, Nicolas Courty, Fran\c{c}ois Septier, Lucas Drumetz
- Abstract要約: 確率分布の空間における函数の最小化は、ワッサーシュタイン勾配流によって行うことができる。
本研究は,スライス-ワッサーシュタイン距離による確率測度空間における勾配流の利用を提案する。
- 参考スコア(独自算出の注目度): 15.048733056992855
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Minimizing functionals in the space of probability distributions can be done
with Wasserstein gradient flows. To solve them numerically, a possible approach
is to rely on the Jordan-Kinderlehrer-Otto (JKO) scheme which is analogous to
the proximal scheme in Euclidean spaces. However, this bilevel optimization
problem is known for its computational challenges, especially in high
dimension. To alleviate it, very recent works propose to approximate the JKO
scheme leveraging Brenier's theorem, and using gradients of Input Convex Neural
Networks to parameterize the density (JKO-ICNN). However, this method comes
with a high computational cost and stability issues. Instead, this work
proposes to use gradient flows in the space of probability measures endowed
with the sliced-Wasserstein (SW) distance. We argue that this method is more
flexible than JKO-ICNN, since SW enjoys a closed-form differentiable
approximation. Thus, the density at each step can be parameterized by any
generative model which alleviates the computational burden and makes it
tractable in higher dimensions. Interestingly, we also show empirically that
these gradient flows are strongly related to the usual Wasserstein gradient
flows, and that they can be used to minimize efficiently diverse machine
learning functionals.
- Abstract(参考訳): 確率分布の空間における関数の最小化は、ワッサーシュタイン勾配流を用いて行うことができる。
これらを数値的に解くためには、ユークリッド空間の近位スキームに類似したjordan-kinderlehrer-otto(jko)スキームを用いる方法が考えられる。
しかし、この双レベル最適化問題は計算上の問題、特に高次元において知られている。
これを軽減するため、Brenierの定理を利用してJKOスキームを近似し、入力凸ニューラルネットワークの勾配を用いて密度をパラメータ化する手法(JKO-ICNN)を提案する。
しかし、この手法には高い計算コストと安定性の問題が伴う。
そこで本研究では,sliced-wasserstein (sw) 距離を持つ確率測度の空間における勾配流の利用を提案する。
我々は,この手法がJKO-ICNNよりも柔軟であると主張する。
したがって、各ステップの密度は、計算の負担を軽減し、高次元で扱いやすい任意の生成モデルによってパラメータ化することができる。
興味深いことに、これらの勾配流は通常のワッサーシュタイン勾配流と強く結びついており、効率的な機械学習関数の最小化に利用できることも実証的に示している。
関連論文リスト
- Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - D4FT: A Deep Learning Approach to Kohn-Sham Density Functional Theory [79.50644650795012]
コーンシャム密度汎関数論(KS-DFT)を解くための深層学習手法を提案する。
このような手法はSCF法と同じ表現性を持つが,計算複雑性は低下する。
さらに,本手法により,より複雑なニューラルベース波動関数の探索が可能となった。
論文 参考訳(メタデータ) (2023-03-01T10:38:10Z) - Deep Equilibrium Optical Flow Estimation [80.80992684796566]
最近のSOTA(State-of-the-art)光フローモデルでは、従来のアルゴリズムをエミュレートするために有限ステップの更新操作を使用する。
これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するために直接訓練されていない。
暗黙的層の無限レベル固定点として直接流れを解く手法として,Deep equilibrium Flow estimatorを提案する。
論文 参考訳(メタデータ) (2022-04-18T17:53:44Z) - Variational Wasserstein gradient flow [9.901677207027806]
本稿では、ワッサーシュタイン勾配流に対するスケーラブルな近位勾配型アルゴリズムを提案する。
この枠組みは熱方程式や多孔質媒質方程式を含む古典的なワッサーシュタイン勾配流を網羅する。
論文 参考訳(メタデータ) (2021-12-04T20:27:31Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Optimizing Functionals on the Space of Probabilities with Input Convex
Neural Networks [32.29616488152138]
この問題を解決する典型的なアプローチは、動的ジョルダン・キンドルラー・オットースキームとの接続に依存する。
本稿では,最近導入された入力-ニューラルネットワーク(ICNN)を利用して凸関数の空間をパラメータ化してJKOスキームを近似する手法を提案する。
論文 参考訳(メタデータ) (2021-06-01T20:13:18Z) - Large-Scale Wasserstein Gradient Flows [84.73670288608025]
ワッサーシュタイン勾配流を近似するスケーラブルなスキームを導入する。
我々のアプローチは、JKOステップを識別するために、入力ニューラルネットワーク(ICNN)に依存しています。
その結果、勾配拡散の各ステップで測定値からサンプリングし、その密度を計算することができる。
論文 参考訳(メタデータ) (2021-06-01T19:21:48Z) - The Wasserstein Proximal Gradient Algorithm [23.143814848127295]
ワッサーシュタイン勾配流は、確率測度の空間上の目的関数を最小化するために最も急勾配の曲線を定義する連続時間力学である。
目的関数が滑らかで非滑らかな空間的凸項の和である場合に対処できるフォワードバックワード(FB)離散化スキームを提案する。
論文 参考訳(メタデータ) (2020-02-07T22:19:32Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。