論文の概要: Neural Wasserstein Gradient Flows for Maximum Mean Discrepancies with
Riesz Kernels
- arxiv url: http://arxiv.org/abs/2301.11624v1
- Date: Fri, 27 Jan 2023 09:57:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 15:54:00.662673
- Title: Neural Wasserstein Gradient Flows for Maximum Mean Discrepancies with
Riesz Kernels
- Title(参考訳): Rieszカーネルを用いた最大平均誤差に対するニューラルワッサースタイン勾配流
- Authors: Fabian Altekr\"uger, Johannes Hertrich, Gabriele Steidl
- Abstract要約: 非滑らかなリース核を持つ最大平均差分関数(MMD)のワッサーシュタイン勾配流は、リッチな構造を示す。
本稿では,ヨルダン,キンデレーア,オットーの逆方向スキームを近似して,ワッサーシュタイン勾配流の計算法を提案する。
ダイラック測度から始まるワッサーシュタインスキームの解析式を提供し、時間ステップサイズがゼロになる傾向にあるときにそれらの収束を示す。
- 参考スコア(独自算出の注目度): 0.225596179391365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Wasserstein gradient flows of maximum mean discrepancy (MMD) functionals with
non-smooth Riesz kernels show a rich structure as singular measures can become
absolutely continuous ones and conversely. In this paper we contribute to the
understanding of such flows. We propose to approximate the backward scheme of
Jordan, Kinderlehrer and Otto for computing such Wasserstein gradient flows as
well as a forward scheme for so-called Wasserstein steepest descent flows by
neural networks (NNs). Since we cannot restrict ourselves to absolutely
continuous measures, we have to deal with transport plans and velocity plans
instead of usual transport maps and velocity fields. Indeed, we approximate the
disintegration of both plans by generative NNs which are learned with respect
to appropriate loss functions. In order to evaluate the quality of both neural
schemes, we benchmark them on the interaction energy. Here we provide analytic
formulas for Wasserstein schemes starting at a Dirac measure and show their
convergence as the time step size tends to zero. Finally, we illustrate our
neural MMD flows by numerical examples.
- Abstract(参考訳): 非スムースリース核を持つ最大平均差(mmd)汎函数のワッサーシュタイン勾配流は、特異測度が絶対連続となることができるのでリッチな構造を示す。
本稿では,このような流れの理解に寄与する。
本稿では、ワーサースタイン勾配流の計算と、ニューラルネットワーク(NN)によるワーサースタイン急降下流のフォワードスキームについて、ヨルダン、キンダーラー、オットーの逆向きスキームを近似することを提案する。
絶対連続的な測度に制限できないため、通常の輸送地図や速度場ではなく、輸送計画や速度計画に対処する必要がある。
実際、我々は、適切な損失関数に関して学習される生成nnによる両方の計画の崩壊を近似する。
両方のニューラルスキームの品質を評価するために、相互作用エネルギーに基づいてそれらをベンチマークする。
ここでは、ディラック測度から始まるwassersteinスキームの解析公式を提供し、時間ステップサイズがゼロになるにつれてそれらの収束を示す。
最後に,神経mmdの流れを数値的な例で示す。
関連論文リスト
- A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Posterior Sampling Based on Gradient Flows of the MMD with Negative Distance Kernel [2.199065293049186]
後方サンプリングと条件生成モデリングのための負距離カーネルによる最大平均誤差(MMD)の条件フロー。
我々は、基底真実と離散的なワッサーシュタイン勾配流を用いた観測の連成分布を近似した。
論文 参考訳(メタデータ) (2023-10-04T11:40:02Z) - Deep Random Vortex Method for Simulation and Inference of Navier-Stokes
Equations [69.5454078868963]
ナビエ・ストークス方程式(Navier-Stokes equation)は、液体や空気などの流体の運動を記述する重要な偏微分方程式である。
AI技術の発展に伴い、非圧縮性ナビエ・ストークス方程式によって支配される流体力学をシミュレーションし、推論するために、ディープニューラルネットワークを統合するためにいくつかのアプローチが設計された。
本研究では,ニューラルネットワークとNavier-Stokes方程式に相当するランダム渦力学系を組み合わせたemphDeep Random Vortex Method (DRVM)を提案する。
論文 参考訳(メタデータ) (2022-06-20T04:58:09Z) - Deep Equilibrium Optical Flow Estimation [80.80992684796566]
最近のSOTA(State-of-the-art)光フローモデルでは、従来のアルゴリズムをエミュレートするために有限ステップの更新操作を使用する。
これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するために直接訓練されていない。
暗黙的層の無限レベル固定点として直接流れを解く手法として,Deep equilibrium Flow estimatorを提案する。
論文 参考訳(メタデータ) (2022-04-18T17:53:44Z) - Variational Wasserstein gradient flow [9.901677207027806]
本稿では、ワッサーシュタイン勾配流に対するスケーラブルな近位勾配型アルゴリズムを提案する。
この枠組みは熱方程式や多孔質媒質方程式を含む古典的なワッサーシュタイン勾配流を網羅する。
論文 参考訳(メタデータ) (2021-12-04T20:27:31Z) - Sliced-Wasserstein Gradient Flows [15.048733056992855]
確率分布の空間における函数の最小化は、ワッサーシュタイン勾配流によって行うことができる。
本研究は,スライス-ワッサーシュタイン距離による確率測度空間における勾配流の利用を提案する。
論文 参考訳(メタデータ) (2021-10-21T08:34:26Z) - Large-Scale Wasserstein Gradient Flows [84.73670288608025]
ワッサーシュタイン勾配流を近似するスケーラブルなスキームを導入する。
我々のアプローチは、JKOステップを識別するために、入力ニューラルネットワーク(ICNN)に依存しています。
その結果、勾配拡散の各ステップで測定値からサンプリングし、その密度を計算することができる。
論文 参考訳(メタデータ) (2021-06-01T19:21:48Z) - Learning High Dimensional Wasserstein Geodesics [55.086626708837635]
高次元の2つの確率分布の間のワッサーシュタイン測地線を計算するための新しい定式化と学習戦略を提案する。
ラグランジュ乗算器の手法を最適輸送(OT)問題の動的定式化に適用することにより、サドル点がワッサーシュタイン測地線であるミニマックス問題を導出する。
次に、深層ニューラルネットワークによる関数のパラメータ化を行い、トレーニングのためのサンプルベースの双方向学習アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-02-05T04:25:28Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。