論文の概要: Wasserstein Gradient Flows of MMD Functionals with Distance Kernel and Cauchy Problems on Quantile Functions
- arxiv url: http://arxiv.org/abs/2408.07498v2
- Date: Fri, 08 Nov 2024 12:17:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 18:11:08.521137
- Title: Wasserstein Gradient Flows of MMD Functionals with Distance Kernel and Cauchy Problems on Quantile Functions
- Title(参考訳): 距離カーネルを持つMDD関数のワッサースタイン勾配流れと量子関数の因果問題
- Authors: Richard Duong, Viktor Stein, Robert Beinert, Johannes Hertrich, Gabriele Steidl,
- Abstract要約: 最大平均離散関数のワッサーシュタイン勾配流について述べる: $mathcal F_nu := textMMD_K2(cdot, nu)$。
ある$mathcal F_nu$-flowsに対して、これは初期点測度がすぐに絶対連続となり、時間とともにそれを維持することを意味する。
- 参考スコア(独自算出の注目度): 2.3301643766310374
- License:
- Abstract: We give a comprehensive description of Wasserstein gradient flows of maximum mean discrepancy (MMD) functionals $\mathcal F_\nu := \text{MMD}_K^2(\cdot, \nu)$ towards given target measures $\nu$ on the real line, where we focus on the negative distance kernel $K(x,y) := -|x-y|$. In one dimension, the Wasserstein-2 space can be isometrically embedded into the cone $\mathcal C(0,1) \subset L_2(0,1)$ of quantile functions leading to a characterization of Wasserstein gradient flows via the solution of an associated Cauchy problem on $L_2(0,1)$. Based on the construction of an appropriate counterpart of $\mathcal F_\nu$ on $L_2(0,1)$ and its subdifferential, we provide a solution of the Cauchy problem. For discrete target measures $\nu$, this results in a piecewise linear solution formula. We prove invariance and smoothing properties of the flow on subsets of $\mathcal C(0,1)$. For certain $\mathcal F_\nu$-flows this implies that initial point measures instantly become absolutely continuous, and stay so over time. Finally, we illustrate the behavior of the flow by various numerical examples using an implicit Euler scheme, which is easily computable by a bisection algorithm. For continuous targets $\nu$, also the explicit Euler scheme can be employed, although with limited convergence guarantees.
- Abstract(参考訳): 最大平均離散性(MMD)関数のワッサーシュタイン勾配フローを包括的に記述する: $\mathcal F_\nu := \text{MMD}_K^2(\cdot, \nu)$ は実数直線上の与えられた目標測度に対して$\nu$ となる。
ある次元において、ワッサーシュタイン-2空間は、$L_2(0,1)$上の関連するコーシー問題の解を通じてワッサーシュタイン勾配の特徴づけにつながるような量子函数の錐 $\mathcal C(0,1) \subset L_2(0,1)$ に等尺的に埋め込まれる。
L_2(0,1)$ 上の $\mathcal F_\nu$ の適切な値の構成とその部分微分に基づいて、コーシー問題の解を提供する。
離散的目標測度 $\nu$ に対して、これは断片線型解公式をもたらす。
我々は、$\mathcal C(0,1)$ の部分集合上のフローの不変性と滑らか性を証明する。
一定の$\mathcal F_\nu$-flows に対して、これは初期点測度がすぐに絶対連続となり、時間とともにそれを維持することを意味する。
最後に、暗黙のオイラースキームを用いて、様々な数値的な例による流れの挙動を説明する。
連続目標に対して、$\nu$ は明示的なオイラースキームも適用できるが、収束の保証は限られている。
関連論文リスト
- Data subsampling for Poisson regression with pth-root-link [53.63838219437508]
ポアソン回帰のためのデータサブサンプリング手法を開発し解析する。
特に,ポアソン一般化線形モデルと ID-および平方根リンク関数について考察する。
論文 参考訳(メタデータ) (2024-10-30T10:09:05Z) - Single-Loop Stochastic Algorithms for Difference of Max-Structured Weakly Convex Functions [41.43895948769255]
非滑らかな非漸近公正問題のクラスを$min_x[yin Yphi(x, y) - max_zin Zpsix(x, z)]$の形で示す。
本稿では,これらの問題を解く最初の方法であるエンベロープ近似勾配SMAGを提案する。
論文 参考訳(メタデータ) (2024-05-28T20:52:46Z) - Estimation and Inference in Distributional Reinforcement Learning [28.253677740976197]
サイズ$widetilde Oleft(frac|mathcalS||mathcalA|epsilon2 (1-gamma)4right)$ suffices to ensure the Kolmogorov metric and total variation metric between $hatetapi$ and $etapi$ is below $epsilon$ with high probability。
以上の結果から,多種多様な統計的汎関数の統計的推測への統一的アプローチがもたらされた。
論文 参考訳(メタデータ) (2023-09-29T14:14:53Z) - Properties of Discrete Sliced Wasserstein Losses [11.280151521887076]
Sliced Wasserstein (SW) 距離は、確率測度を比較するために、Wasserstein 距離の代替として人気がある。
広範囲のアプリケーションには画像処理、ドメイン適応、生成モデリングが含まれており、SWを最小化するためにパラメータを最適化することが一般的である。
このエネルギーの正則性と最適化特性、およびモンテカルロ近似 $mathcalE_p$ について検討する。
論文 参考訳(メタデータ) (2023-07-19T21:21:18Z) - Fast $(1+\varepsilon)$-Approximation Algorithms for Binary Matrix
Factorization [54.29685789885059]
本稿では, 2次行列分解(BMF)問題に対する効率的な$(1+varepsilon)$-approximationアルゴリズムを提案する。
目標は、低ランク因子の積として$mathbfA$を近似することである。
我々の手法はBMF問題の他の一般的な変種に一般化する。
論文 参考訳(メタデータ) (2023-06-02T18:55:27Z) - Beyond Uniform Smoothness: A Stopped Analysis of Adaptive SGD [38.221784575853796]
この研究は、勾配を用いて潜在的に一定の滑らかさを持つ非アトー関数の1次定常点を求める問題を考える。
我々は、ノイズに一様境界を仮定することなく$mathcalO(fracmathrmpolylog(T)sigmatT)$収束率を証明できる技術を開発した。
論文 参考訳(メタデータ) (2023-02-13T18:13:36Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Random matrices in service of ML footprint: ternary random features with
no performance loss [55.30329197651178]
我々は、$bf K$ の固有スペクトルが$bf w$ の i.d. 成分の分布とは独立であることを示す。
3次ランダム特徴(TRF)と呼ばれる新しいランダム手法を提案する。
提案したランダムな特徴の計算には乗算が不要であり、古典的なランダムな特徴に比べてストレージに$b$のコストがかかる。
論文 参考訳(メタデータ) (2021-10-05T09:33:49Z) - From Smooth Wasserstein Distance to Dual Sobolev Norm: Empirical
Approximation and Statistical Applications [18.618590805279187]
我々は$mathsfW_p(sigma)$が$pth次スムーズな双対ソボレフ$mathsfd_p(sigma)$で制御されていることを示す。
我々は、すべての次元において$sqrtnmathsfd_p(sigma)(hatmu_n,mu)$の極限分布を導出する。
論文 参考訳(メタデータ) (2021-01-11T17:23:24Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z) - On Gradient Descent Ascent for Nonconvex-Concave Minimax Problems [86.92205445270427]
非コンミニマックス問題、$min_mathbfx max_mathhidoty f(mathbfdoty)$を効率的に考える。
論文 参考訳(メタデータ) (2019-06-02T03:03:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。