論文の概要: Generative Sliced MMD Flows with Riesz Kernels
- arxiv url: http://arxiv.org/abs/2305.11463v2
- Date: Thu, 31 Aug 2023 12:42:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 20:10:05.435396
- Title: Generative Sliced MMD Flows with Riesz Kernels
- Title(参考訳): Rieszカーネルを用いたジェネレーションスライスMD流れ
- Authors: Johannes Hertrich, Christian Wald, Fabian Altekr\"uger, Paul Hagemann
- Abstract要約: 最大平均誤差(MMD)フローは大規模計算において高い計算コストを被る。
Riesz カーネルでの MMD フローが $K(x,y) = - Vert x-yVertr$, $r in (0,2)$ であることを示す。
- 参考スコア(独自算出の注目度): 0.393259574660092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Maximum mean discrepancy (MMD) flows suffer from high computational costs in
large scale computations. In this paper, we show that MMD flows with Riesz
kernels $K(x,y) = - \Vert x-y\Vert^r$, $r \in (0,2)$ have exceptional
properties which allow their efficient computation. We prove that the MMD of
Riesz kernels coincides with the MMD of their sliced version. As a consequence,
the computation of gradients of MMDs can be performed in the one-dimensional
setting. Here, for $r=1$, a simple sorting algorithm can be applied to reduce
the complexity from $O(MN+N^2)$ to $O((M+N)\log(M+N))$ for two measures with
$M$ and $N$ support points. As another interesting follow-up result, the MMD of
compactly supported measures can be estimated from above and below by the
Wasserstein-1 distance. For the implementations we approximate the gradient of
the sliced MMD by using only a finite number $P$ of slices. We show that the
resulting error has complexity $O(\sqrt{d/P})$, where $d$ is the data
dimension. These results enable us to train generative models by approximating
MMD gradient flows by neural networks even for image applications. We
demonstrate the efficiency of our model by image generation on MNIST,
FashionMNIST and CIFAR10.
- Abstract(参考訳): 最大平均誤差(MMD)フローは大規模計算において高い計算コストを被る。
本稿では, Riesz カーネルによる MMD のフローが $K(x,y) = - \Vert x-y\Vert^r$, $r \in (0,2)$ であることを示す。
RieszカーネルのMDDはスライスされたバージョンのMDと一致することを証明した。
その結果、MDDの勾配の計算は1次元の設定で行うことができる。
ここでは、$r=1$の場合、単純なソートアルゴリズムを用いて複雑さを$O(MN+N^2)$から$O((M+N)\log(M+N))$に減らすことができる。
別の興味深い追従の結果として、コンパクトに支持された測度のMDDは、ワッサーシュタイン-1距離によって上下から推定できる。
実装のために、スライスした mmd の勾配を有限個のスライス数 $p$ だけを用いて近似する。
結果の誤差は複雑さ$O(\sqrt{d/P})$であり、$d$はデータ次元である。
これらの結果から,画像応用においてもニューラルネットワークによるmmd勾配流を近似して生成モデルの訓練が可能となった。
MNIST, FashionMNIST, CIFAR10の画像生成によるモデルの有効性を示す。
関連論文リスト
- Infinite-Horizon Reinforcement Learning with Multinomial Logistic Function Approximation [3.2703356989962518]
非線型関数近似を用いたモデルに基づく強化学習について検討する。
本研究では,無限水平平均逆法と割引逆法の両方に有効である確率効率のよい値反復型アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-06-19T15:29:14Z) - Near Sample-Optimal Reduction-based Policy Learning for Average Reward
MDP [58.13930707612128]
この研究は、平均報酬マルコフ決定過程(AMDP)における$varepsilon$-Optimal Policyを得る際のサンプルの複雑さを考察する。
我々は、状態-作用対当たりの$widetilde O(H varepsilon-3 ln frac1delta)$サンプルを証明し、$H := sp(h*)$は任意の最適ポリシーのバイアスのスパンであり、$varepsilon$は精度、$delta$は失敗確率である。
論文 参考訳(メタデータ) (2022-12-01T15:57:58Z) - Reward-Mixing MDPs with a Few Latent Contexts are Learnable [75.17357040707347]
報酬混合マルコフ決定過程(RMMDP)におけるエピソード強化学習の検討
我々のゴールは、そのようなモデルにおける時間段階の累積報酬をほぼ最大化する、ほぼ最適に近いポリシーを学ぶことである。
論文 参考訳(メタデータ) (2022-10-05T22:52:00Z) - Computationally Efficient Horizon-Free Reinforcement Learning for Linear
Mixture MDPs [111.75736569611159]
線形混合MDPのための計算効率のよい初めての地平線フリーアルゴリズムを提案する。
我々のアルゴリズムは、未知の遷移力学に対する重み付き最小二乗推定器に適応する。
これにより、$sigma_k2$'sが知られているときに、この設定で最もよく知られたアルゴリズムも改善される。
論文 参考訳(メタデータ) (2022-05-23T17:59:18Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Multimeasurement Generative Models [7.502947376736449]
我々は、密度$p_X$ in $mathbbRd$を未知分布からサンプリングする問題を学習とサンプリングの問題を$p_mathbfY$ in $mathbbRMd$とする。
論文 参考訳(メタデータ) (2021-12-18T02:11:36Z) - Hybrid Stochastic-Deterministic Minibatch Proximal Gradient:
Less-Than-Single-Pass Optimization with Nearly Optimal Generalization [83.80460802169999]
HSDMPGは、学習モデル上で過大なエラーの順序である$mathcalObig(1/sttnbig)$を達成可能であることを示す。
損失係数について、HSDMPGは学習モデル上で過大なエラーの順序である$mathcalObig(1/sttnbig)$を達成できることを示す。
論文 参考訳(メタデータ) (2020-09-18T02:18:44Z) - Convergence of Sparse Variational Inference in Gaussian Processes
Regression [29.636483122130027]
計算コストが$mathcalO(log N)2D(log N)2)$の手法を推論に利用できることを示す。
論文 参考訳(メタデータ) (2020-08-01T19:23:34Z) - Provably Efficient Reinforcement Learning for Discounted MDPs with
Feature Mapping [99.59319332864129]
本稿では,割引決定(MDP)のための強化学習について検討する。
本稿では,特徴写像を利用した新しいアルゴリズムを提案し,$tilde O(dsqrtT/ (1-gamma)2)$ regretを求める。
以上の結果から,提案した強化学習アルゴリズムは,最大1-γ-0.5$の係数でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-23T17:08:54Z) - Robust Interference Management for SISO Systems with Multiple
Over-the-Air Computations [16.52374405363812]
複素数値を共有するMAC上での総和のオーバー・ザ・エア計算について考察する。
適切なTx-Rxスケーリング因子を見つけることは、$s_n$の計算における低エラーとそれによって引き起こされる干渉との間にバランスをとる。
論文 参考訳(メタデータ) (2020-04-21T11:15:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。